Meta AI Mengembangkan Model Affordansi Visual Menggunakan Video Internet Perilaku Manusia untuk Meningkatkan Kemampuan Robot dalam Tugas yang Kompleks

Revolutionisasi Robotics dengan Menggunakan Video Manusia sebagai Alat Pelatihan

Pada zaman yang semakin maju ini, kecerdasan buatan (AI) telah mengambil peran yang semakin penting dalam berbagai bidang, termasuk robotics. Organisasi penelitian kecerdasan buatan terkemuka, Meta AI, baru-baru ini mengungkapkan sebuah algoritma terobosan yang menjanjikan untuk merevolusi bidang robotics. Dalam penelitian mereka yang berjudul “Affordances from Human Videos as a Versatile Representation for Robotics,” para penulis menjelajahi penggunaan video YouTube sebagai alat pelatihan yang powerful bagi robot untuk belajar dan meniru aksi manusia. Dengan memanfaatkan sumber daya yang melimpah dari video instruksional online, algoritma canggih ini bertujuan untuk menjembatani kesenjangan antara dataset statis dan aplikasi robot di dunia nyata, memungkinkan robot untuk melakukan tugas-tugas kompleks dengan lebih fleksibilitas dan adaptabilitas.

Konsep “Affordances” dalam Pengembangan Algoritma Inovatif ini

Pentingnya pendekatan inovatif ini terletak pada konsep “affordances.” Affordances merupakan potensi aksi atau interaksi yang ditawarkan oleh objek atau lingkungan. Dengan melatih robot untuk memahami dan memanfaatkan affordances ini melalui analisis video manusia, algoritma Meta AI memberikan representasi yang serbaguna bagi robot tentang cara melakukan berbagai tugas kompleks. Terobosan ini meningkatkan kemampuan robot untuk meniru aksi manusia dan memberdayakan mereka untuk menerapkan pengetahuan yang mereka peroleh di lingkungan baru yang tidak familiar.

Untuk memastikan integrasi yang lancar dari model berbasis affordances ini ke dalam proses pembelajaran robot, para peneliti di Meta AI telah menggabungkannya ke dalam empat paradigma pembelajaran robot yang berbeda. Paradigma-paradigma ini termasuk pembelajaran tiruan offline, eksplorasi, pembelajaran terkondisi tujuan, dan parameterisasi aksi untuk pembelajaran penguatan. Dengan menggabungkan kekuatan pengenalan affordances dengan metodologi pembelajaran ini, robot dapat memperoleh keterampilan baru dan melakukan tugas dengan lebih presisi dan efisiensi.

Untuk melatih model affordances dengan efektif, Meta AI menggunakan dataset video manusia dalam skala besar, seperti Ego4D dan Epic Kitchens. Dengan menganalisis video-video ini, para peneliti menggunakan detektor interaksi tangan-objek yang sudah tersedia untuk mengidentifikasi daerah kontak dan melacak lintasan pergelangan tangan setelah kontak. Namun, tantangan besar muncul saat kehadiran manusia dalam adegan menyebabkan pergeseran distribusi. Untuk mengatasi hambatan ini, para peneliti memanfaatkan informasi kamera yang tersedia untuk memproyeksikan titik kontak dan lintasan pasca-kontak ke dalam bingkai yang tidak bergantung pada manusia, yang kemudian berfungsi sebagai input bagi model mereka.

Membuka Jalan Menuju Robot yang Bisa Belajar Sendiri dengan Menggunakan Video YouTube

Sebelum terobosan ini, robot terbatas dalam kemampuannya untuk meniru aksi manusia, terutama hanya terbatas pada replikasi lingkungan tertentu. Namun, dengan algoritma terbaru dari Meta AI, kemajuan signifikan telah dicapai dalam menggeneralisasi aksi robot. Hal ini berarti robot sekarang dapat menerapkan pengetahuan yang mereka peroleh di lingkungan baru yang tidak familiar, menunjukkan tingkat adaptabilitas yang lebih tinggi.

Meta AI berkomitmen untuk memajukan bidang computer vision dan mendorong kolaborasi antara peneliti dan pengembang. Sesuai dengan komitmen ini, organisasi ini berencana untuk membagikan kode dan dataset dari proyek mereka. Dengan membuat sumber daya ini dapat diakses oleh orang lain, Meta AI bertujuan untuk mendorong eksplorasi dan pengembangan lebih lanjut dalam teknologi ini. Pendekatan terbuka ini akan memungkinkan pengembangan robot yang dapat belajar sendiri dan memperoleh keterampilan dan pengetahuan baru dari video-video YouTube, mendorong bidang robotics ke ranah baru inovasi.

Disarikan dari: Link