PLASMA: Framework AI Baru untuk Meningkatkan Kemampuan Model Bahasa pada Perencanaan Prosedural dan Perencanaan Kontrafaktual
Perencanaan prosedural atau procedural planning adalah sebuah kegiatan yang melibatkan pemecahan tujuan yang tinggi menjadi serangkaian tindakan yang logis, meyakinkan, dan berorientasi pada tujuan. Saat ini, model bahasa besar (LLMs) telah terbukti sangat baik dalam melaksanakan tugas ini berkat ukurannya yang besar. Namun, implementasi LLMs yang luas masih dihambat oleh biaya komputasi yang tinggi dan masalah aksesibilitas.
Untuk mengatasi masalah tersebut, para peneliti dari Allen Institute for Artificial Intelligence, University of Washington, University of Southern California, Tohoku University, dan University of Pittsburg mengembangkan PLASMA (PLAn with tiny models), sebuah kerangka kerja baru yang terdiri dari dua pendekatan yang berbeda untuk membantu model bahasa kecil memperoleh keterampilan perencanaan.
Pendekatan pertama adalah teknik dekoding saat inferensi, yang memungkinkan pemikiran terstruktur dan distilasi pengetahuan prosedural simbolik untuk meningkatkan pengetahuan implisit pada model bahasa kecil. Pendekatan kedua adalah distilasi pengetahuan prosedural yang diperpanjang dan diformulasikan dalam dua tahap: verbalisasi pengetahuan untuk menghasilkan pengetahuan prosedural dari LLM dan distilasi pengetahuan untuk memindahkan pengetahuan yang dihasilkan oleh LLM ke dalam model bahasa kecil.
PLASMA menghasilkan COPLAN, sebuah dataset perencanaan (kontrafaktual) prosedural yang signifikan, berkat metode verbalisasi informasi mereka untuk formulasi tugas inovatif dalam konteks yang terbatas secara kontekstual, seperti perencanaan dan revisi kontrafaktual. COPLAN selanjutnya digunakan untuk melatih model yang lebih kecil, PLASMA, dengan distilasi tugas khusus dan multi-tugas. Mereka menemukan bahwa tujuan prediksi token berikutnya yang biasa digunakan pada auto-regressive LMs (selama distilasi) tidak memberikan keterampilan pemikiran kausal dan temporal yang diperlukan untuk menghasilkan rencana berkualitas tinggi atau cara untuk memperbaiki kesalahan mereka dari fase sebelumnya.
Pendekatan kedua adalah PLASMA+, sebuah pencarian beam bertahap yang diarahkan oleh verifikator yang lebih baik dalam menggunakan struktur multi-tahap rencana. Mereka secara khusus menambahkan validator bertahap dalam prosedur dekoding mereka untuk membantu PLASMA+ menghasilkan rencana yang lebih semantis yang kohesif dan akurat. Melalui serangkaian percobaan, mereka berhasil memberikan keterampilan perencanaan pada model bahasa yang lebih kecil. Model-model siswa yang lebih kecil (dengan ukuran yang bervariasi) melebihi guru mereka rata-rata sebesar 17,57% untuk tugas perencanaan umum. Bahkan GPT-3, model yang 16 kali lebih besar dari model siswa, dapat dibandingkan dengan model siswa terbaik.
Sub-Topik 1: Kelebihan dan Kelemahan LLMs dalam Perencanaan Prosedural
Model bahasa besar (LLMs) telah terbukti sangat baik dalam melaksanakan tugas perencanaan prosedural berkat ukurannya yang besar. Namun, implementasi LLMs yang luas masih dihambat oleh biaya komputasi yang tinggi dan masalah aksesibilitas. Kelebihan LLMs meliputi kemampuan mereka dalam melaksanakan tugas perencanaan prosedural dengan baik. Sedangkan, kelemahan LLMs meliputi biaya komputasi yang tinggi dan masalah aksesibilitas.
Sub-Topik 2: PLASMA: Solusi Baru untuk Meningkatkan Kemampuan Model Bahasa dalam Perencanaan Prosedural dan Kontrafaktual
PLASMA merupakan solusi baru yang terdiri dari dua pendekatan yang berbeda untuk membantu model bahasa kecil memperoleh keterampilan perencanaan. Pendekatan pertama adalah teknik dekoding saat inferensi, dan pendekatan kedua adalah distilasi pengetahuan prosedural yang diperpanjang. PLASMA menghasilkan COPLAN, sebuah dataset perencanaan prosedural yang signifikan, berkat metode verbalisasi informasi mereka untuk formulasi tugas inovatif dalam konteks yang terbatas secara kontekstual, seperti perencanaan dan revisi kontrafaktual. Melalui serangkaian percobaan, mereka berhasil memberikan keterampilan perencanaan pada model bahasa yang lebih kecil. Model-model siswa yang lebih kecil melebihi guru mereka rata-rata sebesar 17,57% untuk tugas perencanaan umum.
Disarikan dari: Source