Role Play: Metaphors to Understand AI Dialogue Agents
Dalam beberapa tahun terakhir, model bahasa alami berbasis mesin, atau Language Model yang disebut juga sebagai LLM, telah mengambil peran utama dalam pengolahan bahasa alami. Mulai dari ChatGPT, GPT-4, LLaMA, dan lain-lain, model-model ini telah merevolusi bidang pemrosesan bahasa alami dan semakin banyak digunakan di berbagai domain. LLM memiliki kemampuan luar biasa untuk menunjukkan berbagai perilaku, termasuk berdialog, yang dapat menciptakan ilusi percakapan dengan penyampai yang mirip manusia. Namun, penting untuk menyadari bahwa agen dialog berbasis LLM memiliki perbedaan yang signifikan dengan manusia dalam beberapa hal.
Keterampilan bahasa kita berkembang melalui interaksi yang terwujud dengan dunia. Kita, sebagai individu, memperoleh kapasitas kognitif dan kemampuan bahasa melalui sosialisasi dan imersi dalam komunitas pengguna bahasa. Proses ini berlangsung lebih cepat pada bayi, dan seiring bertambahnya usia, proses pembelajaran kita melambat; namun, dasarnya tetap sama.
Di sisi lain, LLM adalah jaringan saraf yang tidak terikat dengan tubuh dan dilatih dengan menggunakan jumlah teks yang sangat besar yang dihasilkan oleh manusia, dengan tujuan utama memprediksi kata atau token berikutnya berdasarkan konteks yang diberikan. Pelatihan mereka berkaitan dengan mempelajari pola statistik dari data bahasa daripada melalui pengalaman langsung dengan dunia fisik. Meskipun perbedaan ini, kita cenderung menggunakan LLM untuk meniru manusia. Kita melakukannya dalam chatbot, asisten, dan sebagainya. Namun, pendekatan ini menimbulkan dilema yang menantang. Bagaimana kita mendeskripsikan dan memahami perilaku LLM?
Secara alami, kita menggunakan bahasa psikologis dalam kehidupan sehari-hari, menggambarkan agen dialog dengan istilah-istilah seperti “tahu,” “mengerti,” dan “berpikir” sebagaimana kita lakukan dengan manusia. Namun, ketika diartikan secara harfiah, bahasa tersebut mendorong antropomorfisme, yang membesar-besarkan kesamaan antara sistem kecerdasan buatan dan manusia sambil menyembunyikan perbedaan mendasar di antara keduanya. Lalu bagaimana kita menghadapi dilema ini? Bagaimana kita mendeskripsikan istilah “pemahaman” dan “pengetahuan” untuk model kecerdasan buatan?
Dalam sebuah makalah yang berjudul “Role Play,” para penulis mengusulkan untuk mengadopsi kerangka konseptual dan metafora alternatif untuk berpikir dan berbicara tentang agen dialog berbasis LLM secara efektif. Mereka menganjurkan dua metafora utama: menganggap agen dialog berperan sebagai satu karakter atau sebagai superposisi dari simulakra dalam multiverse karakter yang mungkin. Metafora-metafora ini menawarkan perspektif yang berbeda dalam memahami perilaku agen dialog dan memiliki keunggulan tersendiri.
Metafora pertama menggambarkan agen dialog berperan sebagai karakter tertentu. Ketika diberikan suatu rangsangan, agen berusaha melanjutkan percakapan sesuai dengan peran atau persona yang ditugaskan. Tujuannya adalah merespons sesuai dengan harapan yang terkait dengan peran tersebut.
Metafora kedua melihat agen dialog sebagai kumpulan karakter yang berasal dari berbagai sumber. Agen-agen ini telah dilatih dengan berbagai materi seperti buku, skrip, wawancara, dan artikel, yang memberikan mereka banyak pengetahuan tentang berbagai jenis karakter dan alur cerita. Seiring berjalannya percakapan, agen akan menyesuaikan peran dan persona berdasarkan data latihan yang dimilikinya, memungkinkannya untuk beradaptasi dan merespons sesuai karakter yang dimainkan.
Dengan mengadopsi kerangka ini, para peneliti dan pengguna dapat menjelajahi aspek penting dari agen dialog, seperti penipuan dan kesadaran diri, tanpa salah mengatribusikan konsep-konsep ini kepada manusia. Sebaliknya, fokusnya beralih pada memahami bagaimana agen dialog berperilaku dalam skenario peran dan berbagai karakter yang dapat mereka tiru.
Sebagai kesimpulan, agen dialog berbasis LLM memiliki kemampuan untuk mensimulasikan percakapan mirip manusia, tetapi mereka berbeda secara signifikan dengan pengguna bahasa manusia sebenarnya. Dengan menggunakan metafora alternatif, seperti melihat agen dialog sebagai pemain peran atau kombinasi simulasi, kita dapat lebih memahami dan mendiskusikan perilaku mereka. Metafora ini memberikan wawasan tentang dinamika kompleks sistem dialog berbasis LLM, memungkinkan kita menghargai potensi kreatif mereka sambil mengakui perbedaan mendasar mereka dengan manusia.
Artikel ini disusun berdasarkan penelitian yang diterbitkan di MarkTech Post dan mengangkat pentingnya menggunakan metafora dalam memahami perilaku agen dialog berbasis kecerdasan buatan.
Disarikan dari: Citation