ReWOO, Paradigma Modular Baru yang Memotong Konsumsi Token dengan Memisahkan Pemikiran dari Observasi Eksternal.

Large Language Models (LLM) kini telah memasuki berbagai bidang kecerdasan buatan (AI) dengan kemampuan menghasilkan konten yang unik dan kreatif dengan akurasi dan konsistensi bahasa yang tinggi. LLM sering diaugmentasi dengan keterampilan berpikir dan kemampuan menggunakan alat-alat yang berbeda. Augmentasi merujuk pada pengembangan atau penambahan elemen atau fitur tambahan. Augmented Language Models (ALM) dengan tambahan alat eksternal adalah yang mampu meningkatkan kinerjanya sehingga dapat berkinerja di luar kemampuannya.

Sebagaimana Auto-GPT yang berfungsi untuk menjalankan tugas mandiri, hanya dimungkinkan oleh ALM. Namun, penggunaan ALM selama ini terbatas pada paradigma prompting dengan pemikiran verbal dan panggilan alat yang terinterupsi. Ketika terhubung ke alat eksternal, diperlukan pelaksanaan dan penangguhan LLM yang biasanya menimbulkan keterlambatan dan peningkatan penggunaan token. LLM menghasilkan token berdasarkan konteks sebelumnya. Saat dihentikan untuk menunggu respons alat, LLM akan melanjutkan penghasilan token dengan memberi makan semua token historis, yang menyebabkan redundansi promp yang signifikan yang dapat menghasilkan biaya tinggi dalam hal konsumsi token untuk layanan LLM komersial.

Untuk mengatasi tantangan ini, tim peneliti baru-baru ini memperkenalkan ReWOO (Reasoning WithOut Observation), sebuah paradigma modular untuk mengurangi konsumsi token. Ide di balik ReWOO adalah memisahkan proses berpikir LLM dari observasi eksternal, yang akan membantu mengurangi konsumsi token secara signifikan. ReWOO meminimalkan beban komputasi yang terkait dengan prompt berulang dengan memisahkan proses berpikir dari observasi eksternal.

Komponen Utama ALM

ALM memiliki tiga komponen utama, yaitu pemikiran berjenjang, panggilan alat, dan ringkasan. ReWOO membagi ketiga modul ini menjadi tiga modul terpisah, yaitu Planner, Worker, dan Solver. Planner memecah tugas dan merumuskan rancangan rencana yang saling tergantung, yang masing-masing ditugaskan kepada seorang pekerja. Pekerja mengambil pengetahuan dari alat eksternal untuk memberikan bukti, dan Solver menyintesis semua rencana dan bukti untuk menghasilkan jawaban akhir untuk tugas awal yang akan diselesaikan.

Untuk mengevaluasi kinerja ReWOO, tim peneliti melakukan analisis menyeluruh pada enam benchmark Natural Language Processing (NLP) terbuka dan dataset yang dilengkapi. Hasilnya secara konsisten menunjukkan peningkatan dengan metodologi yang diusulkan, ReWOO mencapai kenaikan efisiensi token 5× dan peningkatan akurasi sebesar 4% pada benchmark HotpotQA, yang melibatkan tugas berpikir multi-langkah. ReWOO juga terbukti tangguh dalam situasi di mana alat eksternal mengalami masalah kegagalan.

Keuntungan Penggunaan ReWOO

Pemisahan modul parametrik dari panggilan alat non-parametrik tidak hanya meningkatkan efisiensi prompt tetapi juga memungkinkan penyetelan instruksi dalam ReWOO. Sebuah GPT3.5 parameter 175B dapat memiliki kemampuan berpikirnya ditugaskan ke model bahasa yang lebih kecil, yaitu 7B LLaMA, melalui penyetelan halus, yang mengarah pada pengurangan parameter model yang signifikan, yang menyoroti kemungkinan pengembangan ALM yang efektif dan dapat diskalakan.

Oleh karena itu, ReWOO adalah paradigma modular yang menjanjikan untuk ALM, karena pertama kali mengatasi tantangan prompt yang redundan dan kompleksitas komputasi. ReWOO memecahkan permasalahan tersebut dengan memisahkan proses berpikir LLM dari observasi eksternal, yang membantu mengurangi penggunaan token secara signifikan.

Disarikan dari: Sumber