4 Teknik Prompting untuk Memecahkan Masalah Sulit dan Multi-Langkah dengan LLM

4 Metode Prompting untuk Meningkatkan Kemampuan Reasoning pada Large Language Models

Large Language Models (LLMs) memiliki reputasi buruk dalam menyelesaikan masalah berbasis reasoning. Namun, kemampuan reasoning LLMs dapat ditingkatkan dengan menerapkan metode sederhana yang tidak memerlukan fine-tuning atau verifikasi tugas khusus. Metode ini disebut Chain-of-thought (CoT) prompting, yang menggunakan few-shot learning untuk meningkatkan kapasitas LLMs dalam berpikir deduktif. Metode prompting yang lebih canggih seperti Least-to-most Prompting, Self-consistency, dan Diverse juga dapat digunakan untuk menyelesaikan masalah multi-step yang sulit menggunakan LLMs.

1. Zero-Shot CoT

Metode Zero-Shot CoT digunakan ketika strategi zero-shot tradisional gagal. Zero-Shot CoT membangun jalur berpikir yang masuk akal secara zero-shot dan menemukan solusi yang tepat. Hal ini dicapai dengan memasukkan Mari kita berpikir langkah demi langkah ke dalam pertanyaan. Berbeda dengan teknik prompting khusus tugas sebelumnya, Zero-Shot CoT fleksibel dan tidak memerlukan modifikasi prompt untuk memfasilitasi jawaban bertahap dalam berbagai tugas reasoning (seperti aritmatika, symbolic reasoning, commonsense reasoning, dan tugas reasoning logis lainnya) tanpa perlu few-shot learning.

2. Least-to-most Prompting

Metode Least-to-most Prompting melibatkan memecah masalah menjadi bagian yang lebih kecil dan dapat dikelola dengan mudah, dengan hasil dari setiap bagian dimasukkan ke dalam bagian berikutnya. Metode ini memiliki dua fase: dekomposisi dan problem-solving. Prompting dari yang terkecil ke yang terbesar dapat digunakan dengan metode lain seperti chain of reasoning dan self-consistency.

Metode Prompting Terbaru untuk LLMs

3. Self-consistency

Untuk meningkatkan kemampuan reasoning LLMs, metode decoding unik yang disebut self-consistency digunakan. Metode ini menggantikan teknik decoding greedy yang digunakan dalam chain-of-thought prompting. Untuk mencapai self-consistency, peneliti bekerja pada intuisi bahwa ada beberapa jalur valid untuk mencapai solusi dalam sebagian besar tugas reasoning yang kompleks. Semakin banyak waktu dan usaha yang dilakukan untuk memikirkan dan menganalisis masalah, semakin banyak rute reasoning yang mungkin untuk mencapai solusi.

4. Diverse

Selain self-consistency, Diverse melatih modul verifikasi kedua untuk menyimpulkan/menggabungkan jawaban yang tepat dari berbagai jalur reasoning yang dihasilkan menggunakan teknik prompt ensembles. DIVERSE adalah strategi yang kuat dan umum untuk meningkatkan kemampuan reasoning model bahasa besar. Menggunakan codedavinci-002, DIVERSE mengalahkan model PaLM 540B dan metode prompting sebelumnya untuk menghasilkan hasil terbaik dalam sebagian besar tes reasoning.

Dengan kemampuan reasoning yang ditingkatkan melalui metode prompting ini, LLMs dapat digunakan untuk menyelesaikan masalah yang lebih kompleks dan multi-step dengan hasil yang lebih akurat. Metode prompting ini dapat digunakan dalam berbagai tugas reasoning, seperti aritmatika, symbolic reasoning, commonsense reasoning, dan tugas reasoning logis lainnya.

Disarikan dari: Sumber