CoT Collection: Dataset Instruksi yang Meningkatkan Kemampuan Zero-shot dan Few-shot Learning pada Model Bahasa melalui Reasoning Chain-of-Thought

Large Language Models (LLMs) semakin menunjukkan kemampuan yang luar biasa dengan setiap peningkatan. Berdasarkan Pemrosesan Bahasa Alami, model-model ini memberikan lahirnya era koneksi manusia-mesin yang tidak terbatas. Dari mendukung penelitian medis dan mengubah layanan pelanggan hingga pembuatan konten dan terjemahan bahasa, semua orang memanfaatkan potensi besar yang dimiliki LLM. Dengan inklusi Chain-of-Thought (CoT) reasoning dalam LLM, model-model ini telah menunjukkan peningkatan kinerja dan kemampuan penalaran yang lebih baik.

Sub-topik 1: CoT Reasoning dalam LLM
Chain-of-Thought reasoning adalah pendekatan yang memungkinkan model-model bahasa untuk menampilkan penalaran yang lebih baik dalam tugas-tugas penalaran logis, aritmatika, dan simbolik. CoT reasoning melibatkan aliran logis gagasan, yang masing-masing dibangun di atas yang sebelumnya. Proses kognitif ini ada dalam LLM, di mana satu respons atau informasi yang dihasilkan mengikuti yang lain secara logis dan konsisten.

LLM dengan jumlah parameter yang tinggi telah menunjukkan kemampuan yang lebih baik untuk menyelesaikan tugas-tugas baru dengan menggunakan CoT reasoning yang dilakukan secara bertahap. Pertanyaannya adalah apakah kemampuan penalaran yang sama dapat ditanamkan dalam LLM dengan parameter kurang dari 100 miliar. Untuk mengatasi hal ini, sebuah tim peneliti memperkenalkan dataset baru yang disebut COT COLLECTION, yang dirancang untuk instruksi penyetelan. Dataset ini mencakup 1,88 juta alasan CoT di seluruh 1.060 tugas.

Tim tersebut telah benar-benar memeriksa kualitas dan keragaman COT COLLECTION, yang menggambarkan keandalannya, koherensi logis, dan sifat informatif dibandingkan alasan CoT yang ditulis oleh manusia. Mereka juga memperkenalkan model C2F2, yang telah diperoleh dengan terus-menerus menyetel kembali Flan-T5 LMs dengan 3B dan 11B parameter menggunakan COT COLLECTION. Telah ditunjukkan bahwa penyetelan kembali dengan koleksi COT ini menunjukkan peningkatan kinerja CoT nol-shot pada tugas-tugas yang tidak terlihat.

Sub-Topik 2: Kemampuan Pembelajaran CoT pada LLM
Para peneliti mengevaluasi akurasi nol-shot rata-rata pada 27 dataset dari benchmark BIG-Bench-Hard untuk mengukur peningkatan setelah menggunakan COT COLLECTION. Akurasi 3B dan 11B LMs meningkat sebesar +4,34% dan +2,44%, masing-masing. Selain itu, penyetelan instruksi CoT meningkatkan kemampuan pembelajaran sedikit pada model bahasa. Dibandingkan dengan Flan-T5 LMs (3B dan 11B), ini menghasilkan peningkatan +2,97% dan +2,37% pada empat tugas khusus domain.

COT Collection mencakup hampir 52 kali lebih banyak alasan CoT dan sekitar 177 kali lebih banyak tugas dibandingkan dengan dataset CoT yang tersedia sebelumnya. Kesimpulannya, dataset COT COLLECTION menggambarkan efektivitas alasan CoT untuk meningkatkan generalisasi tugas dalam LMs dalam keadaan pembelajaran nol-shot dan sedikit. Ini mengatasi tantangan yang dihadapi dalam menggunakan penalaran CoT pada model bahasa yang lebih kecil. Tim tersebut telah menyediakan akses ke dataset COT COLLECTION dan model terlatih di repositori GitHub.

Dalam kesimpulannya, LLM dengan CoT reasoning dapat memberikan hasil yang lebih baik dalam tugas-tugas yang berkaitan dengan penalaran logis, aritmatika, dan simbolik. Dataset COT COLLECTION dapat menjadi alat yang berguna bagi pengembang untuk meningkatkan kemampuan model bahasa dalam mempelajari tugas-tugas baru dan memperluas generalisasi mereka. Oleh karena itu, pengetahuan tentang CoT reasoning dalam LLM bisa sangat bermanfaat bagi para ahli di bidang ini untuk meningkatkan model-model bahasa masa depan.

Disarikan dari: Source