Wanda: Pendekatan Pemangkasan Sederhana dan Efektif untuk Model Bahasa Besar

Keandalan dan Potensi Metode Wanda dalam Mengoptimalkan Large Language Models (LLMs)

Large Language Models (LLMs) semakin populer dan banyak digunakan dalam berbagai aplikasi. Dalam bidang kecerdasan buatan generatif, model-model ini telah menghasilkan transformasi besar dalam hal ekonomi dan sosial. Salah satu contoh yang menarik adalah ChatGPT yang dikembangkan oleh OpenAI, sebuah chatbot yang telah digunakan oleh jutaan pengguna sejak peluncurannya. Dengan menggunakan pemrosesan bahasa alami dan pemahaman bahasa alami, ChatGPT mampu menjawab pertanyaan, menghasilkan konten yang unik dan kreatif, menyimpulkan teks panjang, melengkapi kode dan email, dan sebagainya.

Namun, LLMs dengan jumlah parameter yang besar membutuhkan daya komputasi yang tinggi. Untuk mengurangi kebutuhan daya komputasi ini, telah dilakukan upaya dengan menggunakan metode seperti model quantization dan network pruning. Model quantization adalah proses pengurangan representasi bit dari parameter-parameter dalam LLMs. Sementara itu, network pruning bertujuan untuk mengurangi ukuran jaringan saraf dengan menghapus beberapa bobot tertentu, sehingga bobot tersebut menjadi nol. Sayangnya, dalam metode pruning saat ini, belum terlalu banyak perhatian yang diberikan pada LLMs.

Untuk mengatasi keterbatasan tersebut, para peneliti dari Carnegie Mellon University, FAIR, Meta AI, dan Bosch Center for AI telah mengusulkan metode pruning yang disebut Wanda (pruning by Weights AND Activations). Metode ini terinspirasi dari penelitian yang menunjukkan bahwa LLMs memiliki fitur-fitur dengan magnitudo yang besar. Wanda menerapkan kejarangan pada LLMs yang telah dilatih sebelumnya tanpa perlu dilakukan pelatihan ulang atau pembaruan bobot. Bobot-bobot dengan magnitudo terkecil dipangkas berdasarkan bagaimana mereka dikalikan dengan aktivasi input yang sesuai. Selain itu, bobot-bobot dinilai secara independen untuk setiap output model, karena pemangkasan ini dilakukan berdasarkan keluaran demi keluaran.

Metode Wanda telah terbukti efektif tanpa perlu dilakukan pelatihan ulang atau pembaruan bobot. LLM yang telah dipangkas dapat langsung digunakan dalam inferensi. Penelitian ini menemukan bahwa hanya sebagian kecil fitur-fitur tersembunyi dalam LLMs yang memiliki magnitudo yang sangat besar, yang merupakan karakteristik unik dari model-model ini. Berdasarkan temuan ini, tim peneliti menemukan bahwa dengan menambahkan aktivasi input ke dalam metode pemangkasan bobot yang konvensional, dapat meningkatkan akurasi dalam menilai kepentingan bobot.

Metode Wanda telah diuji menggunakan keluarga LLM yang paling sukses dalam sumber terbuka, yaitu LLaMA. Hasil penelitian menunjukkan bahwa Wanda berhasil mengidentifikasi jaringan yang efisien langsung dari LLM yang telah dilatih sebelumnya tanpa perlu pelatihan ulang atau pembaruan bobot. Metode ini lebih unggul dibandingkan dengan metode pemangkasan berdasarkan magnitudo dengan perbedaan yang signifikan. Selain itu, Wanda mampu mencapai atau bahkan melampaui kinerja SparseGPT, metode pemangkasan LLM yang baru-baru ini diusulkan, yang bekerja dengan akurat pada model-model GPT yang besar.

Secara kesimpulan, Wanda merupakan pendekatan yang menjanjikan dalam mengatasi tantangan pemangkasan LLMs. Metode ini memberikan dasar untuk penelitian masa depan dalam bidang ini dengan mendorong eksplorasi lebih lanjut tentang kejarangan pada LLMs. Dengan meningkatkan efisiensi dan aksesibilitas LLMs melalui teknik pemangkasan, kemajuan dalam bidang pemrosesan bahasa alami dapat terus berlanjut, dan model-model yang powerful ini dapat menjadi lebih praktis dan dapat diterapkan secara luas.

Keandalan Metode Wanda dalam Mengoptimalkan LLMs

Metode pruning Wanda merupakan solusi yang menjanjikan dalam mengatasi tantangan pemangkasan LLMs. Dalam penelitian ini, Wanda telah terbukti efektif dalam menghasilkan jaringan sparse yang efisien tanpa perlu dilakukan pelatihan ulang atau pembaruan bobot. Dengan menggunakan prinsip bahwa LLMs memiliki fitur-fitur dengan magnitudo yang besar, Wanda mampu memangkas bobot-bobot dengan magnitudo terkecil berdasarkan interaksi mereka dengan aktivasi input yang relevan. Hasil penelitian menunjukkan bahwa penambahan aktivasi input dalam metode pemangkasan bobot konvensional dapat meningkatkan akurasi dalam menilai kepentingan bobot.

Dalam pengujian menggunakan keluarga LLM LLaMA, Wanda juga berhasil menunjukkan kinerja yang lebih baik dibandingkan dengan metode pemangkasan berdasarkan magnitudo. Metode Wanda mampu menghasilkan jaringan sparse yang lebih efisien dengan biaya komputasi yang lebih rendah. Bahkan, Wanda juga mampu mencapai atau bahkan melampaui kinerja metode pemangkasan LLM terbaru, yaitu SparseGPT, pada model-model GPT yang besar.

Metode Wanda tidak hanya memberikan solusi untuk pemangkasan LLMs, tetapi juga menawarkan dasar untuk penelitian masa depan dalam bidang ini. Dengan memahami kejarangan pada LLMs, penelitian lebih lanjut dapat dilakukan untuk meningkatkan efisiensi dan aksesibilitas model-model tersebut. Diharapkan bahwa dengan teknik pemangkasan yang lebih efektif, LLMs dapat digunakan secara lebih luas dan menjadi lebih praktis dalam berbagai aplikasi pemrosesan bahasa alami.

Potensi Wanda dalam Mendorong Kemajuan Bidang Natural Language Processing

Dalam bidang pemrosesan bahasa alami, LLMs telah membawa kemajuan yang besar. Model-model ini mampu menjawab pertanyaan, menghasilkan konten kreatif, melakukan ringkasan teks panjang, dan banyak lagi. Namun, kebutuhan akan daya komputasi yang tinggi sering kali menjadi kendala dalam penerapan LLMs. Metode pruning Wanda dapat menjadi solusi untuk mengoptimalkan LLMs dengan menghasilkan jaringan sparse yang efisien tanpa perlu pelatihan ulang atau pembaruan bobot.

Dengan kemampuan Wanda dalam menghasilkan jaringan sparse yang efisien, LLMs dapat digunakan dengan lebih efisien dan mudah diakses oleh pengguna. Hal ini akan mendorong kemajuan dalam bidang pemrosesan bahasa alami dan membuka peluang baru untuk pengembangan aplikasi-aplikasi yang lebih praktis dan luas. Diharapkan bahwa dengan terus melakukan penelitian dan eksplorasi lebih lanjut tentang kejarangan pada LLMs, kemampuan dan aksesibilitas LLMs dapat terus ditingkatkan.

Dalam kesimpulan, metode pruning Wanda merupakan solusi yang menjanjikan dalam mengatasi tantangan pemangkasan LLMs. Metode ini tidak hanya efektif dalam menghasilkan jaringan sparse yang efisien, tetapi juga memberikan dasar untuk penelitian lebih lanjut dalam bidang ini. Dengan meningkatnya efisiensi dan aksesibilitas LLMs melalui teknik pemangkasan, kemajuan dalam bidang pemrosesan bahasa alami dapat terus berlanjut, dan model-model yang powerful ini dapat menjadi lebih praktis dan dapat diterapkan secara luas.

Disarikan dari: Citation