Google Menghadirkan Kerangka Kerja Keamanan untuk Model AI
Pada acara I/O 2023, Google menunjukkan bahwa AI (Artificial Intelligence) dapat memainkan peran besar dalam membentuk masa depan umat manusia. Namun, seperti halnya entitas virtual lainnya, alat AI rentan terhadap serangan siber dan penyalahgunaan. Kita masih dalam tahap awal teknologi ini, dan Google ingin membantu perusahaan dengan kebijakan yang memastikan keamanan model AI dan data pengguna tidak hanya sekadar sesuatu yang diatur untuk memenuhi kepatuhan regulasi.
Keamanan Siber pada Model AI
Saat ini, keamanan siber harus bersifat proaktif daripada memperbaiki celah setelah kerusakan terjadi. Dengan model AI, ada bahaya besar dari pelaku buruk yang berpotensi mencuri data pelatihan atau mengubah model AI sesuai dengan agenda mereka. Google telah mengusulkan kerangka kerja enam poin, yang disebut Kerangka Kerja AI Aman atau SAIF, untuk melindungi upaya AI saat perusahaan bergegas mengembangkan penawaran mereka sebelum pesaing mereka.
Pertama, perusahaan menyarankan menganalisis bagaimana langkah-langkah keamanan yang ada dalam bisnis dapat diperluas untuk mengambil upaya AI ke dalam pangkuan mereka. Salah satu contoh yang terlintas adalah enkripsi, tersedia dalam berbagai bentuk dan relatif mudah diterapkan. Ini akan membantu bisnis kecil mempertahankan investasi dalam keamanan data minimal, sambil memberikan sebagian besar manfaat yang terkait. Google juga menyarankan memperluas penelitian ancaman yang ada untuk memahami bahaya yang dihadapi model AI. Menerapkannya bisa se-simple memantau input dan output dari generative AI untuk menangkap anomali.
Tanggapan otomatis terhadap insiden keamanan adalah cara lain yang baik untuk membatasi kerusakan, seperti mengunci area ketika pelaku kejahatan aktif teridentifikasi di sana. Google berhipotesis bahwa pelaku buruk kemungkinan besar akan menggunakan AI untuk meningkatkan dampak tindakan mereka, sehingga peneliti dan pengembang dapat memainkan kartu Uno reverse dan menggunakan kemampuan AI yang sedang berkembang untuk melindungi pekerjaan mereka secara proaktif. Tidak perlu dikatakan, meninjau kembali perlindungan secara teratur hanya merupakan praktik yang baik untuk diikuti. Dengan laju evolusi AI, Google menyarankan perusahaan menguji pertahanan mereka sendiri secara berkala untuk memastikan mereka dapat membela diri terhadap serangan yang lebih baru dan canggih.
Kerangka Kerja Pengamanan AI dari Google
Fil Venables, CISO (Chief Information Security Officer) Google Cloud, mengomentari ancaman yang ada pada model AI dengan mengacu pada kesamaan mencolok antara keamanan AI dan cara perusahaan mengontrol akses data. Pengamatan ini membantu Google mengembangkan kerangka kerja yang mudah diimplementasikan dan dapat diskalakan untuk sebagian besar organisasi yang bekerja dengan AI.
Google terbuka untuk meningkatkan kerangka kerja melalui masukan dari berbagai badan pemerintah dan mitra industri. Google juga telah memperluas program bug bounty, mendorong para peneliti untuk mengirimkan masalah keamanan terkait AI. Dengan langkah-langkah keamanan ini, penelitian dan pengembangan AI terlihat terlindungi dengan baik dari serangan dan upaya penyalahgunaan.
Keamanan siber adalah hal yang sangat penting dalam pengembangan teknologi AI. Google sebagai salah satu perusahaan teknologi terbesar di dunia memiliki tanggung jawab untuk mengamankan pengguna dan model AI mereka. Dengan menghadirkan kerangka kerja keamanan, Google membantu mendukung perusahaan-perusahaan kecil dan besar untuk mengambil tindakan proaktif dalam menjaga keamanan model AI dan data pengguna.
Disarikan dari: Citation