Google mengumumkan Secure AI Framework (SAIF), sebuah kerangka kerja konseptual yang menetapkan standar keamanan industri yang jelas dalam membangun dan mendeploy sistem AI secara bertanggung jawab. SAIF terinspirasi dari praktik terbaik keamanan dalam pengembangan perangkat lunak dan memasukkan pemahaman tentang risiko keamanan yang spesifik pada sistem AI.
SAIF terdiri dari enam elemen inti yang menyediakan pendekatan menyeluruh untuk sistem AI yang aman:
1. Memperluas dasar keamanan yang kuat untuk ekosistem AI: Ini melibatkan memanfaatkan proteksi infrastruktur yang aman secara default yang sudah ada dan keahlian untuk melindungi sistem, aplikasi, dan pengguna AI. Organisasi juga harus mengembangkan keahlian yang selaras dengan kemajuan AI dan menyesuaikan proteksi infrastruktur sesuai.
2. Memperluas deteksi dan reaksi untuk membawa AI ke dalam alam ancaman organisasi: Deteksi dan reaksi tepat waktu terhadap insiden siber yang berhubungan dengan AI sangat penting. Organisasi harus memantau input dan output sistem AI generatif untuk mendeteksi anomali dan memanfaatkan intelijen ancaman untuk mengantisipasi serangan. Kolaborasi dengan tim kepercayaan dan keselamatan, intelijen ancaman, dan tim counter-abuse dapat meningkatkan kemampuan intelijen ancaman.
3. Otomatisasi pertahanan untuk tetap sejalan dengan ancaman yang ada dan baru: Inovasi AI terbaru dapat meningkatkan skala dan kecepatan upaya respons terhadap insiden keamanan. Pihak yang tidak bertanggung jawab kemungkinan akan menggunakan AI untuk meningkatkan dampak mereka, jadi memanfaatkan AI dan kemampuan baru yang muncul sangat penting untuk tetap lincah dan hemat biaya dalam melindungi dari mereka.
4. Memperharmonis kontrol tingkat platform untuk memastikan keamanan yang konsisten di seluruh organisasi: Konsistensi di seluruh kerangka kontrol mendukung mitigasi risiko AI dan memungkinkan proteksi yang dapat diskalakan di berbagai platform dan alat. Google memperluas proteksi secara default ke platform AI seperti Vertex AI dan Security AI Workbench, mengintegrasikan kontrol dan proteksi ke dalam siklus pengembangan perangkat lunak.
5. Menyesuaikan kontrol untuk menyesuaikan mitigasi dan menciptakan loop umpan balik yang lebih cepat untuk penyebaran AI: Pengujian terus-menerus dan pembelajaran yang kontinu memastikan bahwa kemampuan deteksi dan perlindungan mengatasi lingkungan ancaman yang berkembang. Teknik seperti pembelajaran penguatan berbasis insiden dan umpan balik pengguna dapat menyetel model dan meningkatkan keamanan. Latihan tim merah dan tindakan jaminan keamanan yang teratur meningkatkan keamanan produk dan kemampuan yang didukung oleh AI.
6. Kontekstualisasi risiko sistem AI dalam proses bisnis sekitarnya: Penilaian risiko end-to-end membantu organisasi membuat keputusan yang berdasarkan informasi ketika mendeploy AI. Menilai risiko bisnis end-to-end, termasuk data lineage, validasi, dan pemantauan perilaku operasional, sangat penting. Periksa otomatis harus diterapkan untuk memvalidasi kinerja AI.
Dalam pengembangannya, Google menekankan pentingnya membangun komunitas AI yang aman dan telah mengambil langkah-langkah untuk menumbuhkan dukungan industri untuk SAIF. Ini termasuk bermitra dengan kontributor utama dan berkolaborasi dengan organisasi standar industri seperti NIST dan ISO / IEC. Google juga berkolaborasi langsung dengan organisasi, mengadakan lokakarya, berbagi wawasan dari tim intelijen ancamannya, dan memperluas program bug hunter untuk mendorong riset pada keselamatan dan keamanan AI.
Dengan SAIF, Google tetap komitmen untuk berbagi riset dan wawasan guna memanfaatkan AI secara aman. Kolaborasi dengan pemerintah, industri, dan akademisi sangat penting untuk mencapai tujuan bersama dan memastikan bahwa teknologi AI memberi manfaat pada masyarakat. Dengan mengikuti kerangka kerja seperti SAIF, industri dapat membangun dan mendeploy sistem AI dengan bertanggung jawab, membuka potensi penuh dari teknologi transformasional ini.
Keamanan dalam implementasi AI
Dalam mengimplementasikan teknologi AI, keamanan menjadi faktor krusial yang harus diperhatikan. SAIF memberikan kerangka kerja yang jelas untuk membangun sistem AI yang aman dan bertanggung jawab. Hal ini akan sangat membantu dalam mengeliminasi risiko seperti pencurian model, pengiritan data, penyuntikan input jahat, dan ekstraksi informasi rahasia dari data pelatihan.
Penerapan SAIF terdiri dari enam elemen inti yang menyediakan pendekatan menyeluruh untuk sistem AI yang aman. Di antaranya memperluas dasar keamanan yang kuat untuk ekosistem AI, memperluas deteksi dan reaksi untuk membawa AI ke dalam alam ancaman organisasi, dan otomatisasi pertahanan untuk tetap sejalan dengan ancaman yang ada dan baru.
Selain itu, SAIF juga menyesuaikan kontrol untuk menyesuaikan mitigasi dan menciptakan loop umpan balik yang lebih cepat untuk penyebaran AI. Pengujian terus-menerus dan pembelajaran yang kontinu memastikan bahwa kemampuan deteksi dan perlindungan mengatasi lingkungan ancaman yang berkembang.
Kolaborasi untuk mencapai tujuan bersama
Google menekankan pentingnya membangun komunitas AI yang aman dan telah mengambil langkah-langkah untuk menumbuhkan dukungan industri untuk SAIF. Dalam mengembangkan SAIF, Google bermitra dengan kontributor utama dan berkolaborasi dengan organisasi standar industri seperti NIST dan ISO/IEC. Selain itu, Google juga berkolaborasi langsung dengan organisasi, mengadakan lokakarya, berbagi wawasan dari tim intelijen ancamannya, dan memperluas program bug hunter untuk mendorong riset pada keselamatan dan keamanan AI.
Dengan SAIF, Google tetap komitmen untuk berbagi riset dan wawasan guna memanfaatkan AI secara aman. Kolaborasi dengan pemerintah, industri, dan akademisi sangat penting untuk mencapai tujuan bersama dan memastikan bahwa teknologi AI memberi manfaat pada masyarakat.
Dalam mengembangkan sistem AI yang aman dan bertanggung jawab, industri dapat membangun dan mendeploy sistem AI dengan bertanggung jawab, membuka potensi penuh dari teknologi transformasional ini.
Disarikan dari: Link