Berita Anthropic memperkenalkan pembaruan besar pada kebijakan keselamatan AI untuk risiko terdepan

zaskia nana

Berita Anthropic memperkenalkan pembaruan besar pada kebijakan keselamatan AI untuk risiko terdepan

Anthropic, perusahaan teknologi di balik chatbot Claudetelah mengungkapkan bahwa pihaknya telah meluncurkan pembaruan signifikan terhadap kebijakan keselamatan AI, kerangka tata kelola risiko yang digunakan untuk memitigasi potensi risiko bencana dari sistem AI terdepan.

Yang diperbarui Kebijakan Penskalaan yang Bertanggung Jawab (RSP) dikatakan akan memperkenalkan “pendekatan yang lebih fleksibel dan berbeda” dalam menilai dan mengelola risiko AI sambil mempertahankan komitmennya untuk tidak melatih atau menerapkan model kecuali telah menerapkan perlindungan yang memadai.

Kebijakan tersebut, yang pertama kali diperkenalkan pada tahun 2023, telah direvisi dengan protokol baru untuk memastikan bahwa seiring dengan semakin canggihnya model AI, model tersebut dikembangkan dan diterapkan dengan cara yang aman. Revisi ini menetapkan Ambang Batas Kemampuan tertentu, yaitu tolok ukur yang menunjukkan kapan kemampuan model AI memerlukan perlindungan tambahan.

Apa kebijakan keselamatan AI baru Anthropic?

Ambang batas tersebut mencakup bidang-bidang berisiko tinggi seperti pembuatan senjata biologis dan penelitian AI otonom. Pembaruan ini juga memperjelas tanggung jawab yang diperluas dari Responsible Scaling Officer, sebuah posisi yang akan dipertahankan oleh Anthropic untuk mengawasi kepatuhan dan memastikan bahwa upaya perlindungan yang tepat diterapkan secara efektif.

Anthropic mengatakan bahwa meskipun kebijakan tersebut berfokus pada risiko-risiko bencana seperti kategori-kategori yang disebutkan di atas, risiko-risiko tersebut bukanlah satu-satunya risiko yang perlu dipantau dan dipersiapkan. Dalam sebuah postingan, perusahaan tersebut menulis: “Kebijakan Penggunaan kami menetapkan standar kami dalam penggunaan produk kami, termasuk aturan yang melarang penggunaan model kami untuk menyebarkan informasi yang salah, menghasut kekerasan atau perilaku kebencian, atau terlibat dalam praktik penipuan atau pelecehan.”

Strategi ini dimaksudkan sebagai cetak biru bagi industri AI yang lebih luas. Perusahaan ini bertujuan agar kebijakannya “dapat diekspor”, dengan harapan dapat menginspirasi pengembang AI lainnya untuk mengadopsi kerangka keselamatan serupa. Dengan memperkenalkan Tingkat Keamanan AI (ASL), yang meniru standar keamanan hayati pemerintah AS, Anthropic berharap dapat menjadi preseden tentang bagaimana perusahaan AI dapat mengelola risiko secara sistematis.

Sistem ASL berjenjang, mulai dari ASL-2 (standar keselamatan saat ini) hingga ASL-3 (perlindungan yang ditingkatkan untuk model berisiko tinggi), menetapkan kerangka kerja terstruktur untuk meningkatkan pengembangan AI dengan aman. Misalnya, jika suatu model menunjukkan kemampuan otonom yang berpotensi membahayakan, model tersebut secara otomatis akan ditingkatkan ke ASL-3, sehingga memerlukan kerja sama tim yang lebih intensif (simulasi pengujian permusuhan) dan audit pihak ketiga sebelum penerapan.

Jika diterapkan di seluruh industri, sistem ini dapat mendorong apa yang Anthropic gambarkan sebagai “perlombaan menuju puncak” untuk keselamatan AI, mendorong perusahaan untuk bersaing dalam hal kinerja model dan kekokohan langkah-langkah keselamatan mereka.

Perubahan kebijakan terjadi ketika ReadWrite melaporkan hal itu CEO Dario Amodei menerbitkan sebuah esai menguraikan peta jalan potensi AI di masa depan dan menjelaskan visi tentang bagaimana teknologi dapat mengubah masyarakat.

Gambar unggulan: Antropis / Canva

Pos Anthropic memperkenalkan pembaruan besar pada kebijakan keselamatan AI untuk risiko terdepan muncul pertama kali pada BacaTulis.

Sumber

Mohon maaf, Foto memang tidak relevan. Jika keberatan atau harus diedit baik Artikel maupun foto Silahkan Klik Laporkan. Terima Kasih

Also Read

Tags

ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url