Berita RUU Keamanan AI Baru California: Mengapa Big Tech Khawatir Mengenai Tanggung Jawab dan Inovasi

gomerdeka

Berita RUU Keamanan AI Baru California: Mengapa Big Tech Khawatir Mengenai Tanggung Jawab dan Inovasi

Jika saya membuat mobil yang jauh lebih berbahaya daripada mobil lain, tidak melakukan uji keselamatan, merilisnya, dan akhirnya menyebabkan orang terbunuh, saya mungkin akan dimintai pertanggungjawaban dan harus membayar ganti rugi, jika tidak hukuman pidana.

Jika saya membuat mesin pencari yang (tidak seperti Google) memiliki hasil pertama untuk “bagaimana saya bisa melakukan pembunuhan massal” berupa instruksi terperinci tentang cara terbaik melakukan pembunuhan massal, dan seseorang menggunakan mesin pencari saya dan mengikuti instruksinya, saya mungkin tidak akan bertanggung jawab, sebagian besar berkat Pasal 230 Undang-Undang Kepatutan Komunikasi tahun 1996.

Jadi, pertanyaannya adalah: Apakah asisten AI lebih seperti mobil, yang mana kita dapat mengharapkan produsen melakukan uji keamanan atau bertanggung jawab jika mereka menyebabkan orang meninggal? Atau lebih seperti mesin pencari?

Ini adalah salah satu pertanyaan yang menjadi topik hangat dalam wacana teknologi saat ini. SB 1047 Kaliforniaundang-undang yang baru disahkan yang mewajibkan pelatihan keselamatan bagi perusahaan yang menghabiskan lebih dari $100 juta untuk melatih “model perintis” dalam AI — seperti GPT-5 yang sedang dikembangkan. Jika tidak, mereka akan bertanggung jawab jika sistem AI mereka menyebabkan “peristiwa korban massal” atau kerugian lebih dari $500 juta dalam satu insiden atau serangkaian insiden yang saling terkait erat.

Konsep umum bahwa pengembang AI harus bertanggung jawab atas kerugian yang ditimbulkan oleh teknologi yang mereka ciptakan adalah sangat populer dengan masyarakat Amerika. Hal ini juga menghasilkan dukungan dari Geoffrey Hinton dan Yoshua Bengio, dua dari peneliti AI yang paling banyak dikutip di duniaBahkan Elon Musk menelepon untuk memberikan dukungan pada Senin malam, mengatakan bahwa meskipun “ini adalah keputusan yang sulit dan akan membuat beberapa orang kesal,” negara harus meloloskan RUU tersebut, mengatur AI sebagaimana “kita mengatur produk/teknologi apa pun yang berpotensi menimbulkan risiko bagi masyarakat.”

Versi amandemen RUU ini, yang tidak seketat versi sebelumnya, iterasi sebelumnyadisahkan badan legislatif negara bagian pada hari Rabu dengan perolehan suara 41-9. Amandemen termasuk menghapus hukuman pidana untuk sumpah palsu, menetapkan ambang batas baru untuk melindungi kemampuan perusahaan rintisan dalam menyesuaikan model AI sumber terbuka, dan mempersempit (tetapi tidak menghilangkan) penegakan hukum sebelum terjadinya bahaya. Agar undang-undang ini menjadi undang-undang negara bagian, undang-undang ini selanjutnya memerlukan tanda tangan dari Gubernur Gavin Newsom.

“SB 1047 — RUU keamanan AI kita — baru saja disahkan oleh Majelis,” tulis Senator Negara Bagian Scott Wiener pada X. “Saya bangga dengan koalisi yang beragam di balik RUU ini — koalisi yang sangat percaya pada inovasi & keamanan. AI memiliki begitu banyak potensi untuk menjadikan dunia tempat yang lebih baik.”

Apakah industri AI akan hancur jika dimintai pertanggungjawaban?

Meski begitu, kritik terhadap RUU tersebut dari sebagian besar dunia teknologi sangat keras.

“Mengatur teknologi dasar akan mengakhiri inovasi,” kata kepala ilmuwan AI Meta, Yann LeCun, menulis dalam posting X yang mengecam 1047. Dia dibagikan postingan lain yang menyatakan bahwa “hal ini mungkin akan menghancurkan sejarah inovasi teknologi California yang fantastis” dan bertanya-tanya dengan suara keras“Apakah SB-1047, yang akan divoting oleh Majelis California, menandakan berakhirnya industri teknologi California?” CEO HuggingFace, pemimpin komunitas open source AI, ditelepon RUU tersebut merupakan “pukulan besar bagi inovasi CA dan AS.”

Komentar-komentar apokaliptik semacam ini membuatku bertanya-tanya…apakah kita membaca RUU yang sama?

Untuk lebih jelasnya, sejauh 1047 memberikan beban yang tidak perlu pada perusahaan teknologi, saya menganggap itu sebagai hasil yang sangat buruk, meskipun beban tersebut hanya akan dibebankan pada perusahaan yang melakukan pelatihan senilai $100 juta, yang hanya mungkin dilakukan oleh perusahaan-perusahaan terbesar. Itu sepenuhnya mungkin — dan kita telah melihatnya di industri lain — karena kepatuhan terhadap peraturan menyita banyak waktu dan energi masyarakat, menghambat mereka melakukan sesuatu yang berbeda atau rumit, dan memfokuskan energi pada upaya menunjukkan kepatuhan daripada pada hal yang paling dibutuhkan.

Saya tidak menganggap persyaratan keselamatan dalam 1047 terlalu memberatkan, tetapi itu karena saya setuju dengan setengah dari peneliti pembelajaran mesin yang percaya bahwa Sistem AI yang canggih memiliki peluang besar untuk menimbulkan bencana yang sangat berbahayaJika saya setuju dengan separuh peneliti pembelajaran mesin yang mengabaikan risiko tersebut, saya akan menganggap 1047 sebagai beban yang tidak ada gunanya, dan saya akan menentangnya dengan tegas.

Mendaftar Di Sini untuk mengeksplorasi masalah besar dan rumit yang dihadapi dunia dan cara paling efisien untuk menyelesaikannya. Dikirim dua kali seminggu.

Dan untuk lebih jelasnya, meskipun klaim aneh tentang 1047 tidak masuk akal, ada beberapa kekhawatiran yang wajar. Jika Anda membangun AI yang sangat kuat, menyempurnakannya agar tidak membantu pembunuhan massal, tetapi kemudian merilis model sumber terbuka sehingga orang dapat membatalkan penyempurnaan tersebut dan kemudian menggunakannya untuk pembunuhan massal, berdasarkan rumusan tanggung jawab 1047, Anda tetap akan bertanggung jawab atas kerusakan yang terjadi.

Hal ini tentu akan membuat perusahaan enggan merilis model ke publik saat model tersebut cukup kuat untuk menimbulkan jatuhnya banyak korban, atau bahkan saat pembuatnya mengira model tersebut cukup kuat untuk menimbulkan jatuhnya banyak korban.

Komunitas sumber terbuka khawatir bahwa perusahaan besar akan memutuskan bahwa pilihan yang paling aman secara hukum adalah tidak pernah merilis apa pun. Meskipun saya pikir model apa pun yang cukup kuat untuk menyebabkan banyak korban mungkin tidak boleh dirilis, tentu akan menjadi kerugian bagi dunia (dan bagi tujuan membuat sistem AI aman) jika model yang tidak memiliki kapasitas seperti itu terhambat karena kehati-hatian hukum yang berlebihan.

Klaim bahwa RUU 1047 akan menjadi akhir dari industri teknologi di California dijamin tidak akan pernah laku, dan klaim tersebut bahkan tidak masuk akal. Banyak postingan yang mengecam RUU tersebut tampaknya berasumsi bahwa berdasarkan hukum AS yang berlaku, Anda tidak bertanggung jawab jika Anda membuat AI berbahaya yang menyebabkan jatuhnya korban massal. Namun, kemungkinan besar Anda sudah bertanggung jawab.

“Jika Anda tidak mengambil tindakan pencegahan yang wajar terhadap kemungkinan orang lain menyebabkan kerusakan massal, misalnya dengan tidak memasang pengaman yang wajar pada produk berbahaya Anda, Anda Mengerjakan “memiliki banyak risiko liabilitas!” Profesor hukum Yale Ketan Ramakrishnan menanggapi untuk salah satu seperti itu pos oleh peneliti AI Andrew Ng.

UU 1047 menjabarkan dengan lebih jelas apa saja yang termasuk tindakan pencegahan yang wajar, tetapi UU ini tidak menciptakan konsep baru tentang hukum pertanggungjawaban. Bahkan jika UU ini tidak lolos, perusahaan tentu harus siap dituntut jika asisten AI mereka menyebabkan banyak korban atau kerugian ratusan juta dolar.

Apakah Anda benar-benar yakin model AI Anda aman?

Hal membingungkan lainnya tentang advokasi LeCun dan Ng di sini adalah bahwa keduanya mengatakan bahwa sistem AI sebenarnya sepenuhnya aman dan sama sekali tidak ada alasan untuk khawatir tentang skenario korban massal sejak awal.

“Alasan saya mengatakan bahwa saya tidak khawatir tentang AI yang berubah menjadi jahat adalah alasan yang sama mengapa saya tidak khawatir tentang kelebihan populasi di Mars,” Ng terkenal mengatakan. LeCun punya dikatakan bahwa salah satu keberatan utamanya terhadap 1047 adalah bahwa buku itu dimaksudkan untuk membahas risiko fiksi ilmiah.

Saya tentu tidak ingin pemerintah negara bagian California menghabiskan waktunya untuk mengatasi risiko fiksi ilmiah, tidak ketika negara bagian tersebut memiliki masalah yang sangat nyata. Namun, jika para kritikus benar bahwa kekhawatiran tentang keamanan AI adalah omong kosong, maka skenario korban massal tidak akan terjadi, dan dalam 10 tahun kita semua akan merasa konyol karena khawatir AI dapat menyebabkan peristiwa korban massal. Mungkin hal ini sangat memalukan bagi para penulis RUU, tetapi hal ini tidak akan mengakibatkan matinya semua inovasi di negara bagian California.

Jadi apa yang mendorong penolakan keras ini? Saya pikir RUU ini telah menjadi ujian lakmus untuk pertanyaan ini: apakah AI mungkin berbahaya dan layak diatur sebagaimana mestinya.

SB 1047 sebenarnya tidak mensyaratkan banyak hal, tetapi pada dasarnya didasarkan pada gagasan bahwa sistem AI berpotensi menimbulkan bahaya besar.

Para peneliti AI hampir secara lucu terbagi pendapatnya mengenai apakah premis mendasar itu benar. Banyak orang yang serius dan terpandang dengan kontribusi besar di bidang ini mengatakan tidak ada kemungkinan terjadinya bencana. Banyak orang lain yang serius dan terpandang dengan kontribusi besar di bidang ini mengatakan kemungkinannya cukup tinggi.

Bengio, Hinton, dan LeCun telah dipanggil tiga bapak AI, dan mereka sekarang menjadi lambang perpecahan mendalam industri mengenai apakah akan menganggap serius risiko AI yang membawa malapetaka. SB 1047 menganggap serius mereka. Itu adalah kekuatan terbesarnya atau kesalahan terbesarnya. Tidak mengherankan bahwa LeCun, yang berada di pihak skeptis, mengambil perspektif “kesalahan”, sementara Bengio dan Hinton menyambut baik RUU tersebut.

Saya sudah membahasnya banyak kontroversi ilmiahdan saya belum pernah menemukan yang memiliki konsensus sekecil itu pada pertanyaan inti tentang apakah sistem AI yang benar-benar canggih dapat diharapkan segera terwujud — dan jika memungkinkan, menjadi berbahaya.

Survei berulang kali menemukan bidang ini terbagi hampir setengahnya. Dengan setiap kemajuan AI baru, para pemimpin senior dalam industri tampaknya terus-menerus memperkuat posisi yang ada, alih-alih mengubah pikiran mereka.

Namun, ada banyak hal yang dipertaruhkan, apakah menurut Anda sistem AI yang canggih mungkin berbahaya atau tidak. Untuk mendapatkan respons kebijakan yang tepat, kita perlu mengukur kemampuan AI dengan lebih baik, dan memahami skenario bahaya mana yang paling layak untuk ditanggapi dengan kebijakan. Saya sangat menghormati para peneliti yang mencoba menjawab pertanyaan-pertanyaan tersebut — dan sangat frustrasi dengan mereka yang mencoba menganggapnya sebagai pertanyaan yang sudah tertutup.

Pembaruan, 28 Agustus, 7:45 malam ET: Cerita ini, yang awalnya diterbitkan pada tanggal 19 Juni, telah diperbarui untuk mencerminkan pengesahan SB 1047 di badan legislatif negara bagian California.

Sumber

Mohon maaf, Foto memang tidak relevan. Jika keberatan atau harus diedit baik Artikel maupun foto Silahkan Klik Laporkan. Terima Kasih

Also Read

Tags

ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url