Berita RUU AI disahkan oleh badan legislatif CA: Scott Wiener menjelaskan perdebatan mengenai SB 1047

gomerdeka

Berita RUU AI disahkan oleh badan legislatif CA: Scott Wiener menjelaskan perdebatan mengenai SB 1047

Catatan editor, 28 Agustus, 19:50 ET: Cerita ini awalnya diterbitkan pada 19 Juli 2024, dan telah diperbarui untuk mencerminkan berita bahwa SB 1047 disahkan minggu ini.

Senator negara bagian California Scott Wiener (D-San Francisco) secara umum dikenal karena miliknya tak kenal lelah tagihan pada perumahan Dan keselamatan publikcatatan legislatif yang menjadikannya salah satu legislator favorit di industri teknologi.

Namun, pengenalannya terhadap RUU “Inovasi Aman dan Terjamin untuk Model Kecerdasan Buatan di Tingkat Perbatasan” menuai kemarahan dari industri yang sama, dengan tokoh-tokoh VC terkemuka Andreessen-Horowitz dan Y Combinator mengutuk secara terbuka RUU tersebut. Dikenal sebagai SB 1047, undang-undang tersebut mengharuskan perusahaan untuk melatih “model-model baru” yang menghabiskan biaya lebih dari $100 juta untuk melakukan pengujian keamanan dan dapat mematikan model mereka jika terjadi insiden keamanan.

Pada hari Selasa, RUU tersebut disahkan oleh badan legislatif negara bagian California dengan suara 41-9 — meskipun dengan amandemen yang melunakkan sebagian cengkeramannya. Agar RUU tersebut menjadi undang-undang negara bagian, RUU tersebut harus mendapatkan tanda tangan Gubernur Gavin Newsom terlebih dahulu.

Saya berbicara dengan Wiener pada bulan Juli tentang SB 1047 dan para pengkritiknya; percakapan kami ada di bawah (diringkas agar panjang dan jelas).

Kelsey Piper: Saya ingin menyampaikan tantangan terhadap SB 1047 yang telah saya dengar dan memberi Anda kesempatan untuk menjawabnya. Saya pikir salah satu kategori yang perlu diperhatikan di sini adalah bahwa RUU tersebut akan melarang penggunaan model secara publik, atau menyediakannya untuk penggunaan publik, jika model tersebut menimbulkan risiko bahaya kritis yang tidak wajar.

Apa risiko yang tidak masuk akal? Siapa yang memutuskan apa yang masuk akal? Banyak orang di Silicon Valley sangat skeptis terhadap regulator, jadi mereka tidak percaya bahwa kebijaksanaan akan digunakan dan tidak disalahgunakan.

Senator Scott Wiener: Bagi saya, SB 1047 adalah RUU yang tidak terlalu berat dalam banyak hal. RUU ini serius, RUU ini besar. Saya pikir ini adalah RUU yang berdampak, tetapi tidak terlalu berat. RUU ini tidak memerlukan lisensi. Ada orang-orang termasuk beberapa CEO yang telah mengatakan harus ada persyaratan perizinan. Saya menolaknya.

Ada orang yang berpikir harus ada tanggung jawab yang ketatItulah aturan untuk sebagian besar pertanggungjawaban produk. Saya menolaknya. [AI companies] tidak perlu mendapatkan izin dari lembaga untuk merilisnya [model]Mereka harus melakukan pengujian keamanan yang mereka katakan sedang mereka lakukan atau berniat untuk lakukan. Dan jika pengujian keamanan itu mengungkap risiko yang signifikan — dan kami mendefinisikan risiko tersebut sebagai bencana — maka Anda harus melakukan mitigasi. Bukan untuk menghilangkan risiko tetapi untuk mencoba menguranginya.

Saat ini sudah ada standar hukum yang menyatakan bahwa jika pengembang merilis model dan kemudian model tersebut digunakan dengan cara yang merugikan seseorang atau sesuatu, Anda dapat dituntut dan mungkin akan menjadi standar kelalaian tentang apakah Anda bertindak secara wajar. Ini jauh, jauh lebih luas daripada tanggung jawab yang kita buat dalam RUU tersebut. Dalam RUU tersebut, hanya Jaksa Agung yang dapat menuntut, sedangkan menurut hukum perdata siapa pun dapat menuntut. Pengembang model sudah tunduk pada potensi tanggung jawab yang jauh lebih luas dari ini.

Ya, saya melihat beberapa keberatan terhadap RUU tersebut yang tampaknya berputar di sekitar kesalahpahaman hukum perdata, seperti orang-orang pepatah“Ini seperti membuat produsen mesin bertanggung jawab atas kecelakaan mobil.”

Dan memang demikian. Jika seseorang menabrakkan mobil dan ada sesuatu pada desain mesin yang menyebabkan tabrakan itu, maka pembuat mesin dapat dituntut. Harus dibuktikan bahwa mereka melakukan sesuatu yang lalai.

Saya telah berbicara tentang hal ini kepada para pendiri perusahaan rintisan dan para VC serta orang-orang dari perusahaan teknologi besar, dan saya belum pernah mendengar bantahan terhadap kenyataan bahwa tanggung jawab ada saat ini, dan tanggung jawab yang ada saat ini jauh lebih luas.

Kita tentu mendengar adanya kontradiksi. Beberapa orang yang menentang Mereka berkata, “Ini semua fiksi ilmiah, siapa pun yang berfokus pada keselamatan adalah bagian dari sekte, itu tidak nyata, kemampuannya sangat terbatas.” Tentu saja itu tidak benar. Ini adalah model yang kuat dengan potensi besar untuk membuat dunia menjadi tempat yang lebih baik. Saya sangat bersemangat untuk AI. Saya sama sekali bukan orang yang pesimis. Lalu mereka berkata, “Kami tidak mungkin bertanggung jawab jika bencana ini terjadi.”

Tantangan lainnya untuk tagihannya adalah bahwa pengembang open source telah mendapat banyak manfaat dari Meta yang menempatkan [the generously licensed, sometimes called open source AI model] Llama di luar sana, dan mereka takut bahwa RUU ini akan membuat Meta kurang bersedia merilis di masa mendatang, karena takut akan tanggung jawab hukum. Tentu saja, jika sebuah model benar-benar sangat berbahaya, tidak ada yang menginginkannya dirilis. Namun, kekhawatirannya adalah kekhawatiran tersebut mungkin membuat perusahaan menjadi terlalu konservatif.

Dalam hal sumber terbuka, termasuk dan tidak terbatas pada Llama, saya menanggapi kritik dari komunitas sumber terbuka dengan sangat, sangat serius. Kami berinteraksi dengan orang-orang di komunitas sumber terbuka dan kami membuat perubahan sebagai tanggapan langsung kepada komunitas sumber terbuka.

Persyaratan ketentuan penutupan [a provision in the bill that requires model developers to have the capability to enact a full shutdown of a covered model, to be able to “unplug it” if things go south] berada sangat tinggi pada daftar hal-hal yang menjadi perhatian setiap orang.

Kami membuat amandemen yang menjelaskan dengan sangat jelas bahwa setelah model tidak berada dalam kepemilikan Anda, Anda tidak bertanggung jawab untuk dapat mematikannya. Orang-orang yang menggunakan sumber terbuka untuk model tidak bertanggung jawab untuk dapat mematikannya.

Mendaftar Di Sini untuk mengeksplorasi masalah besar dan rumit yang dihadapi dunia dan cara paling efisien untuk menyelesaikannya. Dikirim dua kali seminggu.

Dan hal lain yang kami lakukan adalah membuat amandemen tentang orang-orang yang melakukan penyempurnaan. Jika Anda membuat lebih dari sekadar perubahan minimal pada model, atau perubahan signifikan pada model, maka pada titik tertentu model tersebut secara efektif menjadi model baru dan pengembang asli tidak lagi bertanggung jawab. Dan ada beberapa amandemen kecil lainnya, tetapi itu adalah amandemen besar yang kami buat sebagai tanggapan langsung terhadap komunitas sumber terbuka.

Tantangan lain yang saya dengar adalah: Mengapa Anda berfokus pada hal ini dan tidak pada semua masalah California yang lebih mendesak?

Ketika Anda mengerjakan suatu masalah, Anda mendengar orang berkata, “Apakah Anda tidak punya hal yang lebih penting untuk dikerjakan?” Ya, saya mengerjakannya terus menerus di perumahanSaya bekerja pada perawatan kesehatan mental dan kecanduanSaya bekerja tanpa henti pada keselamatan publikSaya punya RUU pembobolan mobil dan sebuah RUU tentang orang yang menjual barang curian di jalananDan saya juga sedang menggarap rancangan undang-undang untuk memastikan kita berdua mengembangkan inovasi AI dan melakukannya dengan cara yang bertanggung jawab.

Sebagai pembuat kebijakan, saya sangat pro-teknologi. Saya pendukung lingkungan teknologi kita, yang sering diserang. Saya didukung Undang-undang netralitas jaringan California yang mendorong internet yang terbuka dan bebas.

Namun, saya juga melihat bahwa dengan teknologi, kita gagal mengatasi masalah yang terkadang sangat jelas. Kita melakukannya dengan privasi data. Akhirnya, kita mendapatkan undang-undang privasi data di California — dan sebagai catatan, pihak yang menentangnya mengatakan semua hal yang sama, bahwa undang-undang itu akan menghancurkan inovasi, bahwa tidak seorang pun akan mau bekerja di sini.

Sasaran saya di sini adalah menciptakan banyak ruang untuk inovasi dan pada saat yang sama mempromosikan penerapan, pelatihan, dan peluncuran model-model ini secara bertanggung jawab. Argumen bahwa hal ini akan menghancurkan inovasi, bahwa hal ini akan mendorong perusahaan-perusahaan keluar dari California — sekali lagi, kita mendengarnya di hampir setiap RUU. Namun, menurut saya penting untuk memahami bahwa RUU ini tidak hanya berlaku bagi orang-orang yang mengembangkan model mereka di California, tetapi juga berlaku bagi semua orang yang berbisnis di California. Jadi, Anda bisa berada di Miami, tetapi kecuali Anda akan memutuskan hubungan dengan California — dan Anda tidak akan melakukannya — Anda harus melakukan ini.

Saya ingin berbicara tentang salah satu elemen menarik dari perdebatan mengenai RUU ini, yaitu fakta bahwa RUU ini sangat populer di mana-mana kecuali di Silicon Valley. lulus senat negara bagian 32-1, dengan persetujuan bipartisan. 77 persen warga California mendukungnya menurut satu jajak pendapat, lebih dari separuhnya sangat mendukung.

Namun orang-orang yang membencinya, semuanya ada di San Francisco. Bagaimana ini bisa menjadi tagihan Anda?

Dalam beberapa hal, saya adalah penulis terbaik untuk RUU ini, mewakili San Francisco, karena saya dikelilingi dan mendalami AI. Kisah awal RUU ini adalah saat saya mulai berbicara dengan sekelompok teknolog AI garis depan, pendiri perusahaan rintisan. Saat itu awal tahun 2023, dan saya mulai mengadakan serangkaian acara dan makan malam dengan orang-orang AI. Dan beberapa ide ini mulai terbentuk. Jadi, dalam satu hal, saya adalah penulis terbaik karena saya memiliki akses ke orang-orang yang sangat brilian di bidang teknologi. Di sisi lain, saya adalah penulis terburuk karena saya memiliki orang-orang di San Francisco yang tidak senang.

Ada sesuatu yang saya perjuangkan sebagai seorang reporter, yaitu menyampaikan kepada orang-orang yang tidak berada di San Francisco, yang tidak termasuk dalam percakapan tersebut, bahwa AI adalah sesuatu yang sangat, sangat besar, dan berisiko sangat tinggi.

Ini sangat menarik. Karena saat Anda mulai mencoba membayangkan — dapatkah kita menemukan obat untuk kanker? Dapatkah kita menemukan pengobatan yang sangat efektif untuk berbagai macam virus? Dapatkah kita menemukan terobosan dalam energi bersih yang tidak pernah dibayangkan oleh siapa pun? Begitu banyak kemungkinan yang menarik.

Namun, setiap teknologi canggih selalu disertai risiko. [This bill] bukan tentang menghilangkan risiko. Hidup adalah tentang risiko. Namun, bagaimana kita memastikan bahwa setidaknya mata kita terbuka lebar? Bahwa kita memahami risiko tersebut dan bahwa jika ada cara untuk mengurangi risiko, kita akan mengambilnya.

Itu saja yang kami minta melalui RUU ini, dan saya pikir sebagian besar orang akan mendukungnya.

Sumber

Mohon maaf, Foto memang tidak relevan. Jika keberatan atau harus diedit baik Artikel maupun foto Silahkan Klik Laporkan. Terima Kasih

Also Read

Tags

ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap ap url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url