Berita Anthropic meluncurkan AI 'Computer Use' di mana Claude dapat mengendalikan PC

zaskia nana

Berita Anthropic meluncurkan AI 'Computer Use' di mana Claude dapat mengendalikan PC

Perusahaan teknologi di balik chatbot Claude, Anthropic, telah meluncurkan fitur baru bernama 'Penggunaan Komputer' yang mana AI dapat mengontrol PC pengguna.

Detailnya muncul melalui pengumuman pada hari Selasa (22 Oktober) dengan perusahaan berbagi “kemampuan baru yang inovatif dalam versi beta publik” yang kini tersedia di API.

Dengan alat ini, pengembang “dapat mengarahkan Claude untuk menggunakan komputer seperti yang dilakukan orang – dengan melihat layar, menggerakkan kursor, mengklik tombol, dan mengetik teks.”

Ini adalah model AI pertama yang menawarkan penggunaan komputer dalam versi beta publik, namun tim mengatakan ini masih dalam tahap percobaan karena terkadang rumit dan rawan kesalahan.

Meskipun belum disempurnakan, alat ini telah dirilis lebih awal untuk mendapatkan masukan dari pengembang.

Apa fitur 'penggunaan komputer' Anthropic yang baru?

Dengan penggunaan komputer, Claude dapat menghasilkan tindakan komputer untuk memenuhi instruksi pengguna. Hal ini dapat mencakup permintaan seperti 'gunakan data dari komputer saya dan online untuk mengisi formulir ini.'

Ini kemudian akan mengarahkan AI untuk mengisi formulir yang diperlukan sambil mengumpulkan informasi yang diperlukan dari komputer pengguna.

Untuk memungkinkan Claude memperoleh keterampilan komputer ini, perusahaan telah membangun API yang memungkinkan AI untuk melihat dan berinteraksi dengan antarmuka komputer.

Pengembang kemudian dapat mengintegrasikan API ini untuk memungkinkan Claude menerjemahkan instruksi ke dalam perintah komputer.

Fitur ini masih dalam proses karena perusahaan ingin belajar dari penerapan awal teknologinya.

Penggunaan fitur tersebut saat ini digambarkan sebagai “tidak sempurna.” Beberapa aksi seperti scrolling, drag, dan zoom menjadi tantangan terkini bagi Claude.

Meskipun gagasan bahwa AI akan mengambil alih komputer pribadi seseorang dapat menjadi peringatan, namun Perusahaan mengatakan mereka mengambil “pendekatan proaktif” untuk mempromosikan penerapannya yang aman.

Karena penggunaan komputer berpotensi menjadi vektor baru untuk ancaman umum seperti spam, misinformasi, atau penipuan, Anthropic telah mengembangkan pengklasifikasi baru. Ini akan mengidentifikasi kapan fitur tersebut digunakan dan apakah terjadi kerusakan.

Gambar Unggulan: Melalui Pengumuman antropik

Pos Anthropic meluncurkan AI 'Computer Use' di mana Claude dapat mengendalikan PC muncul pertama kali pada BacaTulis.

Sumber

Mohon maaf, Foto memang tidak relevan. Jika keberatan atau harus diedit baik Artikel maupun foto Silahkan Klik Laporkan. Terima Kasih

Also Read

Tags

url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url