Menu
News
EkBis
New Economy
Kabar Finansial
Sport & Lifestyle
Kabar Sawit
Video
Indeks
About Us
Social Media

Peringatkan Bahaya Nyata dari AI, Sam Altman: Kita Harus Berhati-Hati, Regulator dan Masyarakat Perlu Dilibatkan

Peringatkan Bahaya Nyata dari AI, Sam Altman: Kita Harus Berhati-Hati, Regulator dan Masyarakat Perlu Dilibatkan Kredit Foto: Twitter/Alexander Popemobile
Warta Ekonomi, Jakarta -

CEO OpenAI, Sam Altman telah memperingatkan bahwa teknologi AI memiliki bahaya nyata. Pemilik perusahaan yang mengembangkan aplikasi kecerdasan buatan kontroversial ChatGPT ini menekankan bahwa regulator dan masyarakat perlu dilibatkan dengan teknologi untuk menjaga dari kemungkinan konsekuensi negatif bagi umat manusia.

“Kita harus berhati-hati di sini,” kata Altman kepada ABC News, yang dikutip dari The Guardian di Jakarta, Kamis (11/5/23). “Saya pikir orang harus senang bahwa kita sedikit takut akan hal ini.

“Saya sangat khawatir model ini dapat digunakan untuk disinformasi skala besar,” kata Altman. “Sekarang setelah mereka menjadi lebih baik dalam menulis kode komputer, [mereka] dapat digunakan untuk serangan cyber ofensif.”

Baca Juga: CEO OpenAI Sam Altman Gaungkan Kedaruratan Regulasi AI Saking Pesatnya Teknologi Itu Berkembang!

Namun terlepas dari bahayanya, AI juga bisa menjadi teknologi terhebat yang pernah dikembangkan umat manusia.

Peringatan itu muncul saat OpenAI merilis versi terbaru model AI bahasanya, GPT-4, kurang dari empat bulan sejak versi aslinya dirilis dan menjadi aplikasi konsumen dengan pertumbuhan tercepat dalam sejarah.

Dalam wawancara, insinyur kecerdasan buatan mengatakan bahwa meskipun versi baru itu tidak sempurna, ia telah mendapat skor 90% di AS pada ujian bar dan skor hampir sempurna pada tes matematika SAT sekolah menengah. Itu juga bisa menulis kode komputer di sebagian besar bahasa pemrograman, katanya.

Ketakutan akan kecerdasan buatan yang dihadapi konsumen, dan kecerdasan buatan secara umum, berfokus pada manusia yang digantikan oleh mesin. Tapi Altman menunjukkan bahwa AI hanya bekerja di bawah arahan, atau masukan, dari manusia.

“Itu menunggu seseorang untuk memberikan masukan,” katanya. “Ini adalah alat yang sangat dikendalikan oleh manusia.” Namun dia mengatakan dia memiliki kekhawatiran tentang manusia mana yang memiliki kontrol input.

“Akan ada orang lain yang tidak menerapkan batasan keamanan yang kami terapkan,” tambahnya. “Masyarakat, menurut saya, memiliki waktu terbatas untuk memikirkan bagaimana bereaksi terhadap itu, bagaimana mengaturnya, bagaimana menanganinya.”

Banyak pengguna ChatGPT telah menemukan mesin dengan respons yang defensif hingga paranoid. Dalam tes yang ditawarkan ke outlet berita TV, GPT-4 melakukan tes yang menyulap resep dari isi lemari es.

CEO Tesla, Elon Musk yang juga salah satu investor pertama di OpenAI ketika masih menjadi perusahaan nirlaba, berulang kali mengeluarkan peringatan bahwa AI atau AGI (kecerdasan umum buatan) lebih berbahaya daripada senjata nuklir.

Pada hari Kamis, Altman mengakui bahwa versi terbaru menggunakan penalaran deduktif daripada menghafal, sebuah proses yang dapat menimbulkan tanggapan yang aneh.

"Hal yang paling saya coba ingatkan orang adalah apa yang kami sebut 'masalah halusinasi'," kata Altman. “Model tersebut dengan percaya diri akan menyatakan hal-hal seolah-olah itu adalah fakta yang sepenuhnya dibuat-buat."

“Cara yang tepat untuk memikirkan model yang kami buat adalah mesin penalaran, bukan basis data fakta,” tambahnya. "Sementara teknologi dapat bertindak sebagai basis data fakta, bukan itu yang spesial dari mereka, yang kami ingin mereka lakukan adalah sesuatu yang lebih dekat dengan kemampuan untuk bernalar, bukan untuk menghafal."

Mau Berita Terbaru Lainnya dari Warta Ekonomi? Yuk Follow Kami di Google News dengan Klik Simbol Bintang.

Penulis: Fajria Anindya Utami
Editor: Fajria Anindya Utami

Advertisement

Bagikan Artikel: