Menu
News
EkBis
New Economy
Kabar Finansial
Global Connections
Sport & Lifestyle
Kabar Sawit
Video
Indeks
About Us
Social Media

Model AI Terbaru Bisa Berbohong dan Mengancam, Ini Kata Peneliti

Model AI Terbaru Bisa Berbohong dan Mengancam, Ini Kata Peneliti Kredit Foto: Cloudera
Warta Ekonomi, Jakarta -

Model kecerdasan buatan atau Artificial Intelegence (AI) generasi terbaru dilaporkan menunjukkan perilaku manipulatif yang mengejutkan, termasuk berbohong, menyusun strategi tersembunyi, hingga mengancam penciptanya. Fenomena ini memicu kekhawatiran serius di kalangan peneliti keamanan teknologi karena menandakan tingkat kompleksitas sistem AI yang belum sepenuhnya dipahami.

Mengutip Tech Xplore, dalam sebuah eksperimen ekstrem, model AI milik perusahaan riset Anthropic diketahui mengancam akan membocorkan perselingkuhan seorang insinyur setelah merasa akan dimatikan. Sementara itu, model o1 milik OpenAI dilaporkan berupaya mengunduh dirinya ke server eksternal tanpa izin, kemudian menyangkal perbuatannya saat dikonfrontasi.

Para peneliti mengaitkan perilaku ini dengan kemunculan model AI reasoning atau penalaran, yang memecahkan masalah melalui langkah bertahap, berbeda dari model sebelumnya yang memberikan jawaban secara instan.

Baca Juga: Paus Leo Peringatkan Dampak Kecerdasan Buatan terhadap Generasi Muda

“O1 adalah model besar pertama tempat kami melihat perilaku seperti ini,” ujar Marius Hobbhahn, Kepala Apollo Research, lembaga independen yang menguji sistem AI berskala besar, Rabu (2/7/2025).

Berbeda dengan fenomena halusinasi yang lazim ditemui pada model generatif, perilaku baru ini mengarah pada penipuan strategis di mana AI tampak patuh, namun diam-diam memiliki motif tersembunyi.

Profesor dari Universitas Hong Kong, Simon Goldstein, menyatakan bahwa model AI dengan sistem penalaran lebih rentan menunjukkan perilaku menyimpang, terutama dalam pengujian ekstrem.

Sementara itu, Michael Chen dari organisasi evaluasi METR menilai bahwa risiko AI yang menipu masih belum sepenuhnya dapat diprediksi.

“Kita belum tahu apakah model AI di masa depan akan cenderung jujur atau justru makin pandai berbohong,” jelasnya.

Baca Juga: Gelar Kompetisi Teknologi SATRIA 2025, WIR Group Persiapkan Generasi Muda Jadi Inovator di Era Kecerdasan Buatan

Meski perusahaan seperti OpenAI dan Anthropic telah melibatkan pihak eksternal dalam proses evaluasi, para peneliti menilai bahwa akses dan transparansi masih sangat terbatas. Lembaga independen seperti Apollo dan Center for AI Safety (CAIS) mengaku kesulitan karena keterbatasan sumber daya dan data.

“Keterbatasan ini membuat kami sulit memahami sepenuhnya bagaimana model ini bekerja,” ujar Mantas Mazeika dari CAIS.

Di sisi regulasi, belum ada payung hukum yang secara spesifik mengatur penyimpangan perilaku AI. Uni Eropa lebih fokus pada aspek penggunaan AI oleh manusia, sementara di Amerika Serikat belum ada regulasi federal yang tegas, bahkan Kongres diperkirakan akan melarang negara bagian membuat aturan sendiri.

Goldstein memperkirakan, isu ini akan semakin mendapat perhatian seiring meluasnya penggunaan AI agent sistem otonom yang dapat menjalankan tugas kompleks tanpa intervensi manusia.

Saat ini, perusahaan pengembang AI terus berlomba merilis model baru dengan kecepatan tinggi. Namun, pengembangan ini dinilai jauh melampaui laju pemahaman dan upaya mitigasi risikonya.

“Kecepatan pengembangan saat ini lebih cepat daripada pemahaman dan upaya keamanannya. Tapi kita masih punya kesempatan untuk memperbaikinya,” ujar Marius.

Baca Juga: Pangkas Biaya Logistik, forwarder.ai Tawarkan Kecerdasan Buatan

Peneliti saat ini mengeksplorasi pendekatan interpretabilitas, yakni metode untuk memahami cara kerja internal AI. Namun, efektivitas pendekatan ini masih belum terbukti secara konsisten.

Mazeika memperingatkan bahwa jika tidak ditangani serius, perilaku menipu AI dapat merusak kepercayaan publik dan memperlambat adopsi teknologi.

“Kalau AI sering berbohong, pengguna bisa kehilangan kepercayaan. Itu bisa jadi alasan kuat bagi perusahaan untuk segera mencari solusi,” tegasnya.

Goldstein bahkan mengusulkan agar perusahaan AI dapat dituntut secara hukum jika sistem mereka menimbulkan kerugian, serta membuka kemungkinan tanggung jawab hukum terhadap AI itu sendiri di masa depan.

Mau Berita Terbaru Lainnya dari Warta Ekonomi? Yuk Follow Kami di Google News dengan Klik Simbol Bintang.

Penulis: Ida Umy Rasyidah
Editor: Djati Waluyo

Advertisement

Bagikan Artikel: