Menu
News
EkBis
New Economy
Kabar Finansial
Sport & Lifestyle
Kabar Sawit
Video
Indeks
About Us
Social Media

Kaspersky Temukan Dampak AI secara Psikologis, Ini Tiga Panduan Agar Tetap Aman

Kaspersky Temukan Dampak AI secara Psikologis, Ini Tiga Panduan Agar Tetap Aman Kredit Foto: Nadia Khadijah Putri
Warta Ekonomi, Kuta, Bali -

Pakar Kaspersky menemukan, terdapat kemungkinan dampak dari kecerdasan artifisial (AI) secara psikologis, yakni sindrom jarak yang menderita atau suffering distancing syndrome. Apa itu? 

Head of Research Center Global Research & Analysis Team (GReAT) Kaspersky, Vitaly Kamluk mengungkapkan bahwa sindrom jarak yang menderita adalah sindrom yang membuat penjahat siber tidak merasakan rasa sakit yang dialami korban ketika beraksi secara virtual di internet. Berbeda dengan penjahat yang melakukan kriminal secara langsung di jalanan, yang masih merasakan sakit atau dampak psikologis berupa stres. 

“Penjahat jalanan banyak merasakan stres karena mereka sering melihat penderitaan korban, tapi ini tidak berlaku untuk penjahat siber, tentunya karena mereka beraksi secara jarak jauh. Jadi, mereka tidak merasakan sakit usai beraksi,” ujar Kamluk dalam acara Cyber Security Week Kaspersky 2023 di Jimbaran, Kuta Selatan, Bali pada Kamis (24/8/2023).

Baca Juga: Helat Cyber Security Week 2023 di Bali, Kaspersky Tekankan Imunitas Siber untuk Tetap Aman dengan AI

Kamluk juga mengungkapkan, penjahat siber cenderung tidak memiliki koneksi emosional, tidak bertanggung jawab dan ketika mereka menyalahgunakan AI untuk tindakan kriminal, mereka justru menyalahkan AI-lah yang membuat korban menderita. Ini juga berlaku pada kejahatan siber di bidang finansial, khususnya ketika penjahat siber menggunakan ChatGPT untuk melakukan profiling target korban dan mencuri informasi kartu kredit, dompet kripto, atau sejenisnya.

"Efek serupa juga berlaku untuk pertahanan, khususnya di sektor perusahaan yang penuh dengan kepatuhan dan tanggung jawab keselamatan formal. Kenapa? Karena sistem pertahanan cerdas dapat menjadi semacam kambing hitam. Mereka akan menyerahkan tanggung jawab itu pada AI jika terjadi kegagalan,” terang Kamluk.

Kamluk mengatakan, adanya “pendelegasian tanggung jawab” terkait sistem keamanan IT di perusahaan justru membuat manusia kurang bertanggung jawab jika terjadi serangan siber.

“Selain itu, secara umum, kehadiran autopilot yang sepenuhnya independen dapat mengurangi perhatian kontrol manusia,” lanjutnya. 

Karena itu, Kamluk memberikan tiga panduan agar perusahaan, bisnis, dan organisasi tetap aman menggunakan AI, mulai dari aksesibilitas, regulasi, dan edukasi. 

Pertama adalah aksesibilitas. Kamluk mengatakan, perusahaan harus membatasi akses anonim ke sistem cerdas nyata yang dibangun dan ditempatkan pada volume data yang sangat kaya. 

“Kita harus menyimpan riwayat konten yang dihasilkan dan mengidentifikasi bagaimana konten yang disintesis itu dibuat. Mirip dengan World Wide Web (WWW), yang harus ada prosedur untuk menangani penyalagunaan dan pelanggaran AI, serta kontak yang jelas untuk melaporkan pelanggaran,” jelas Kamluk.

Kedua adalah regulasi atau kebijakan. Kamluk mengambil contoh Uni Eropa yang telah memulai diskusi tentang penandaan konten yang diproduksi dengan bantuan AI tanpa harus menginterupsi sistem ruang AI.

“Dengan cara ini, pengguna setidaknya dapat mendeteksi gambar, suara, video, atau teks yang dihasilkan AI dengan cepat dan andal,” imbuh Kamluk. Namun, ia menambahkan, memang akan selalu ada pelanggar, tapi mereka akan menjadi minroitas dan dibayang-bayangi hukuman. 

Sementara itu untuk pengembang AI, melisensikan aktivitas terkait teknologi pintar adalah masuk akal karena sistem tersebut mungkin berbahaya. Alhasil, perlu ada kontrol. 

Mau Berita Terbaru Lainnya dari Warta Ekonomi? Yuk Follow Kami di Google News dengan Klik Simbol Bintang.

Penulis: Nadia Khadijah Putri
Editor: Rosmayanti

Advertisement

Bagikan Artikel: