Menu
News
EkBis
New Economy
Kabar Finansial
Sport & Lifestyle
Kabar Sawit
Video
    Indeks
      About Us
        Social Media

        Kaspersky Temukan Dampak AI secara Psikologis, Ini Tiga Panduan Agar Tetap Aman

        Kaspersky Temukan Dampak AI secara Psikologis, Ini Tiga Panduan Agar Tetap Aman Kredit Foto: Nadia Khadijah Putri
        Warta Ekonomi, Kuta, Bali -

        Pakar Kaspersky menemukan, terdapat kemungkinan dampak dari kecerdasan artifisial (AI) secara psikologis, yakni sindrom jarak yang menderita atau suffering distancing syndrome. Apa itu? 

        Head of Research Center Global Research & Analysis Team (GReAT) Kaspersky, Vitaly Kamluk mengungkapkan bahwa sindrom jarak yang menderita adalah sindrom yang membuat penjahat siber tidak merasakan rasa sakit yang dialami korban ketika beraksi secara virtual di internet. Berbeda dengan penjahat yang melakukan kriminal secara langsung di jalanan, yang masih merasakan sakit atau dampak psikologis berupa stres. 

        “Penjahat jalanan banyak merasakan stres karena mereka sering melihat penderitaan korban, tapi ini tidak berlaku untuk penjahat siber, tentunya karena mereka beraksi secara jarak jauh. Jadi, mereka tidak merasakan sakit usai beraksi,” ujar Kamluk dalam acara Cyber Security Week Kaspersky 2023 di Jimbaran, Kuta Selatan, Bali pada Kamis (24/8/2023).

        Baca Juga: Helat Cyber Security Week 2023 di Bali, Kaspersky Tekankan Imunitas Siber untuk Tetap Aman dengan AI

        Kamluk juga mengungkapkan, penjahat siber cenderung tidak memiliki koneksi emosional, tidak bertanggung jawab dan ketika mereka menyalahgunakan AI untuk tindakan kriminal, mereka justru menyalahkan AI-lah yang membuat korban menderita. Ini juga berlaku pada kejahatan siber di bidang finansial, khususnya ketika penjahat siber menggunakan ChatGPT untuk melakukan profiling target korban dan mencuri informasi kartu kredit, dompet kripto, atau sejenisnya.

        "Efek serupa juga berlaku untuk pertahanan, khususnya di sektor perusahaan yang penuh dengan kepatuhan dan tanggung jawab keselamatan formal. Kenapa? Karena sistem pertahanan cerdas dapat menjadi semacam kambing hitam. Mereka akan menyerahkan tanggung jawab itu pada AI jika terjadi kegagalan,” terang Kamluk.

        Kamluk mengatakan, adanya “pendelegasian tanggung jawab” terkait sistem keamanan IT di perusahaan justru membuat manusia kurang bertanggung jawab jika terjadi serangan siber.

        “Selain itu, secara umum, kehadiran autopilot yang sepenuhnya independen dapat mengurangi perhatian kontrol manusia,” lanjutnya. 

        Karena itu, Kamluk memberikan tiga panduan agar perusahaan, bisnis, dan organisasi tetap aman menggunakan AI, mulai dari aksesibilitas, regulasi, dan edukasi. 

        Pertama adalah aksesibilitas. Kamluk mengatakan, perusahaan harus membatasi akses anonim ke sistem cerdas nyata yang dibangun dan ditempatkan pada volume data yang sangat kaya. 

        “Kita harus menyimpan riwayat konten yang dihasilkan dan mengidentifikasi bagaimana konten yang disintesis itu dibuat. Mirip dengan World Wide Web (WWW), yang harus ada prosedur untuk menangani penyalagunaan dan pelanggaran AI, serta kontak yang jelas untuk melaporkan pelanggaran,” jelas Kamluk.

        Kedua adalah regulasi atau kebijakan. Kamluk mengambil contoh Uni Eropa yang telah memulai diskusi tentang penandaan konten yang diproduksi dengan bantuan AI tanpa harus menginterupsi sistem ruang AI.

        “Dengan cara ini, pengguna setidaknya dapat mendeteksi gambar, suara, video, atau teks yang dihasilkan AI dengan cepat dan andal,” imbuh Kamluk. Namun, ia menambahkan, memang akan selalu ada pelanggar, tapi mereka akan menjadi minroitas dan dibayang-bayangi hukuman. 

        Sementara itu untuk pengembang AI, melisensikan aktivitas terkait teknologi pintar adalah masuk akal karena sistem tersebut mungkin berbahaya. Alhasil, perlu ada kontrol. 

        Ketiga adalah edukasi. Kamluk mengatakan, perlu untuk menciptakan kesadaran tentang cara mendeteksi konten yang dibuat AI, cara memvalidasinya, serta cara melaporkan kemungkinan penyalahgunaan.

        “Menurut saya, sekolah harus mengajarkan konsep AI. Anak-anak harus tahu perbedaannya dengan kecerdasan alami dan seberapa dapat diandalkan atau rusaknya AI dengan segala kemungkinannnya,” ujar Kamluk. Ia juga berpesan pada pengembang kode atau software coders untuk bertanggung jawab mengembangkan AI.

        “Pengembang kode harus diajarkan menggunakan teknologi secara bertanggung jawab dan tahu hukuman ketika menyalahgunakan AI,” sambung Kamluk. 

        Kamluk sempat mempresentasikan prediksi AI akan menjadi pusat apocalypse. Dari pemaparannya, beberapa perusahaan menyerukan perlambatan AI untuk mencegah bencana tersebut. 

        Kamluk sendiri mengakui, dengan munculnya AI generatif, pengguna dapat melihat terobosan teknologi yang dapat menyintesis konten serupa yang dibuat manusia, mulai dari gambar, suara, video deepfake, atau percakapan berbasis teks yang tidak dapat dibedakan dengan manusia.

        “Seperti kebanyakan terobosan teknologi, AI adalah pedang bermata dua. Kita selalu dapat memanfaatkannya selama kita tahu cara menetapkan arahan yang aman untuk mesin pintar ini,” tutup Kamluk.

        Baca Juga: Coursera Terjemahkan 2.000 Kursus ke Bahasa Indonesia & Luncurkan Fitur AI Interaktif

        Mau Berita Terbaru Lainnya dari Warta Ekonomi? Yuk Follow Kami di Google News dengan Klik Simbol Bintang.

        Penulis: Nadia Khadijah Putri
        Editor: Rosmayanti

        Bagikan Artikel: