AI Facebook Gagal Deteksi Video Aksi Teroris Masjid Selandia Baru
Perusahaan raksasa media sosial Facebook mengakui pada Kamis lalu algoritma Artificial Intelligence (AI) perusahaan gagal mendeteksi secara otomatis video streaming langsung pembunuhan massal di Christchurch minggu lalu.
Facebook sebelumnya mengumbar kemampuan kecerdasan buatannya dan teknik machine learning bisa mendeteksi dan mencegah penyebaran konten berbahaya di platformnya. Faktanya, perangkat lunak pengenal gambar mereka tidak bisa menangkap semua konten berbahaya, bahkan dengan mempekerjakan insinyur terbaik dan digaji tinggi di Silicon Valley sekalipun.
Di Facebook, ada satu tim yang terdiri dari 15.000 moderator konten yang diberi kewenangan meninjau, mengizinkan atau menghapus, tumpukan dan tumpukan gambar dan video yang secara psikologis berbahaya yang dikirimkan ke Facebook setiap jamnya. Pekerjaan ini sangat merepotkan jika dikerjakan secara manual, makanya pekerjaan itu diserahkan pada algoritma.
Baca Juga: Sosok Pembunuh Keji Jamaah Masjid Christchurch Dinilai Jenius
Jumat lalu, seorang pria bersenjata melakukan streaming langsung di Facebook Live pada 17 menit pertama pembunuhan di Masjid Al Noor di Christchurch, Selandia Baru, menewaskan 50 orang dan banyak yang terluka. Video ini tidak memicu sistem deteksi otomatis Facebook. Facebook kemudian menghapus 1,5 juta salinan rekaman itu dari situs webnya ketika para troller, rasis, dan orang gila membagikan videonya di seluruh web.
Veep of Product Management Facebook, Guy Rosen menyatakan kegagalan itu karena kurangnya pelatihan data. Jaringan saraf saat ini perlu memeriksa ribuan atau jutaan contoh untuk mempelajari pola dalam data untuk mulai mengidentifikasi hal-hal seperti konten pornografi atau kekerasan.
"Pendekatan ini telah bekerja sangat baik untuk konten seperti pornografi, propaganda teroris dan juga kekerasan grafis di mana ada sejumlah besar contoh yang dapat kita gunakan untuk melatih sistem kita. Namun, video ini tidak memicu sistem deteksi otomatis kami. Untuk mencapai itu kami masih perlu menyediakan sistem kami dengan volume data yang besar dari jenis konten seperti ini, sesuatu yang sulit karena peristiwa ini sangat jarang," kata dia belum lama ini.
Baca Juga: Facebook Hapus 1,5 Juta Video Tragedi Berdarah Selandia Baru
Sistem komputer vision juga dapat dengan mudah dibodohi dengan false positif. Sulit bagi mereka untuk membedakan ketika tembakan berasal dari serangan teroris yang nyata, atau dari film aksi atau permainan menembak orang pertama (FPS). Jadi akan selalu diperlukan moderator manusia yang dapat membedakannya sampai Facebook dapat melatih AI-nya dengan lebih baik.
Setelah video tersebar ke ribuan orang yang ditandai di Facebook, video itu tidak dihapus sampai polisi di Selandia Baru langsung menghubungi Facebook dan menintanya untuk menghapusnya. Rekaman itu dilaporkan oleh satu netizen dengan alasan "alasan selain bunuh diri," dan untuk alasan itu, tampaknya telah terbentur daftar prioritas moderator.
“Sebagai pembelajaran dari ini, kami sedang memeriksa kembali logika pelaporan dan pengalaman kami untuk video langsung dan baru-baru ini untuk memperluas kategori yang akan mendapatkan quick review,” tambah dia.
Video sulit dideteksi secara visual dan oral
Setelah siaran berakhir, video ditonton 4.000 kali lagi, dan satu atau lebih pengguna berhasil menangkap rekaman tersebut, dan mengoleskannya di situs berbagi gambar lainnya seperti 8chan. Perusahaan telekomunikasi Australia dan Selandia Baru memblokir akses ke situs web itu dan yang lainnya.
Dalam 24 jam pertama, sistem Facebook, setelah mengetahui rekamannya, berhasil menghapus 1,2 juta salinan video yang diunggah ke platformnya. Bahkan kemudian, 300.000 video lainnya berhasil melewati filter, dan dihapus setelah di-posting.
Baca Juga: Stop di Kamu, Jangan Viralkan Konten Aksi Penembakan Selandia Baru
Ini karena ada cara untuk mengakali algoritma. Rekaman dapat dipotong ulang dengan bingkai yang sedikit berbeda, dan dapat memiliki tingkat kualitas yang berbeda-beda, untuk menghindari deteksi. Facebook juga sebenarnya mencoba mengidentifikasi video dengan mencocokkan konten audio, tapi itu tidak terlalu efektif karena mudah untuk menghapus suara asli dan menggantinya dengan suara lain yang terdengar tidak berbahaya.
"Secara total, kami menemukan dan memblokir lebih dari 800 varian video yang berbeda secara visual yang beredar. Video ini berbeda dari propaganda resmi teroris dari organisasi seperti ISIS - yang sementara didistribusikan kepada sejumlah pengikut inti, tidak disiarkan ulang oleh organisasi media mainstream dan tidak dibagikan ulang secara luas oleh individu," tambah Rosen.
Namun Facebook tidak menyerah, dan berharap untuk menggunakan sebagian dari keuntungan $22 miliar mereka tahun lalu untuk meningkatkan "teknologi yang cocok" sehingga dapat "menghentikan penyebaran video viral seperti ini," dan bereaksi lebih cepat untuk video langsung sedang ditandai.
“Apa yang terjadi di Selandia Baru sangat mengerikan. Hati kami bersama para korban, keluarga dan komunitas yang terkena dampak serangan mengerikan ini,” tambah Rosen
Mau Berita Terbaru Lainnya dari Warta Ekonomi? Yuk Follow Kami di Google News dengan Klik Simbol Bintang.
Penulis: Yosi Winosa
Editor: Kumairoh
Tag Terkait: