Ilustrasi: Istimewa
Ada satu hal yang jarang dibahas ketika orang membicarakan AI, cloud, atau transformasi digital. Ini semua sebenarnya bikin kita lebih efisien, atau malah lebih boros? Proyeksi dari IDC menyebutkan bahwa volume data global bakal tembus 393,9 zettabyte pada 2028. Di balik itu, ada konsekuensi yang mulai terasa sekarang, biaya yang diam-diam membengkak. Bukan cuma untuk storage atau backup. Tapi mencakup juga untuk masalah compliance, operasional, sampai kualitas AI itu sendiri.
Di titik ini, backup dan keamanan data sudah bukan lagi urusan IT. Ini sudah masuk ke wilayah ekonomi. Ekonomi AI.
Memperingati momen World Backup Day, banyak perusahaan merasa sudah di jalur yang benar. Data makin banyak di-backup, sistem keamanan ditambah. Layer demi layer. Tapi masalahnya, lebih banyak belum tentu lebih baik. “Backup tidak bisa diperlakukan seperti polis asuransi yang terus diperluas tanpa batas,” ucap Sherlie Karnidta, Country Manager Indonesia, Cloudera.
Sebab kenyataannya, lanjut Sherlie, banyak organisasi masih jalan dengan pola lama, yakni menyimpan dan mengamankan semua data. Padahal, tanpa aturan retensi yang jelas, tanpa tata kelola data yang kuat, yang terjadi justru kebalikannya, program ketahanan data justru bisa menjadi beban finansial, memperumit operasional, dan sulit dibenarkan dari sisi bisnis
Kalau bicara Indonesia, skalanya bahkan lebih ekstrem. Kapasitas data center naik 66% hanya dalam satu tahun (2024–2025). Artinya, data menumpuk dengan cepat.
Di sisi lain, ancaman juga ikut naik. Laporan dari AwanPintar.id mencatat ada lebih dari 367 juta serangan siber sepanjang 2025, mayoritas adalah upaya serius untuk mencuri data dan kredensial, yang ujungnya dipakai buat melancarkan serangan malware, seperti ransomware, yang sangat merusak. Dampaknya? Dalam periode November 2024 hingga Januari 2025, menurut catatan pemerintah, kerugian finansial sudah tembus Rp476 miliar.
Masalahnya, semua data dianggap penting. Di banyak perusahaan, semua data diperlakukan sama. Mau itu data kritikal, atau sekadar log lama yang tidak pernah dibuka lagi. Hasilnya gampang ditebak, environment backup pun membengkak. “Tanpa visibilitas ini, semua data cenderung diperlakukan sama pentingnya, yang segera mengakibatkan lingkungan backup yang menggelembung, dan prioritas pemulihan yang tidak jelas,” kata Sherlie lagi.
"Dan di situ masalah mulai muncul. Karena kalau semuanya penting, sebenarnya tidak ada yang benar-benar prioritas. Recovery jadi lambat dan biaya membengkak. Saat sistem mengalami down, tim malah bingung mulai dari mana," tambahnya.
Data yang tidak terkelola bukan cuma mahal saat disimpan, tapi juga mahal ketika dipakai untuk implementasi AI. Data yang kotor, redundant, atau sudah tidak relevan tetap masuk ke pipeline analytics dan model AI. Hasil akhirnya menjadi tidak akurat dan hanya memboroskan anggaran. “Ujung-ujungnya, organisasi seperti harus membayar dua kali, pertama untuk menyimpan dan melindungi data yang sebenarnya minim nilai, lalu kedua untuk memperbaiki masalah yang ditimbulkan oleh data tersebut di sistem yang ada di hilir,” kata Sherlie.
Sherlie mengatakan ujian sebenarnya bukanlah pada backup, melainkan pada recovery. Banyak perusahaan bangga karena punya sistem backup tapi jarang rutin mengetes, apakah datanya benar-benar bisa dipulihkan dengan cepat?
Di sinilah gap-nya. Recovery testing sering membuka fakta yang tidak mengenakkan. Ada data yang di-backup, tapi tidak berguna saat recovery. Ada sistem yang ternyata lebih kritikal dari yang diperkirakan. Dan ada dependensi data yang tidak pernah dipetakan. Dan tanpa testing, semua itu baru ketahuan saat sudah terlambat.
Di era hybrid dan multi-cloud, kata Sherlie, data dengan mudah mengalami replikasi tak terkendali sehingga meningkatkan volume data yang harus diamankan, dikelola, dan dicadangkan. Kalau dibiarkan, akan berdampak langsung pada biaya pengadopsian AI.
Itulah sebabnya, perpindahan data ke platform SaaS pihak ketiga maupun layanan eksternal, seharusnya diperlakukan sebagai keputusan tata kelola yang disengaja, bukan pilihan yang dianggap kelihatannya aman padahal justru bikin kontrol makin lemah. Begitu data keluar dari sistem utama, visibilitas turun. Tata kelolanya menjadi susah dan recovery makin kompleks.
Konsistensi lintas lingkungan, kata Sherlie, juga sama pentingnya. Platform on-premises dan cloud perlu dikelola dengan pendekatan yang seragam agar tidak terjadi pengelolaan dan perlindungan data yang terfragmentasi, yang seringkali memicu duplikasi dataset dan lingkungan backup yang menggelembung. Standar terbuka seperti protokol Iceberg REST Catalog dapat membantu meningkatkan interoperabilitas antar engine dan katalog data, sehingga mengurangi kebutuhan untuk membuat salinan data tambahan hanya demi memastikan data dapat digunakan di berbagai platform.
Sherlie mengatakan, yang perlu diubah bukanlah teknologi, melainkan cara berpikirnya. “Tata kelola merupakan mekanisme yang membantu untuk mengoptimalkan biaya backup, mempercepat proses pemulihan, sekaligus meningkatkan keandalan AI. Dengan pendekatan ini, perusahaan bisa berhenti membayar mahal untuk melindungi data yang sebenarnya tidak dipahami, tidak dibutuhkan, atau sejak awal memang tidak perlu disimpan,” pungkasnya
Mau Berita Terbaru Lainnya dari Warta Ekonomi? Yuk Follow Kami di Google News dengan Klik Simbol Bintang.
Editor: Sufri Yuliardi
Tag Terkait: