Ancaman Deepfake: Ketika Realitas Terdistorsi oleh AI
Bayangkan skenario ini: Anda sedang berkomunikasi intens dengan seseorang yang baru dikenal melalui media sosial atau aplikasi kencan. Percakapan terasa alami, bertukar foto, bahkan melakukan panggilan video. Anda mulai merasa nyaman dan percaya. Tiba-tiba, mereka mulai membicarakan uang. Mungkin meminta bantuan untuk biaya internet, atau mengajak investasi mata uang kripto yang ‘menguntungkan’. Baru setelah terlambat, Anda menyadari bahwa orang yang Anda ajak bicara sama sekali tidak nyata.
Mereka adalah ‘deepfake’ yang dihasilkan oleh AI secara real-time, menutupi wajah orang asli di balik penipuan. Skenario ini mungkin terdengar seperti fiksi ilmiah distopia, tetapi sudah terjadi pada banyak orang. Dengan lonjakan kemampuan AI generatif dalam beberapa tahun terakhir, penipu kini dapat menciptakan wajah dan suara palsu yang realistis untuk menyamarkan identitas mereka secara real-time.
Para ahli memperingatkan bahwa deepfake dapat meningkatkan berbagai jenis penipuan online, mulai dari penipuan romansa, pekerjaan, hingga penipuan pajak. David Maimon, kepala insight penipuan di perusahaan verifikasi identitas SentiLink dan profesor kriminologi di Georgia State University, telah melacak evolusi penipuan AI selama enam tahun terakhir.
“Kami melihat peningkatan dramatis dalam volume deepfake, terutama dibandingkan tahun 2023 dan 2024,” kata Maimon. “Dulu tidak banyak, mungkin empat atau lima per bulan. Sekarang, kami melihat ratusan kasus ini setiap bulan secara keseluruhan, ini sangat mencengangkan.”
Beragam Modus Penipuan Deepfake yang Mengintai
Deepfake sudah digunakan dalam berbagai jenis penipuan online. Sebagai contoh, seorang pekerja keuangan di Hong Kong kehilangan US$25 juta karena penipu yang menyamar sebagai Chief Financial Officer (CFO) perusahaannya dalam panggilan video deepfake. Modus ini menunjukkan betapa berbahayanya deepfake dalam konteks korporat, di mana panggilan video dan komunikasi eksekutif adalah hal umum.
Contoh lain terjadi tahun lalu, seorang pensiunan di Selandia Baru kehilangan sekitar US$133.000 karena penipuan investasi kripto setelah melihat iklan Facebook yang menampilkan deepfake perdana menteri negara tersebut yang mendorong orang untuk berinvestasi. Di Indonesia, di mana adopsi digital semakin masif, skenario serupa sangat mungkin terjadi dan menargetkan masyarakat maupun pebisnis.
Maimon dari SentiLink juga melaporkan bahwa perusahaannya mulai melihat deepfake digunakan untuk membuat akun bank palsu guna menyewa apartemen atau melakukan penipuan pengembalian pajak. Semakin banyak perusahaan juga melihat deepfake dalam wawancara kerja virtual. “Apapun yang mengharuskan orang online dan mendukung kesempatan untuk menukar wajah dengan orang lain, itu akan tersedia dan terbuka untuk dimanfaatkan oleh penipu,” jelas Maimon.
Bahkan, deepfake bisa digunakan untuk memanipulasi video atau audio orang terdekat atau tokoh publik, mengubah sedikit wajah mereka atau apa yang mereka katakan, untuk menargetkan orang yang mereka cintai atau membajak pengaruh publik mereka. Matt Groh, seorang profesor manajemen di Northwestern University yang meneliti kemampuan orang untuk mendeteksi deepfake, mengatakan bahwa alat AI generatif ‘point-and-click’ membuat perubahan kecil yang meyakinkan pada media yang sudah ada menjadi jauh lebih mudah.
“Jika ada gambar Anda di internet, itu sudah cukup untuk memanipulasi wajah agar terlihat mengatakan sesuatu yang belum pernah Anda katakan sebelumnya atau melakukan sesuatu yang belum pernah Anda lakukan sebelumnya,” kata Groh. Bukan hanya video palsu yang perlu Anda khawatirkan. Dengan beberapa klip audio saja, dimungkinkan juga untuk membuat salinan suara seseorang yang meyakinkan. Sebuah studi tahun 2023 menemukan bahwa manusia gagal mendeteksi audio deepfake lebih dari seperempat waktu. “Hanya satu gambar dan lima detik audio online berarti sangat mungkin bagi penipu untuk membuat deepfake yang realistis dari Anda,” tegas Groh.
Mengapa Deteksi Teknologi Belum Mampu Mengimbangi?
Mengingat penyebarannya, bagaimana cara mendeteksi deepfake? Jawabannya ternyata bukan sepenuhnya pada teknologi saat ini. Beberapa perusahaan teknologi, termasuk OpenAI, telah meluncurkan alat deteksi deepfake. Para peneliti juga telah mengusulkan mekanisme untuk mendeteksi deepfake berdasarkan hal-hal seperti cahaya yang dipantulkan di mata seseorang atau gerakan wajah yang tidak konsisten, dan mulai menyelidiki cara mengimplementasikannya secara real-time.
Namun, alat deteksi ini seringkali memiliki keterbatasan, misalnya hanya efektif untuk deepfake yang dihasilkan dengan model AI tertentu. Ada juga risiko bahwa penipu dapat menyalahgunakan detektor AI dengan terus-menerus mengubah konten mereka sampai berhasil mengelabui perangkat lunak.
“Hal utama yang harus kita pahami adalah bahwa teknologi yang kita miliki saat ini belum cukup baik untuk mendeteksi deepfake tersebut,” kata Maimon. “Kita masih sangat tertinggal.” Saat ini, seiring dengan semakin populernya video deepfake, cara terbaik untuk mendeteksinya masih bergantung pada manusia.
Garis Pertahanan Terbaik: Kewaspadaan Manusia
Studi tentang deteksi deepfake menunjukkan bahwa manusia paling baik dalam membedakan apakah video itu nyata atau palsu, dibandingkan dengan konten audio atau teks saja. Dalam beberapa kasus, manusia bahkan lebih baik daripada model deteksi terkemuka. Tim Groh melakukan satu studi yang menemukan bahwa meluangkan lebih banyak waktu untuk menentukan apakah suatu gambar itu nyata atau palsu menghasilkan peningkatan akurasi yang signifikan, hingga delapan persen hanya dengan 10 detik waktu melihat.
“Ini terdengar sangat sederhana,” kata Groh. “Tetapi jika Anda meluangkan beberapa detik ekstra saja, itu menghasilkan tingkat kemampuan membedakan gambar asli atau palsu yang jauh lebih tinggi.” Salah satu cara bagi orang biasa untuk menjadi sedikit kurang rentan terhadap penipuan adalah dengan bertanya, ‘Apakah ini benar-benar terlihat nyata?’ Dan jika Anda melakukannya hanya beberapa detik ekstra, kita semua akan sedikit lebih baik.
Popularitas deepfake bisa menjadi pedang bermata dua bagi penipu, kata Groh. Semakin luas penyebarannya, semakin banyak orang yang akan akrab dengannya dan tahu apa yang harus dicari. Keakraban itu telah membuahkan hasil dalam beberapa kasus.
Musim panas lalu, seorang eksekutif Ferrari menerima telepon dari seseorang yang mengaku sebagai CEO perusahaan. Orang tersebut meniru suara CEO dengan meyakinkan tetapi tiba-tiba menutup telepon ketika eksekutif tersebut mencoba memverifikasi identitas mereka dengan menanyakan buku apa yang direkomendasikan CEO beberapa hari sebelumnya. CEO WPP, agensi periklanan terbesar di dunia, juga menjadi target penipuan deepfake serupa yang tidak berhasil.
“Saya pikir ada keseimbangan yang terjadi,” kata Groh. “Kita jelas memiliki teknologi saat ini yang umumnya sulit diidentifikasi oleh orang-orang. Tetapi pada saat yang sama, begitu Anda tahu bahwa ada alat ‘point-and-click’ yang memungkinkan Anda mengubah satu elemen menjadi sesuatu yang lain, semua orang menjadi jauh lebih skeptis.”
Dampak Deepfake pada Keamanan Bisnis di Indonesia
Ancaman deepfake tidak hanya terbatas pada penipuan individu. Bagi bisnis di Indonesia, deepfake menimbulkan risiko keamanan yang signifikan. Panggilan video palsu yang meniru eksekutif dapat memicu transfer dana ilegal atau pembocoran informasi rahasia. Wawancara kerja palsu dapat digunakan untuk mendapatkan akses ke data internal atau melakukan spionase industri.
Integritas komunikasi digital dan verifikasi identitas menjadi sangat krusial. Sistem keamanan tradisional yang hanya mengandalkan pengenalan wajah atau suara sederhana bisa rentan terhadap serangan deepfake yang canggih. Oleh karena itu, perusahaan perlu meningkatkan kewaspadaan dan mempertimbangkan solusi keamanan digital yang lebih berlapis.
Penting bagi bisnis untuk mengedukasi karyawan tentang ancaman deepfake dan cara mendeteksinya, terutama dalam komunikasi virtual. Selain itu, menerapkan protokol verifikasi ganda untuk transaksi penting atau akses sensitif dapat menjadi lapisan keamanan tambahan.
Bagaimana ARSA Technology Dapat Membantu?
Sebagai perusahaan teknologi lokal yang berpengalaman sejak 2018 di bidang AI dan IoT, ARSA Technology memahami pentingnya keamanan dalam transformasi digital. Meskipun deteksi deepfake secara spesifik masih menjadi tantangan yang terus berkembang, ARSA menyediakan solusi berbasis AI yang membangun fondasi keamanan digital yang kuat dan mengurangi kerentanan terhadap berbagai jenis ancaman, termasuk yang mungkin dieksploitasi oleh deepfake.
Solusi analitik video AI kami, misalnya, dapat digunakan untuk pengawasan dan deteksi anomali di berbagai area penting, memberikan lapisan keamanan visual. Sementara itu, sistem kendaraan & parkir cerdas kami menggunakan teknologi identifikasi untuk kontrol akses yang presisi.
Meskipun deepfake berusaha mengelabui sistem visual dan audio, ARSA berkomitmen untuk terus mengembangkan solusi yang tidak hanya cerdas tetapi juga tangguh dalam menghadapi lanskap ancaman digital yang terus berubah. Kami fokus pada keandalan data dan akurasi tinggi dalam setiap implementasi teknologi kami.
Kesimpulan
Deepfake adalah ancaman keamanan digital yang nyata dan berkembang pesat, mampu mendistorsi realitas dan memicu berbagai skema penipuan yang merugikan individu maupun bisnis. Meskipun teknologi deteksi deepfake masih dalam tahap pengembangan dan belum sepenuhnya efektif, garis pertahanan terbaik saat ini adalah kewaspadaan manusia, skeptisisme yang sehat, dan proses verifikasi yang cermat.
Bagi bisnis di Indonesia, memahami risiko deepfake dan memperkuat postur keamanan digital adalah langkah krusial. Dengan mengedukasi karyawan, menerapkan protokol keamanan yang kuat, dan berinvestasi pada solusi berbasis AI/IoT yang tangguh dari mitra terpercaya seperti ARSA Technology, perusahaan dapat lebih siap menghadapi ancaman yang semakin canggih di era digital ini.
Konsultasikan kebutuhan AI Anda dengan tim ARSA Technology