Era transformasi digital di Indonesia semakin pesat, didorong oleh adopsi teknologi Artificial Intelligence (AI) dan Machine Learning (ML). Banyak bisnis kini memanfaatkan model ML siap pakai yang tersedia di platform online seperti model hubs, memungkinkan mereka menerapkan AI tanpa perlu keahlian teknis mendalam atau sumber daya komputasi yang besar. Namun, kemudahan ini ternyata menyimpan risiko yang sering kali tidak disadari: masalah “rantai pasok” pada model Machine Learning.

      Sama seperti rantai pasok pada umumnya yang melacak asal-usul dan integritas produk, rantai pasok ML berkaitan dengan bagaimana model tersebut dibuat, data apa yang digunakan untuk melatihnya, dan apakah model tersebut telah dimanipulasi sebelum sampai ke pengguna akhir. Menggunakan model yang tidak transparan atau tidak diverifikasi sama saja dengan menggunakan komponen yang tidak jelas asal-usulnya dalam sistem kritis bisnis Anda.

Risiko Keamanan dalam Rantai Pasok Model ML

      Paper akademis terbaru berjudul “Machine Learning Models Have a Supply Chain Problem” menyoroti berbagai ancaman serius dalam ekosistem model ML terbuka. Risiko-risiko ini bukan lagi sekadar teori, melainkan telah dieksploitasi dalam serangan nyata.

      Salah satu ancaman utama adalah risiko penggantian model dengan sesuatu yang berbahaya (malicious), seperti malware. Penyerang dapat mengunggah model yang terlihat sah namun menyisipkan kode berbahaya yang aktif saat model diunduh atau dijalankan. Selain itu, model bisa saja dilatih menggunakan versi framework yang rentan atau data yang dibatasi (restricted) atau sengaja dirusak (poisoned data). Data training yang “diracuni” dapat menyebabkan model berperilaku tidak terduga atau bias pada skenario tertentu, bahkan menghasilkan misinformasi.

Pelajaran dari Industri Perangkat Lunak

      Masalah rantai pasok ini bukanlah hal baru dalam dunia teknologi. Industri perangkat lunak (software) telah menghadapi tantangan serupa selama bertahun-tahun. Contoh kasus serangan rantai pasok software yang terkenal adalah insiden SolarWinds pada tahun 2020. Serangan ini memicu pengembangan solusi transparansi seperti Sigstore, yang dirancang untuk membawa transparansi ke rantai pasok software open-source.

      Sigstore memungkinkan pengembang untuk “menandatangani” kode mereka dan menyimpan metadata penandatanganan dalam log transparansi yang dapat diakses publik. Mekanisme ini serupa dengan Certificate Transparency (CT) yang digunakan untuk memverifikasi sertifikat keamanan website (X.509). Paper ini mengusulkan bahwa pendekatan serupa dapat diterapkan pada model ML untuk meningkatkan transparansi dan akuntabilitas.

Menuju Transparansi Model ML yang Lebih Baik

      Untuk mengatasi masalah rantai pasok ML, diperlukan solusi yang meningkatkan transparansi, terutama terkait asal-usul data pelatihan dan integritas model. Paper ini mengusulkan dua arah solusi utama:

      Pertama, penerapan sistem penandatanganan model (model signing). Penerbit model dapat “menandatangani” model yang mereka unggah ke model hubs. Tanda tangan digital ini berfungsi sebagai bukti bahwa model tersebut berasal dari sumber yang diklaim dan belum dimodifikasi sejak ditandatangani. Implementasi ini, yang diusulkan untuk diintegrasikan ke dalam model hubs yang ada, memberikan lapisan verifikasi awal.

      Kedua, penggunaan struktur data yang dapat diverifikasi, seperti Merkle trees, untuk data pelatihan. Ini memungkinkan pelatih model untuk “berkomitmen” pada dataset yang mereka gunakan. Artinya, mereka dapat membuktikan (atau menyangkal) penyertaan data spesifik dalam dataset pelatihan tanpa harus mengungkapkan seluruh dataset secara publik. Ini penting untuk mengatasi kekhawatiran tentang penggunaan data berhak cipta atau data sensitif, sambil tetap memberikan bukti transparansi yang objektif.

Relevansi Bagi Bisnis dan Industri di Indonesia

      Mengapa masalah rantai pasok ML ini krusial bagi bisnis di Indonesia? Adopsi analitik video AI, sistem kendaraan cerdas, atau solusi berbasis AI lainnya semakin luas di berbagai sektor seperti manufaktur, kesehatan, ritel, hingga pemerintahan. Model AI yang rentan dapat membahayakan operasional, data pelanggan, bahkan keselamatan.

      Bayangkan jika sebuah model analitik video AI untuk deteksi keamanan di pabrik ternyata dilatih dengan data yang bias dan gagal mendeteksi anomali tertentu. Atau sistem teknologi kesehatan mandiri menggunakan model yang dimanipulasi sehingga memberikan hasil pemeriksaan yang tidak akurat. Risiko ini sangat nyata dan dapat berdampak besar pada reputasi, finansial, dan kepatuhan regulasi bisnis.

      Memilih mitra teknologi yang memiliki komitmen pada transparansi, keandalan, dan keamanan dalam pengembangan model AI adalah langkah strategis. Ini memastikan bahwa solusi yang diimplementasikan dibangun di atas fondasi yang kuat dan dapat dipercaya, meminimalkan risiko yang berasal dari rantai pasok model yang tidak terkelola.

Bagaimana ARSA Technology Dapat Membantu?

      Sebagai perusahaan teknologi AI dan IoT yang berpengalaman sejak 2018 di Indonesia, ARSA Technology memahami pentingnya kepercayaan dan transparansi dalam setiap solusi yang kami kembangkan. Kami tidak hanya menyediakan model ML siap pakai dari sumber eksternal yang tidak terverifikasi. Sebaliknya, tim R&D internal kami di Yogyakarta secara aktif mengembangkan, melatih, dan menguji model AI secara mandiri, disesuaikan dengan kebutuhan spesifik industri di Indonesia.

      Pendekatan ini memastikan bahwa kami memiliki kontrol penuh atas seluruh rantai pasok model AI kami, mulai dari pemilihan data pelatihan (dengan mempertimbangkan aspek legalitas dan kualitas) hingga proses pengembangan dan implementasi. Solusi ARSA, seperti monitoring alat berat berbasis AI Vision atau pelatihan berbasis VR, dibangun dengan fondasi keamanan dan akurasi yang menjadi prioritas utama. Kami percaya bahwa teknologi terbaik adalah teknologi yang tidak hanya inovatif tetapi juga dapat diandalkan dan akuntabel.

Kesimpulan

      Masalah rantai pasok pada model Machine Learning merupakan tantangan serius yang perlu diwaspadai oleh setiap bisnis yang mengadopsi AI. Ketersediaan model gratis atau murah di sumber terbuka datang dengan risiko integritas dan keamanan yang signifikan. Solusi transparansi seperti penandatanganan model dan verifikasi data pelatihan sangat penting untuk membangun ekosistem AI yang lebih aman dan dapat dipercaya di masa depan. Bagi bisnis di Indonesia, memilih mitra teknologi dengan rekam jejak yang jelas dalam pengembangan solusi AI yang aman dan transparan, seperti ARSA Technology, adalah kunci untuk mitigasi risiko dan memastikan keberhasilan transformasi digital yang berkelanjutan.

      Konsultasikan kebutuhan AI Anda dengan tim ARSA Technology.

HUBUNGI WHATSAPP