Di Balik Tirai: NSA Dikabarkan Menggunakan Model AI Mythos Anthropic di Tengah Perseteruan Pentagon
Badan Keamanan Nasional (NSA) AS dilaporkan menggunakan Mythos dari Anthropic untuk keamanan siber, meski Pentagon menganggapnya berisiko. Pelajari dilema AI dalam pertahanan dan implikasi tata kelolanya.
Di tengah meningkatnya ketegangan seputar pengembangan dan penerapan kecerdasan buatan (AI) oleh pemerintah, sebuah laporan mengejutkan dari Axios yang diterbitkan ulang oleh TechCrunch pada 20 April 2026, menyoroti dinamika yang kompleks. Badan Keamanan Nasional (NSA) Amerika Serikat dikabarkan menggunakan Mythos Preview, sebuah model AI canggih dari Anthropic, meskipun ada perselisihan yang mencolok antara Anthropic dan Departemen Pertahanan (DoD) AS—badan induk NSA. Situasi ini menggarisbawahi tantangan unik dalam mengintegrasikan teknologi AI mutakhir dengan kebutuhan keamanan nasional, sembari menyeimbangkan kekhawatiran tentang privasi, kontrol data, dan potensi penyalahgunaan.
Dilema Keamanan Nasional dan Inovasi AI
Perseteruan antara Anthropic dan Pentagon berakar pada kekhawatiran yang mendalam tentang kontrol dan akuntabilitas AI. Beberapa minggu sebelum laporan penggunaan Mythos oleh NSA ini, Departemen Pertahanan telah secara terbuka melabeli Anthropic sebagai "risiko rantai pasok". Julukan ini muncul setelah Anthropic menolak permintaan Pentagon untuk akses tak terbatas terhadap kapabilitas penuh model AI mereka, Claude, khususnya untuk aplikasi yang melibatkan pengawasan domestik massal dan pengembangan senjata otonom. Anthropic, sebagai pengembang AI, tampaknya berhati-hati dalam memastikan teknologinya tidak digunakan dengan cara yang bertentangan dengan prinsip etika mereka.
Model Mythos: Kemampuan Siber yang Mengerikan dan Akses Terbatas
Mythos, yang diumumkan oleh Anthropic pada awal bulan yang sama, merupakan model AI mutakhir yang dirancang khusus untuk tugas-tugas keamanan siber. Namun, perusahaan tersebut menyatakan bahwa model ini terlalu mumpuni dalam melakukan serangan siber ofensif sehingga tidak dapat dirilis secara publik. Akibatnya, Anthropic membatasi akses ke Mythos hanya untuk sekitar 40 organisasi, dan hanya sekitar selusin di antaranya yang disebutkan secara terbuka. Laporan tersebut mengindikasikan bahwa NSA adalah salah satu penerima yang tidak disebutkan namanya, menggunakan Mythos terutama untuk memindai lingkungan sistem guna mencari kerentanan yang dapat dieksploitasi. Institut Keamanan AI Inggris juga telah mengonfirmasi akses mereka terhadap model ini, menunjukkan cakupan penerima yang bersifat global dan strategis.
Kemampuan Mythos untuk mengidentifikasi dan menganalisis kerentanan secara otomatis dapat merevolusi pertahanan siber, memungkinkan respons yang lebih cepat dan deteksi ancaman yang lebih canggih. Namun, kekuatan yang sama juga menimbulkan pertanyaan etika dan keamanan yang serius. Batasan akses yang diberlakukan Anthropic mencerminkan kesadaran akan potensi dampak ganda teknologi AI, yang bisa menjadi pedang bermata dua jika jatuh ke tangan yang salah atau digunakan tanpa pengawasan yang memadai.
Paradoks Penggunaan AI oleh Militer AS
Yang membuat situasi ini semakin rumit adalah kenyataan bahwa militer AS sedang memperluas penggunaan alat AI dari Anthropic, di saat yang sama mereka berargumen di pengadilan bahwa alat-alat ini dapat mengancam keamanan nasional. Argumen Pentagon tampaknya berpusat pada risiko AI yang tidak terkendali atau digunakan secara tidak etis. Sementara itu, NSA, yang merupakan bagian dari ekosistem pertahanan yang lebih luas, melihat nilai strategis dalam memanfaatkan model canggih seperti Mythos untuk tujuan defensif siber.
Kontradiksi ini menyoroti perdebatan yang lebih luas dalam tata kelola AI, di mana manfaat inovasi teknologi harus ditimbang dengan risiko inherennya. Bagi organisasi yang membutuhkan kontrol penuh atas data dan operasinya, seperti badan intelijen atau pertahanan, solusi yang dapat diterapkan secara on-premise atau dengan jaminan kedaulatan data menjadi sangat krusial. ARSA Technology, sebagai penyedia solusi AI dan IoT terkemuka, memahami kebutuhan ini dan menawarkan sistem AI Box serta analitik video AI yang dapat disesuaikan untuk penyebaran di lokasi demi memastikan keamanan data dan kontrol operasional yang maksimal.
Mencairnya Hubungan Anthropic dengan Administrasi Trump
Di tengah perselisihan yang mencuat, terdapat indikasi bahwa hubungan Anthropic dengan administrasi Trump (yang akan berkuasa pada saat laporan ini dirilis tahun 2026) mulai mencair. Hal ini terlihat dari pertemuan antara CEO Anthropic, Dario Amodei, dengan kepala staf Gedung Putih, Susie Wiles, dan Menteri Keuangan, Scott Bessent. Pertemuan yang dikabarkan produktif ini bisa menjadi langkah menuju kesepahaman yang lebih baik mengenai peran dan regulasi AI dalam konteks pemerintahan.
Pertemuan tersebut mengindikasikan adanya upaya untuk menjembatani kesenjangan antara inovator teknologi dan pembuat kebijakan. Meskipun ada kekhawatiran yang sah tentang potensi penyalahgunaan AI, penting bagi pemerintah untuk berdialog dengan pengembang teknologi untuk memahami kapabilitas dan batasan AI secara komprehensif. Ini juga menunjukkan bahwa dialog terbuka dan kolaborasi dapat menjadi kunci untuk mengatasi dilema etika dan keamanan yang muncul dari teknologi yang berkembang pesat.
Implikasi untuk Keamanan Siber Global
Kasus NSA dan Mythos ini memiliki implikasi besar bagi keamanan siber secara global. Penggunaan AI yang begitu kuat untuk pemindaian kerentanan menandai pergeseran paradigma dalam strategi pertahanan siber. Ini bukan hanya tentang mendeteksi ancaman yang diketahui, tetapi juga mengidentifikasi potensi kelemahan yang mungkin belum terpikirkan oleh manusia.
Bagi perusahaan dan pemerintah di seluruh dunia, pelajaran utamanya adalah perlunya pendekatan yang cermat terhadap adopsi AI. Ini mencakup tidak hanya investasi dalam teknologi itu sendiri, tetapi juga dalam tata kelola yang kuat, kebijakan penggunaan yang etis, dan model penyebaran yang menjamin kontrol penuh atas data sensitif. Organisasi seperti ARSA Technology yang berpengalaman sejak 2018, yang membangun sistem siap produksi dengan fokus pada akurasi, skalabilitas, privasi, dan keandalan operasional, menawarkan kerangka kerja untuk menerapkan AI yang bertanggung jawab dan berdampak. Kemampuan untuk menganalisis jutaan titik data secara real-time dan mengubah infrastruktur pasif menjadi mesin keputusan cerdas, sambil menjaga privasi, adalah fondasi untuk membangun masa depan yang aman dengan AI.
Untuk informasi lebih lanjut mengenai bagaimana solusi AI dapat memperkuat keamanan siber dan operasional Anda, kami mengundang Anda untuk menjelajahi penawaran ARSA Technology dan meminta konsultasi gratis dengan tim kami.
Sumber: TechCrunch.