Pentagon Mengatakan AI Mempercepat 'Rantai Pembunuhan'nya

Pengembang AI terkemuka, seperti OpenAI dan Anthropic, sedang berusaha keras untuk menjual perangkat lunak kepada militer Amerika Serikat: membuat Pentagon lebih efisien, tanpa membiarkan AI mereka membunuh orang.

Saat ini, alat-alat mereka tidak digunakan sebagai senjata, tetapi AI memberikan “keuntungan signifikan” kepada Departemen Pertahanan dalam mengidentifikasi, melacak, dan menilai ancaman, kata Pejabat Kepala Digital dan AI Pentagon, Dr. Radha Plumb, kepada TechCrunch dalam wawancara telepon.

"Jelas kami meningkatkan cara-cara di mana kami dapat mempercepat pelaksanaan rantai pembunuhan sehingga para komandan kami dapat merespons tepat waktu untuk melindungi pasukan kami," kata Plumb.

Rantai pembunuhan merujuk pada proses militer untuk mengidentifikasi, melacak, dan mengeliminasi ancaman, melibatkan sistem sensor, platform, dan senjata yang kompleks. Generative AI terbukti membantu selama tahap perencanaan dan strategi rantai pembunuhan, menurut Plumb.

Hubungan antara Pentagon dan pengembang AI adalah yang relatif baru. OpenAI, Anthropic, dan Meta menarik kembali kebijakan penggunaan mereka pada tahun 2024 untuk membiarkan badan intelijen dan pertahanan AS menggunakan sistem AI mereka. Namun, mereka masih tidak mengizinkan AI mereka merugikan manusia.

"Kami sangat jelas tentang apa yang kami akan dan tidak akan gunakan teknologi mereka," kata Plumb, saat ditanya bagaimana cara Pentagon bekerja dengan penyedia model AI.

Bagaimanapun, ini memulai putaran speed dating untuk perusahaan AI dan kontraktor pertahanan.

Meta bermitra dengan Lockheed Martin dan Booz Allen, antara lain, untuk membawa model AI Llama mereka ke agensi pertahanan pada bulan November. Pada bulan yang sama, Anthropic bermitra dengan Palantir. Pada bulan Desember, OpenAI menandatangani kesepakatan serupa dengan Anduril. Lebih diam-diam, Cohere juga telah mendistribusikan model mereka dengan Palantir.

Saat generative AI membuktikan kebergunaannya di Pentagon, ini dapat mendorong Silicon Valley untuk melonggarkan kebijakan penggunaan AI mereka dan memperbolehkan lebih banyak aplikasi militer.

"Mempertimbangkan berbagai skenario adalah sesuatu yang generative AI dapat membantu," kata Plumb. "Ini memungkinkan Anda memanfaatkan seluruh rangkaian alat yang tersedia bagi para komandan kami, tetapi juga berpikir kreatif tentang berbagai pilihan respons dan kemungkinan trade off dalam lingkungan di mana ada ancaman potensial, atau serangkaian ancaman, yang perlu diproses."

Belum jelas teknologi siapa yang digunakan Pentagon untuk pekerjaan ini; menggunakan generative AI dalam rantai pembunuhan (bahkan di fase perencanaan awal) tampaknya melanggar kebijakan penggunaan beberapa pengembang model terkemuka. Kebijakan Anthropic, misalnya, melarang penggunaan model mereka untuk menghasilkan atau memodifikasi “sistem yang dirancang untuk menyebabkan kerusakan atau kehilangan nyawa manusia.”

Menanggapi pertanyaan kami, Anthropic mengarahkan TechCrunch ke wawancara CEO mereka, Dario Amodei, dengan Financial Times, di mana ia membela pekerjaan militer mereka:

Posisi bahwa kita seharusnya tidak pernah menggunakan AI dalam pengaturan pertahanan dan intelijen tidak masuk akal bagi saya. Posisi bahwa kita harus pergi sebisanya dan menggunakannya untuk membuat apa pun yang kita inginkan, termasuk senjata hari kiamat, itu jelas sama gila. Kami mencoba mencari jalan tengah, untuk melakukan hal-hal dengan tanggung jawab.

OpenAI, Meta, dan Cohere tidak merespons permintaan komentar dari TechCrunch.

Keberlanjutan dan AI Senjata

Baru-baru ini, sebuah perdebatan teknologi pertahanan meletus tentang apakah senjata AI benar-benar harus diizinkan untuk membuat keputusan hidup dan mati. Beberapa berpendapat bahwa militer AS sudah memiliki senjata yang melakukannya.

CEO Anduril Palmer Luckey baru-baru ini mencatat di X bahwa militer AS memiliki sejarah panjang membeli dan menggunakan sistem senjata otonom seperti menara CIWS.

"DoD telah membeli dan menggunakan sistem senjata otonom selama beberapa dekade sekarang. Penggunaannya (dan ekspor!) sangat dipahami, ketat didefinisikan, dan dengan tegas diatur oleh aturan yang sama sekali tidak bersifat sukarela," kata Luckey.

Namun ketika TechCrunch bertanya apakah Pentagon membeli dan mengoperasikan senjata yang sepenuhnya otonom - yang tanpa ada manusia dalam lingkaran - Plumb menolak ide tersebut secara prinsip.

“Tidak,” kata Plumb. “Sebagai masalah keterandalan dan etika, kami akan selalu melibatkan manusia dalam keputusan untuk menggunakan kekuatan, dan itu termasuk untuk sistem senjata kami.”

Istilah “otonomi” agak ambigu dan telah menimbulkan perdebatan di seluruh industri teknologi tentang kapan sistem otomatis - seperti agen koding AI, mobil otonom, atau senjata tembak otomatis - benar-benar menjadi independen.

Plumb mengatakan bahwa gagasan bahwa sistem otomatis melakukan keputusan hidup dan mati secara mandiri "terlalu biner," dan kenyataannya kurang "seperti fiksi ilmiah." Sebaliknya, dia menyarankan penggunaan sistem AI oleh Pentagon benar-benar kolaborasi antara manusia dan mesin, di mana pemimpin senior membuat keputusan aktif sepanjang proses.

Keamanan AI di Pentagon

Kemitraan militer tidak selalu berjalan lancar dengan karyawan Silicon Valley. Tahun lalu, puluhan karyawan Amazon dan Google dipecat dan ditangkap setelah memrotes kontrak militer perusahaan mereka dengan Israel, kesepakatan cloud yang jatuh di bawah nama sandi “Project Nimbus.”

Dibandingkan dengan itu, tanggapan dari komunitas AI cukup redup. Beberapa peneliti AI, seperti Evan Hubinger dari Anthropic, mengatakan penggunaan AI dalam militer tidak bisa dihindari, dan sangat penting untuk bekerja langsung dengan militer untuk memastikan mereka melakukannya dengan benar.

“Jika Anda serius tentang risiko kritis dari AI, pemerintah AS adalah pelaku yang sangat penting untuk berinteraksi, dan mencoba hanya memblokir pemerintah AS dari menggunakan AI bukanlah strategi yang layak,” kata Hubinger dalam posting November ke forum online LessWrong. “Tidak cukup hanya fokus pada risiko kritis, Anda juga harus mencegah cara apapun pemerintah bisa salah menggunakan model Anda.”