Undang-undang AI UE: Draf Terbaru Kode untuk Pembuat Model AI Bergerak Menuju Panduan yang Lebih Lembut untuk Big AI

Di hadapan batas waktu Mei untuk menyelesaikan panduan untuk penyedia model AI tujuan umum (GPAI) agar sesuai dengan ketentuan Undang-undang AI UE, sebuah draf ketiga Kode Praktek diterbitkan pada hari Selasa. Kode ini telah dalam pengembangan sejak tahun lalu, dan draf ini diharapkan menjadi yang terakhir. Sebuah situs web juga diluncurkan dengan tujuan meningkatkan aksesibilitas Kode tersebut. Umpan balik tertulis tentang draf terbaru harus diserahkan sebelum 30 Maret 2025. Pedoman berbasis risiko blok untuk AI mencakup sebagian dari kewajiban yang hanya berlaku untuk pembuat model AI paling kuat - mencakup area seperti transparansi, hak cipta, dan mitigasi risiko. Kode ini bertujuan untuk membantu pembuat model GPAI memahami cara memenuhi kewajiban hukum dan menghindari risiko sanksi karena tidak patuh. Denda Undang-undang AI untuk pelanggaran persyaratan GPAI bisa mencapai hingga 3% dari pendapatan tahunan global. Revisi terbaru Kode tersebut diharapkan memiliki “struktur yang lebih disederhanakan dengan komitmen dan langkah-langkah yang diperhalus” dibandingkan dengan iterasi sebelumnya, berdasarkan umpan balik pada draf kedua yang diterbitkan pada bulan Desember. Umpan balik lebih lanjut, diskusi kelompok kerja, dan lokakarya akan memberikan masukan dalam proses mengubah draf ketiga menjadi panduan final. Para pakar berharap dapat mencapai “kejelasan dan koherensi” yang lebih besar dalam versi akhir yang diadopsi dari Kode tersebut. Draf ini dibagi menjadi beberapa bagian yang meliputi komitmen untuk GPAI, bersama dengan panduan terperinci untuk langkah-langkah transparansi dan hak cipta. Ada juga bagian tentang kewajiban keamanan yang berlaku untuk model-model paling kuat (dengan risiko sistemik, atau GPAISR). Tentang transparansi, panduan itu mencakup contoh formulir dokumentasi model yang mungkin diharapkan GPAI untuk diisi untuk memastikan bahwa pemasang turunannya dari teknologinya memiliki akses ke informasi penting untuk membantu kepatuhan mereka sendiri. Di tempat lain, bagian hak cipta kemungkinan tetap menjadi area yang paling kontroversial bagi Big AI. Draf saat ini penuh dengan istilah seperti “upaya terbaik”, “langkah yang wajar”, dan “langkah yang sesuai” ketika mematuhi komitmen seperti mematuhi persyaratan hak saat menjelajahi web untuk mengumpulkan data untuk pelatihan model, atau mengurangi risiko model mencetak keluar keluaran yang melanggar hak cipta. Penggunaan bahasa yang dimediasi seperti ini menunjukkan raksasa AI data-mining mungkin merasa memiliki banyak ruang untuk terus mengambil informasi yang dilindungi untuk melatih model mereka dan meminta maaf kemudian - namun masih harus dilihat apakah bahasanya akan diperketat dalam draf akhir Kode. Bahasa yang digunakan dalam iterasi sebelumnya dari Kode — mengatakan GPAI harus menyediakan titik kontak tunggal dan penanganan keluhan untuk memudahkan pemegang hak berkomunikasi keluhan “langsung dan cepat” — tampaknya telah hilang. Sekarang, hanya ada satu baris yang menyatakan: “Para pihak akan menunjuk seorang kontak untuk berkomunikasi dengan pemegang hak yang terkena dampak dan menyediakan informasi yang mudah diakses tentang hal tersebut.” Teks saat ini juga menyarankan bahwa GPAI mungkin dapat menolak untuk bertindak terhadap keluhan hak cipta oleh pemegang hak jika mereka “sangat tidak beralasan atau berlebihan, terutama karena sifat berulang.” Ini menyarankan upaya oleh individu kreatif untuk membalik bobot dengan menggunakan alat AI untuk mencoba mendeteksi masalah hak cipta dan mengotomatiskan pengajuan keluhan terhadap Big AI bisa berakhir dengan mereka… hanya diabaikan. Ketika membahas keamanan, persyaratan Undang-undang AI UE untuk mengevaluasi dan mengurangi risiko sistemik sebelumnya hanya berlaku untuk sebagian dari model-model paling kuat (mereka yang dilatih menggunakan total kekuatan komputasi lebih dari 10^25 FLOPs) — tetapi draf terbaru ini melihat beberapa langkah yang sebelumnya direkomendasikan menjadi lebih diperketat sebagai tanggapan terhadap umpan balik. Tidak disebutkan dalam rilis pers UE tentang draf terbaru adalah serangan pedas terhadap pembuatan undang-undang Eropa secara umum, dan aturan UE untuk AI khususnya, yang datang dari administrasi AS yang dipimpin oleh presiden Donald Trump. Dalam KTT Aksi AI Paris bulan lalu, wakil presiden AS JD Vance menolak perlunya mengatur untuk memastikan AI diterapkan dengan aman — administrasi Trump malah akan mendukung “peluang AI”. Dan ia memperingatkan Eropa bahwa regulasi berlebihan dapat membunuh angsa emas. Sejak itu, blok tersebut telah bergerak untuk menghapus inisiatif keselamatan AI — menghapuskan Direktif Tanggung Jawab AI. Para pembuat undang-undang UE juga telah merilis paket “omnibus” yang akan memperbaiki reformasi aturan yang ada, yang mereka katakan bertujuan untuk mengurangi birokrasi bagi bisnis, dengan fokus pada area seperti pelaporan keberlanjutan. Namun, dengan Undang-undang AI masih dalam proses implementasi, jelas ada tekanan yang diberikan untuk melemahkan persyaratan. Di pameran dagang Mobile World Congress di Barcelona bulan ini, pembuat model GPAI Prancis, Mistral — lawan yang sangat keras terhadap Undang-undang AI UE selama negosiasi untuk menyelesaikan legislasi pada tahun 2023 — bersama pendirinya Arthur Mensh mengklaim bahwa perusahaan mengalami kesulitan dalam menemukan solusi teknologi untuk mematuhi beberapa aturan. Ia menambahkan bahwa perusahaan bekerja dengan regulator untuk memastikan bahwa hal ini diselesaikan. Sementara Kode GPAI ini disusun oleh para ahli independen, Komisi Eropa — melalui Kantor AI yang mengawasi penegakan dan kegiatan lain yang terkait dengan hukum — juga sedang memproduksi beberapa panduan “penjelasan” yang juga akan membentuk bagaimana hukum berlaku. Termasuk definisi untuk GPAI dan tanggung jawab mereka. Jadi waspada terhadap panduan lebih lanjut, “pada waktunya”, dari Kantor AI — yang Komisi katakan akan “mengklarifikasi … cakupan aturan”, — karena hal ini bisa menawarkan jalan bagi pembuat undang-undang yang sedang cemas untuk merespons lobi AS untuk melegalkan kembali AI.