Bagaimana Kerajaan Cuba Mengawal AI
Peraturan Baharu Dunia Mesin
Zaman “wild west” dalam kecerdasan buatan (AI) kini berakhir. Kerajaan tidak lagi sekadar memerhati dari tepi. Mereka kini sedang menggubal peraturan yang menentukan bagaimana kod ditulis dan di mana ia boleh digunakan. Ini bukan sekadar tentang etika atau prinsip yang samar, tetapi tentang undang-undang tegas dan denda yang besar. Kesatuan Eropah telah memulakan langkah dengan AI Act mereka, diikuti oleh Amerika Syarikat dengan perintah eksekutif yang menyeluruh. Tindakan ini mengubah landskap bagi setiap syarikat teknologi di dunia. Jika anda membina model yang melebihi ambang kuasa tertentu, anda kini menjadi sasaran. Anda perlu membuktikan ia selamat sebelum ia sampai kepada orang ramai. Peralihan ini menandakan perubahan daripada janji keselamatan sukarela kepada pengawasan wajib. Bagi pengguna biasa, ini bermakna alat yang anda gunakan esok mungkin kelihatan berbeza daripada yang anda gunakan hari ini. Sesetengah ciri mungkin disekat di negara anda, manakala alat lain mungkin menjadi lebih telus tentang cara mereka menggunakan data anda. Matlamatnya adalah untuk mengimbangi kemajuan dengan perlindungan, walaupun jalannya penuh dengan cabaran.
Daripada Etika kepada Penguatkuasaan
Untuk memahami peraturan baharu ini, anda perlu melihat kategori risiko. Kebanyakan kerajaan mula beralih daripada pendekatan “satu saiz untuk semua”. Sebaliknya, mereka menilai sistem berdasarkan potensi bahaya yang boleh ditimbulkan. Ini adalah perubahan operasi secara langsung. Syarikat tidak boleh lagi sekadar melancarkan produk dan mengharapkan yang terbaik. Mereka mesti mengkategorikan teknologi mereka sebelum ia sampai kepada pengguna. Klasifikasi ini menentukan tahap penelitian yang akan dikenakan oleh kerajaan dan tahap liabiliti undang-undang yang dihadapi syarikat jika berlaku kesilapan. Fokus telah beralih daripada apa itu AI kepada apa yang dilakukan oleh AI. Jika sesuatu sistem membuat keputusan tentang manusia, ia akan dipandang dengan lebih curiga berbanding sistem yang hanya menjana gambar kucing.
Peraturan paling ketat dikenakan kepada sistem yang dianggap sebagai risiko yang tidak boleh diterima. Ini bukan sekadar tidak digalakkan, malah ia diharamkan. Ini mewujudkan sempadan yang jelas bagi pembangun. Mereka tahu dengan tepat garis yang tidak boleh dilintasi. Bagi perkara lain, peraturan memerlukan tahap dokumentasi baharu. Syarikat mesti menyimpan rekod terperinci tentang cara model mereka dilatih dan mampu menjelaskan bagaimana model tersebut mencapai kesimpulannya. Ini merupakan cabaran teknikal yang besar kerana banyak model moden pada dasarnya adalah “kotak hitam”. Memaksa ia menjadi telus memerlukan perubahan asas dalam cara ia direka. Peraturan juga menuntut data yang digunakan untuk latihan mestilah bersih dan bebas daripada bias. Ini bermakna proses pengumpulan data itu sendiri kini tertakluk kepada audit undang-undang. Kategori berikut mentakrifkan pendekatan kawal selia semasa:
- Sistem yang dilarang menggunakan pemarkahan sosial atau teknik menipu untuk memanipulasi tingkah laku.
- Sistem berisiko tinggi yang digunakan dalam infrastruktur kritikal, pengambilan pekerja, dan penguatkuasaan undang-undang yang memerlukan audit ketat.
- Sistem berisiko terhad seperti chatbot yang mesti mendedahkan bahawa mereka bukan manusia.
- Sistem berisiko minimum seperti permainan video berkuasa AI yang menghadapi lebih sedikit sekatan.
Struktur ini direka bentuk agar fleksibel. Apabila teknologi berubah, senarai aplikasi berisiko tinggi boleh bertambah. Ini memastikan undang-undang kekal relevan walaupun perisian berkembang. Walau bagaimanapun, ia juga mewujudkan keadaan ketidakpastian kekal bagi perniagaan. Mereka mesti sentiasa menyemak sama ada ciri baharu mereka telah berpindah ke kategori yang lebih dikawal selia. Inilah realiti baharu membina perisian dalam dunia yang berhati-hati dengan kuasa mesin.
Rangka Kerja Global yang Terpecah
Kesan peraturan ini tidak terhad kepada sempadan satu negara sahaja. Kita sedang melihat kebangkitan *Brussels Effect*. Apabila EU menetapkan standard tinggi untuk kawal selia teknologi, syarikat global sering menerima pakai standard tersebut di mana-mana untuk memudahkan operasi mereka. Lebih murah untuk membina satu produk yang patuh daripada membina sepuluh versi berbeza untuk pasaran berbeza. Ini memberikan Eropah pengaruh besar ke atas cara AI dibina di Silicon Valley. Anda boleh membaca lebih lanjut tentang EU AI Act untuk melihat bagaimana standard ini distrukturkan. Di Amerika Syarikat, pendekatannya berbeza tetapi sama pentingnya. Kerajaan menggunakan **Defense Production Act** untuk memaksa gergasi teknologi berkongsi keputusan ujian keselamatan mereka. Ini memberi isyarat bahawa AS menganggap AI berskala besar sebagai isu keselamatan negara.
Sementara itu, China telah mengambil laluan yang lebih terus terang. Peraturan mereka memberi tumpuan kepada kandungan yang dihasilkan oleh AI generatif. Mereka memerlukan output selaras dengan nilai sosial dan tidak menjejaskan kuasa negara. Ini mewujudkan dunia yang berpecah di mana model yang sama mungkin berkelakuan berbeza bergantung pada tempat anda log masuk. Model di Beijing akan mempunyai “guardrails” yang berbeza daripada model di Paris atau New York. Pemecahan ini menyukarkan pembangun yang kini perlu bekerja merentasi rangkaian peraturan yang bercanggah. Sesetengah negara mahukan lebih keterbukaan manakala yang lain mahukan lebih kawalan ke atas naratif. Bagi khalayak global, ini bermakna pengalaman AI menjadi lebih setempat. Impian internet tunggal tanpa sempadan semakin pudar. Sebaliknya, kita berada dalam persekitaran terkawal di mana lokasi anda menentukan apa yang mesin dibenarkan untuk beritahu anda. Inilah realiti baharu tahun 2024. Ia adalah peralihan yang akan menentukan dekad seterusnya pertumbuhan teknologi.
Kehidupan Harian di Bawah Pemerhatian Kawal Selia
Bayangkan pagi biasa bagi seorang pengurus projek bernama Sarah. Dia memulakan harinya dengan membuka alat AI untuk meringkaskan rantaian e-mel yang panjang. Di bawah peraturan baharu, perisiannya mesti memberitahunya bahawa ringkasan itu dijana oleh algoritma. Ia juga perlu memastikan data syarikatnya tidak digunakan untuk melatih model awam tanpa persetujuannya. Ini adalah hasil langsung daripada perlindungan privasi baharu yang dibina ke dalam undang-undang terkini. Kemudian, Sarah memohon jawatan baharu di sebuah firma teknologi. Firma itu menggunakan alat saringan AI. Kerana ini adalah aplikasi berisiko tinggi, syarikat terpaksa mengaudit alat tersebut untuk mencari bias. Sarah mempunyai hak undang-undang untuk meminta penjelasan mengapa AI meletakkan kedudukannya seperti itu. Pada masa lalu, dia mungkin hanya menerima penolakan umum. Kini, dia mempunyai laluan kepada ketelusan. Ini adalah contoh konkrit bagaimana tadbir urus mengubah dinamik kuasa antara korporat dan individu.
Pada sebelah petang, Sarah berjalan melalui pusat beli-belah. Di sesetengah bandar, pengecaman wajah akan menjejaki pergerakannya untuk menyajikan iklan sasaran. Di bawah peraturan ketat EU, jenis pengawasan masa nyata ini dihadkan. Pusat beli-belah mesti mempunyai sebab undang-undang khusus untuk menggunakannya dan Sarah mesti dimaklumkan. Produk yang dia gunakan juga berubah. Syarikat seperti OpenAI dan Google sudah pun melaraskan ciri mereka untuk mematuhi undang-undang tempatan. Anda mungkin perasan bahawa alat penjanaan imej tertentu tidak tersedia di rantau anda atau mempunyai penapis ketat yang menghalangnya daripada mencipta wajah realistik tokoh awam. Ini bukan had teknikal, tetapi had undang-undang. Hujah untuk peraturan ini terasa nyata apabila anda mempertimbangkan potensi deepfake untuk mengganggu pilihan raya atau algoritma yang berat sebelah untuk menafikan perumahan kepada orang ramai. Dengan meletakkan “guardrails”, kerajaan cuba menghalang bahaya ini sebelum ia berlaku. Ini adalah pendekatan AS terhadap keselamatan AI dalam tindakan.
BotNews.today menggunakan alat AI untuk menyelidik, menulis, mengedit, dan menterjemah kandungan. Pasukan kami menyemak dan menyelia proses tersebut untuk memastikan maklumat berguna, jelas, dan boleh dipercayai.
Kos Tersembunyi Pematuhan
Kita mesti bertanya soalan sukar tentang siapa yang sebenarnya menang dalam dunia yang dikawal selia. Adakah beban kawal selia yang berat benar-benar melindungi orang ramai, atau adakah ia hanya melindungi pihak yang sedia ada? Firma teknologi besar mempunyai sumber untuk mengupah ratusan peguam dan jurutera untuk mengendalikan pematuhan. Startup kecil di garaj tidak memilikinya. Kita berisiko mewujudkan dunia di mana hanya gergasi yang mampu untuk berinovasi. Ini boleh membawa kepada kurang persaingan dan harga yang lebih tinggi untuk pengguna. Terdapat juga persoalan tentang privasi berbanding keselamatan. Apabila kerajaan menuntut akses kepada kerja dalaman model AI, siapa yang melindungi data itu? Jika kerajaan boleh mengaudit model untuk memastikan ia selamat, mereka juga boleh menggunakan akses yang sama untuk memantau apa yang dipelajari model daripada penggunanya. Ini adalah pertukaran yang jarang dibincangkan dalam forum awam.
Kita juga mesti mempertimbangkan kos inovasi yang tersembunyi. Jika setiap ciri baharu perlu melalui proses kelulusan yang panjang, adakah kita akan terlepas penemuan yang boleh menyelamatkan nyawa dalam perubatan atau menyelesaikan isu iklim yang kompleks? Geseran kawal selia adalah kos yang nyata. Kita perlu tahu sama ada keselamatan yang kita perolehi berbaloi dengan kemajuan yang kita hilang. Terdapat juga isu penguatkuasaan. Bagaimana anda mengawal selia model yang dihoskan pada rangkaian terdesentralisasi atau di negara yang mengabaikan norma antarabangsa? Peraturan mungkin hanya terpakai kepada syarikat yang memilih untuk mematuhinya, membiarkan pelakon paling berbahaya bebas beroperasi tanpa pengawasan. Ini mewujudkan rasa keselamatan palsu. Kita sedang membina pagar di sekeliling rakyat yang mematuhi undang-undang manakala pintu pagar tetap terbuka untuk orang lain. Ini adalah soalan yang sering dielakkan oleh pengawal selia. Mereka memberi tumpuan kepada risiko yang boleh dilihat sambil mengabaikan risiko sistemik. Sambil kita melangkah ke hadapan, kita mesti memastikan keinginan kita untuk keselamatan tidak membutakan kita kepada nilai pasaran yang terbuka dan kompetitif.
Ada cerita, alat, trend, atau soalan AI yang anda fikir kami patut liputi? Hantar idea artikel anda kepada kami — kami ingin mendengarnya.Toll Teknikal Ketelusan
Bagi pengguna berkuasa dan pembangun, peraturan baharu diterjemahkan kepada kekangan teknikal khusus. Salah satu metrik paling ketara ialah ambang pengkomputeran. Perintah Eksekutif AS menetapkan bar pada 10 kuasa 26 operasi titik terapung (flops). Mana-mana model yang dilatih dengan kuasa lebih daripada ini mesti dilaporkan kepada kerajaan. Ini memaksa pembangun menyimpan log terperinci penggunaan perkakasan dan latihan mereka. Had API juga menjadi alat untuk kawal selia. Untuk menghalang penjanaan maklumat salah secara besar-besaran, sesetengah wilayah sedang mempertimbangkan had ke atas berapa banyak permintaan yang boleh dibuat oleh pengguna tunggal kepada model generatif. Ini menjejaskan cara pembangun membina aplikasi yang bergantung pada model ini. Mereka kini mesti mengambil kira had ini dalam kod dan model perniagaan mereka. Storan tempatan adalah satu lagi faktor utama. Undang-undang sering memerlukan data tentang rakyat kekal dalam sempadan geografi tertentu. Ini bermakna syarikat tidak boleh sekadar menggunakan awan pusat untuk memproses data dari mana-mana sahaja. Mereka mesti membina dan menyelenggara pusat data tempatan. Keperluan teknikal termasuk:
- Watermarking wajib di peringkat API untuk mengenal pasti kandungan yang dijana AI.
- Keperluan residensi data yang memaksa pemprosesan dan storan tempatan.
- Log pengkomputeran untuk sebarang latihan model yang melebihi ambang 10 kuasa 26 flops.
- Lapisan kebolehjelasan yang membolehkan audit manusia terhadap pemberat model dan laluan keputusan.
Aliran kerja integrasi juga berubah. Pembangun kini mesti membina pemeriksaan keselamatan di setiap peringkat saluran paip. Jika anda membina alat yang menggunakan API pihak ketiga, anda kini bertanggungjawab untuk cara API itu mengendalikan data. Anda mesti memastikan integrasi anda tidak memintas penapis keselamatan yang ditetapkan oleh pembekal. Bahagian “geek” undang-undang adalah tempat pertempuran sebenar berlaku. Ia adalah tentang kependaman, residensi data, dan matematik pemberat model. Ini adalah butiran yang menentukan sama ada produk berdaya maju atau jika ia akan terkubur di bawah beban keperluan pematuhannya sendiri. Anda boleh mencari butiran lanjut tentang peralihan teknikal ini dalam laporan berita terkini mengenai dasar teknologi. Bagi mereka yang ingin kekal mendahului perubahan ini, mengikuti perkembangan terkini dalam kawal selia AI adalah penting. Kerumitan peraturan ini bermakna peranan pembangun kini menjadi sebahagian besarnya tentang undang-undang seperti ia tentang kod.
Kod yang Belum Selesai
Percubaan untuk mengawal AI adalah usaha yang sedang berjalan. Kita beralih daripada tempoh kebebasan mutlak kepada pertumbuhan yang diuruskan. Peraturan yang ditulis hari ini akan membentuk teknologi dekad akan datang. Walau bagaimanapun, kelajuan perisian sentiasa mengatasi kelajuan perundangan. Apabila undang-undang diluluskan, teknologi selalunya telah beralih kepada sesuatu yang baharu. Ini meninggalkan kita dengan soalan hidup yang akan memastikan subjek ini terus berkembang: bolehkah proses demokrasi cukup pantas untuk mengawal selia kecerdasan yang menulis semula dirinya sendiri? Buat masa ini, fokusnya adalah pada ketelusan dan akauntabiliti. Kita cuba memastikan manusia kekal bertanggungjawab ke atas mesin yang mereka bina. Sama ada peraturan ini akan menjadikan AI lebih selamat atau hanya lebih rumit masih belum dapat dilihat. Satu-satunya kepastian ialah era algoritma tanpa kawal selia sudah berakhir. Inilah realiti tahun 2024 dan seterusnya.
Nota editor: Kami mencipta laman web ini sebagai hab berita dan panduan AI berbilang bahasa untuk orang yang bukan pakar komputer, tetapi masih ingin memahami kecerdasan buatan, menggunakannya dengan lebih yakin, dan mengikuti masa depan yang sudah tiba.
Menemui ralat atau sesuatu yang perlu diperbetulkan? Beritahu kami.