Paano Sinusubukang Kontrolin ng mga Gobyerno ang AI
Ang Bagong mga Panuntunan ng Makina
Papunta na sa dulo ang panahon ng “wild west” sa artificial intelligence. Hindi na lang basta nanonood ang mga gobyerno sa gilid. Sila na mismo ang sumusulat ng mga rulebook na magtatakda kung paano isusulat ang code at kung saan ito maaaring gamitin. Hindi lang ito tungkol sa etika o malalabong prinsipyo. Ito ay tungkol sa matitinding batas at malalaking multa. Pinangunahan ng European Union ang hakbang na ito sa pamamagitan ng kanilang AI Act. Sumunod naman ang United States na may malawakang executive order. Binabago ng mga aksyong ito ang math para sa bawat tech company sa mundo. Kung bubuo ka ng model na lalampas sa isang partikular na power threshold, may target na sa likod mo. Kailangan mong patunayan na ligtas ito bago pa man ito makarating sa publiko. Ang pagbabagong ito ay hudyat ng transisyon mula sa boluntaryong pangako ng kaligtasan patungo sa mandatoryong oversight. Para sa karaniwang user, ibig sabihin nito ay maaaring magmukhang iba ang mga tools na gagamitin mo bukas kumpara sa ginagamit mo ngayon. Ang ilang features ay maaaring i-block sa iyong bansa. Ang ibang tools naman ay maaaring maging mas transparent sa kung paano nila ginagamit ang iyong data. Ang layunin ay balansehin ang pag-unlad at proteksyon, ngunit ang landas ay puno ng friction.
Mula Etika Patungong Pagpapatupad
Para maintindihan ang mga bagong panuntunan, kailangan mong tingnan ang mga risk categories. Karamihan sa mga gobyerno ay lumalayo na sa one-size-fits-all na approach. Sa halip, minamarkahan nila ang mga system base sa potensyal na pinsalang maidudulot nito. Isa itong direktang operational change. Hindi na basta-basta makakapag-release ng product ang mga kumpanya at magdarasal na lang na maging maayos ang lahat. Kailangan nilang i-categorize ang kanilang teknolohiya bago pa man ito makarating sa user. Ang classification na ito ang nagtatakda ng antas ng pagsusuri na ipapataw ng gobyerno. Tinatakda rin nito ang antas ng legal liability na kakaharapin ng kumpanya kung may magkamali. Ang pokus ay lumipat na mula sa kung ano ang AI patungo sa kung ano ang ginagawa ng AI. Kung ang isang system ay gumagawa ng desisyon tungkol sa mga tao, mas pinaghihinalaan ito kaysa sa isang system na gumagawa lang ng mga larawan ng pusa.
Ang pinakamahigpit na mga panuntunan ay para sa mga system na itinuturing na unacceptable risk. Hindi lang sila pinipigilan. Ipinagbabawal sila. Nagbibigay ito ng malinaw na hangganan para sa mga developer. Alam nila nang eksakto kung anong mga linya ang hindi nila dapat lampasan. Para sa lahat ng iba pa, ang mga panuntunan ay nangangailangan ng bagong antas ng dokumentasyon. Kailangang magpanatili ang mga kumpanya ng detalyadong records kung paano sinanay ang kanilang mga model. Kailangan din nilang maipaliwanag kung paano nakakarating ang model sa mga konklusyon nito. Isa itong malaking technical challenge dahil ang maraming modern models ay maituturing na black boxes. Ang pagpilit sa kanila na maging explainable ay nangangailangan ng pundamental na pagbabago sa kung paano sila idinisenyo. Hinihingi rin ng mga panuntunan na ang data na ginagamit sa training ay malinis at walang bias. Ibig sabihin, ang proseso ng data collection ay sumasailalim na ngayon sa legal audits. Ang mga sumusunod na kategorya ang nagtatakda ng kasalukuyang regulatory approach:
- Prohibited systems na gumagamit ng social scoring o mapanlinlang na teknik para manipulahin ang ugali.
- High risk systems na ginagamit sa critical infrastructure, hiring, at law enforcement na nangangailangan ng mahigpit na audits.
- Limited risk systems gaya ng chatbots na dapat mag-disclose na hindi sila tao.
- Minimal risk systems gaya ng AI enabled video games na mas kakaunti ang restriksyon.
Ang structure na ito ay idinisenyo para maging flexible. Habang nagbabago ang teknolohiya, maaaring lumaki ang listahan ng high risk applications. Pinapanatili nitong relevant ang batas kahit na nagbabago ang software. Gayunpaman, lumilikha rin ito ng estado ng permanenteng kawalan ng katiyakan para sa mga negosyo. Kailangan nilang patuloy na suriin kung ang kanilang bagong feature ay lumipat na sa mas regulated na kategorya. Ito ang bagong realidad ng pagbuo ng software sa isang mundong nag-iingat sa kapangyarihan ng makina.
Isang Pira-pirasong Global Framework
Ang epekto ng mga panuntunang ito ay hindi limitado sa mga hangganan ng isang bansa. Nakikita natin ang pag-usbong ng *Brussels Effect*. Kapag nagtakda ang EU ng mataas na pamantayan para sa tech regulation, madalas na ginagaya ito ng mga global companies kahit saan para mapadali ang kanilang operasyon. Mas mura ang bumuo ng isang compliant na product kaysa bumuo ng sampung magkakaibang bersyon para sa iba’t ibang merkado. Nagbibigay ito sa Europe ng malaking impluwensya sa kung paano binuo ang AI sa Silicon Valley. Maaari mong basahin ang higit pa tungkol sa EU AI Act para makita kung paano naka-structure ang mga pamantayang ito. Sa United States, magkaiba ang approach pero parehong mahalaga. Ginagamit ng gobyerno ang **Defense Production Act** para pilitin ang mga tech giants na ibahagi ang resulta ng kanilang safety tests. Ipinapahiwatig nito na itinuturing ng US ang large scale AI bilang usapin ng national security.
Samantala, mas direktang landas ang tinahak ng China. Ang kanilang regulations ay nakatuon sa content na ginagawa ng generative AI. Hinihingi nila na ang outputs ay tugma sa social values at hindi sumisira sa kapangyarihan ng estado. Lumilikha ito ng pira-pirasong mundo kung saan ang parehong model ay maaaring kumilos nang magkakaiba depende sa kung saan ka nag-log in. Ang model sa Beijing ay magkakaroon ng ibang guardrails kumpara sa isa sa Paris o New York. Ang fragmentation na ito ay sakit sa ulo para sa mga developer na kailangang magtrabaho sa gitna ng magkakasalungat na panuntunan. Ang ilang bansa ay gustong mas maging bukas habang ang iba naman ay gustong mas kontrolin ang narrative. Para sa global audience, ibig sabihin nito ay nagiging localized ang AI experience. Ang pangarap ng isang solong, walang hangganang internet ay unti-unti nang naglalaho. Sa halip, narito ang isang regulated na kapaligiran kung saan ang iyong lokasyon ang nagtatakda kung ano ang pinapayagang sabihin sa iyo ng makina. Ito ang bagong realidad ng 2024. Ito ay isang pagbabagong magtatakda sa susunod na dekada ng paglago ng teknolohiya.
Pang-araw-araw na Buhay sa Ilalim ng Regulatory Eye
Isipin ang isang tipikal na umaga para sa isang project manager na si Sarah. Sinisimulan niya ang kanyang araw sa pamamagitan ng pagbubukas ng isang AI tool para i-summarize ang mahabang chain ng emails. Sa ilalim ng mga bagong regulasyon, kailangang abisuhan siya ng kanyang software na ang summary ay ginawa ng isang algorithm. Kailangan din nitong tiyakin na ang data ng kanyang kumpanya ay hindi ginagamit para sanayin ang public model nang wala siyang pahintulot. Direkta itong resulta ng mga bagong privacy protections na binuo sa mga kamakailang batas. Mamaya, mag-a-apply si Sarah para sa isang bagong role sa isang tech firm. Gumagamit ang firm ng isang AI screening tool. Dahil ito ay isang high risk application, kinailangan ng kumpanya na i-audit ang tool para sa bias. May legal na karapatan si Sarah na humingi ng paliwanag kung bakit siya ni-rank ng AI sa ganoong paraan. Noon, makakatanggap lang siya ng generic na rejection. Ngayon, may landas na siya patungo sa transparency. Isa itong kongkretong halimbawa kung paano binabago ng governance ang power dynamic sa pagitan ng mga korporasyon at mga indibidwal.
Sa hapon, naglalakad si Sarah sa isang shopping mall. Sa ilang lungsod, sinusubaybayan ng facial recognition ang kanyang mga galaw para magpakita ng targeted ads. Sa ilalim ng mahigpit na panuntunan ng EU, ang ganitong uri ng real time surveillance ay limitado. Dapat ay may partikular na legal na dahilan ang mall para gamitin ito at dapat ay maabisuhan si Sarah. Ang mga produktong ginagamit niya ay nagbabago rin. Ang mga kumpanya gaya ng OpenAI at Google ay inaayos na ang kanilang features para sumunod sa mga lokal na batas. Maaari mong mapansin na ang ilang image generation tools ay hindi available sa iyong rehiyon o mayroon silang mahigpit na filters na pumipigil sa kanila na gumawa ng makatotohanang mukha ng mga public figures. Hindi ito technical limitation. Ito ay legal na limitasyon. Ang argumento para sa mga panuntunang ito ay nararamdaman nating totoo kapag isinaalang-alang mo ang potensyal ng mga deepfakes na makagulo sa mga eleksyon o ang mga biased na algorithm na tumatanggi sa mga tao sa pabahay. Sa pamamagitan ng paglalagay ng mga guardrails, sinusubukan ng mga gobyerno na pigilan ang mga pinsalang ito bago pa sila mangyari. Ito ang US approach sa AI safety na ginagawa.
Gumagamit ang BotNews.today ng mga tool ng AI upang saliksikin, isulat, i-edit, at isalin ang nilalaman. Sinusuri at pinangangasiwaan ng aming koponan ang proseso upang panatilihing kapaki-pakinabang, malinaw, at maaasahan ang impormasyon.
Ang mga Nakatagong Gastos ng Pagsunod
Dapat nating itanong ang mahihirap na tanong tungkol sa kung sino ba talaga ang nananalo sa isang regulated na mundo. Pinoprotektahan ba talaga ng mabigat na regulatory burden ang publiko, o pinoprotektahan lang nito ang mga incumbents? Ang malalaking tech firms ay may resources para kumuha ng daan-daang abogado at engineer para asikasuhin ang compliance. Ang isang maliit na startup sa garahe ay wala. Nanganganib tayong lumikha ng mundo kung saan ang mga higante lang ang kayang mag-innovate. Maaari itong humantong sa mas kaunting kompetisyon at mas mataas na presyo para sa mga user. May tanong din tungkol sa privacy laban sa security. Kapag humingi ang mga gobyerno ng access sa loob ng isang AI model, sino ang nagpoprotekta sa data na iyon? Kung kayang i-audit ng gobyerno ang isang model para tiyaking ligtas ito, maaari rin nilang gamitin ang parehong access para bantayan kung ano ang natututunan ng model mula sa mga user nito. Ito ay isang trade-off na bihira talakayin sa mga pampublikong forum.
Dapat din nating isaalang-alang ang nakatagong gastos ng inobasyon. Kung ang bawat bagong feature ay kailangang dumaan sa mahabang proseso ng pag-apruba, mawawalan ba tayo ng mga breakthrough na maaaring magligtas ng buhay sa medisina o lumutas sa mga kumplikadong isyu sa klima? Ang friction ng regulasyon ay isang tunay na gastos. Kailangan nating malaman kung ang kaligtasang nakukuha natin ay sulit sa pag-unlad na nawawala sa atin. May isyu rin ng pagpapatupad. Paano mo ire-regulate ang isang model na naka-host sa isang decentralized network o sa isang bansa na hindi sumusunod sa international norms? Ang mga panuntunan ay maaaring para lang sa mga kumpanyang piniling sumunod sa kanila, na nag-iiwan sa mga pinakamapanganib na aktor na malayang mag-operate nang walang oversight. Lumilikha ito ng maling pakiramdam ng seguridad. Nagtatayo tayo ng bakod sa paligid ng mga sumusunod sa batas habang nananatiling bukas ang gate para sa lahat. Ito ang mga tanong na madalas iwasan ng mga regulator. Nakatuon sila sa mga nakikitang panganib habang binabalewala ang mga systemic na panganib. Habang sumusulong tayo, dapat nating tiyakin na ang ating pagnanais para sa kaligtasan ay hindi magbubulag sa atin sa halaga ng isang bukas at kompetitibong merkado.
Mayroon ka bang kuwento, tool, trend, o tanong tungkol sa AI na sa tingin mo ay dapat naming i-cover? Ipadala sa amin ang iyong ideya sa artikulo — gusto naming marinig ito.Ang Technical na Bayad ng Transparency
Para sa mga power users at developers, ang mga bagong regulasyon ay nagiging partikular na technical constraints. Isa sa pinakamahalagang metrics ay ang compute threshold. Ang US Executive Order ay nagtatakda ng bar sa 10 raised to the power of 26 floating point operations. Ang anumang model na sinanay nang may mas mataas na power kaysa rito ay dapat iulat sa gobyerno. Pinipilit nito ang mga developer na magpanatili ng detalyadong logs ng kanilang hardware usage at training runs. Ang API limits ay nagiging tool na rin para sa regulasyon. Para mapigilan ang mass generation ng disinformation, ang ilang rehiyon ay nag-iisip ng mga limitasyon sa kung ilang requests ang maaaring gawin ng isang user sa isang generative model. Naaapektuhan nito kung paano bumubuo ng applications ang mga developer na umaasa sa mga model na ito. Kailangan na nilang isaalang-alang ang mga limitasyong ito sa kanilang code at business models. Ang local storage ay isa pang pangunahing factor. Ang mga batas ay madalas na nangangailangan na ang data tungkol sa mga mamamayan ay manatili sa loob ng partikular na geographic boundaries. Ibig sabihin, hindi lang basta makakagamit ang mga kumpanya ng central cloud para i-process ang data mula sa kahit saan. Kailangan nilang bumuo at magpanatili ng mga lokal na data centers. Ang mga technical requirements ay kinabibilangan ng:
- Mandatory watermarking sa API level para matukoy ang AI generated content.
- Data residency requirements na pumipilit sa lokal na pag-process at pag-imbak.
- Compute logging para sa anumang model training na lalampas sa 10 raised to the power of 26 flops threshold.
- Explainability layers na nagpapahintulot sa human audit ng model weights at decision paths.
Ang integration workflows ay nagbabago rin. Ang mga developer ay kailangan na ngayong bumuo ng safety checks sa bawat stage ng pipeline. Kung bumubuo ka ng tool na gumagamit ng third party API, responsable ka na ngayon kung paano hinahawakan ng API na iyon ang data. Dapat mong tiyakin na ang iyong integration ay hindi lumalampas sa mga safety filters na itinakda ng provider. Ang geek section ng batas ang lugar kung saan nagaganap ang mga tunay na labanan. Ito ay tungkol sa latency, data residency, at ang math ng model weights. Ito ang mga detalyeng nagtatakda kung ang isang product ay viable o kung ito ay malilibing sa ilalim ng bigat ng sarili nitong compliance requirements. Maaari kang makahanap ng higit pang detalye sa mga technical shifts na ito sa pinakabagong news reports tungkol sa tech policy. Para sa mga gustong mauna sa mga pagbabagong ito, ang pagsubaybay sa pinakabagong developments sa AI regulation ay mahalaga. Ang pagiging kumplikado ng mga panuntunang ito ay nangangahulugan na ang role ng developer ay nagiging tungkol na rin sa batas gaya ng tungkol sa code.
Ang Hindi Tapos na Code
Ang pagtatangkang kontrolin ang AI ay isang work in progress. Lumilipat tayo mula sa panahon ng kabuuang kalayaan patungo sa panahon ng managed growth. Ang mga panuntunang isinulat ngayon ang humuhubog sa teknolohiya ng susunod na dekada. Gayunpaman, ang bilis ng software ay laging nauuna sa bilis ng batas. Sa oras na maipasa ang isang batas, ang teknolohiya ay madalas na lumipat na sa isang bagong bagay. Nag-iiwan ito sa atin ng isang live na tanong na magpapanatiling nagbabago sa paksang ito: kaya ba ng isang demokratikong proseso na maging sapat na mabilis para i-regulate ang isang intelligence na nirerewrite ang sarili nito? Sa ngayon, ang pokus ay sa transparency at accountability. Sinusubukan nating tiyakin na ang mga tao ang mananatiling may hawak sa mga makinang binuo nila. Kung ang mga panuntunang ito ba ang magpapaligtas sa AI o magpapalubha lang sa sitwasyon ay hindi pa natin alam. Ang tanging katiyakan ay tapos na ang panahon ng unregulated algorithm. Ito ang realidad ng 2024 at higit pa.
Paalala ng Editor: Ginawa namin ang site na ito bilang isang multilingual AI news at guides hub para sa mga taong hindi computer geeks, ngunit nais pa ring maunawaan ang artificial intelligence, gamitin ito nang may higit na kumpiyansa, at sundan ang hinaharap na dumarating na.
May nakitang error o kailangan ng pagwawasto? Ipaalam sa amin.