Ano ang Kinatatakutan ng Industriya ng AI sa Batas at Regulasyon
Tapos na ang panahon ng boluntaryong etika sa AI. Sa loob ng maraming taon, ang mga tech giant at startup ay kumikilos sa isang espasyo kung saan “mga prinsipyo” at “mga gabay” lamang ang nagsisilbing mga guardrail. Nagbago iyon sa pagtatapos ng European Union AI Act at sa sunod-sunod na mga demanda sa United States. Ngayon, ang usapan ay lumipat na mula sa kung ano ang kayang gawin ng AI patungo sa kung ano ang legal na pinapayagang gawin ng AI. Ang mga legal team ay nakaupo na ngayon sa parehong silid kasama ang mga software engineer. Hindi na ito tungkol sa abstract na pilosopiya. Ito ay tungkol sa banta ng mga multa na maaaring umabot sa pitong porsyento ng taunang kita ng isang kumpanya sa buong mundo. Naghahanda ang industriya para sa isang panahon kung saan ang pagsunod (compliance) ay kasinghalaga na ng compute power. Napipilitan na ngayon ang mga kumpanya na idokumento ang kanilang training data, patunayan na ang kanilang mga model ay hindi biased, at tanggapin na ang ilang mga application ay ilegal talaga. Ang paglipat na ito mula sa isang kapaligirang walang batas patungo sa isang mahigpit na regulated ay ang pinakamahalagang pagbabago sa sektor ng tech sa loob ng ilang dekada.
Ang Paglipat Patungo sa Mandatoryong Pagsunod
Ang sentro ng kasalukuyang kilusang regulasyon ay isang risk-based approach. Hindi sinusubukan ng mga regulator na ipagbawal ang AI. Sinusubukan nilang ikategorya ito. Sa ilalim ng mga bagong panuntunan, ang mga AI system ay inilalagay sa apat na kategorya: unacceptable risk, high risk, limited risk, at minimal risk. Ang mga system na gumagamit ng biometric identification sa mga pampublikong espasyo o social scoring ng mga gobyerno ay halos ipinagbabawal na. Ito ang mga unacceptable risk. Ang mga high risk system ay ang mga tunay na nakakaapekto sa iyong buhay. Kabilang dito ang AI na ginagamit sa pag-hire, credit scoring, edukasyon, at pagpapatupad ng batas. Kung ang isang kumpanya ay bumuo ng tool para mag-screen ng mga resume, kailangan na nilang sumunod sa mahigpit na pamantayan ng transparency at accuracy. Hindi lang nila pwedeng sabihin na gumagana ang kanilang algorithm. Kailangan nilang patunayan ito sa pamamagitan ng masusing dokumentasyon at third-party audits. Isa itong malaking pasanin sa operasyon para sa mga kumpanyang dati ay pinananatiling lihim ang kanilang internal na proseso.
Ang mga general purpose AI model, tulad ng mga large language model na nagpapagana sa mga chatbot, ay may sariling hanay ng mga panuntunan. Dapat ilahad ng mga model na ito kung ang kanilang content ay ginawa ng AI. Kailangan din nilang magbigay ng mga buod ng copyrighted data na ginamit para sanayin sila. Dito nagmumula ang tensyon. Itinuturing ng karamihan sa mga kumpanya ng AI ang kanilang training data bilang isang trade secret. Sinasabi na ngayon ng mga regulator na ang transparency ay isang requirement para makapasok sa merkado. Kung hindi kaya o ayaw ilahad ng isang kumpanya ang kanilang mga source ng data, maaaring maharangan sila sa merkado ng Europa. Isa itong direktang hamon sa “black box” na kalikasan ng modernong machine learning. Pinipilit nito ang isang antas ng pagiging bukas na matagal nang nilalabanan ng industriya. Ang layunin ay tiyakin na alam ng mga user kung kailan sila nakikipag-ugnayan sa isang makina at alam ng mga creator kung ang kanilang gawa ay ginamit para bumuo ng makinang iyon.
Ang epekto ng mga panuntunang ito ay umaabot nang higit pa sa Europa. Madalas itong tawaging Brussels Effect. Dahil mahirap bumuo ng iba’t ibang bersyon ng isang software product para sa bawat bansa, marami sa mga kumpanya ang maglalapat na lamang ng pinakamahigpit na panuntunan sa buong mundo. Nakita natin ito sa mga batas sa data privacy ilang taon na ang nakalilipas. Ngayon, nakikita natin ito sa AI. Sa United States, magkaiba ang approach ngunit parehong may malaking epekto. Sa halip na isang higanteng batas, gumagamit ang US ng mga executive order at sunod-sunod na mga high-profile na demanda para magtakda ng mga hangganan. Ang US Executive Order mula sa 2026 ay nakatuon sa safety testing para sa pinakamakapangyarihang mga model. Samantala, nagdedesisyon ang mga korte kung ang pagsasanay ng isang AI sa mga copyrighted na libro at artikulo ng balita ay “fair use” o “pagnanakaw.” Ang mga legal na labanang ito ang magtatakda ng pang-ekonomiyang kinabukasan ng industriya. Kung kailangang magbayad ng mga kumpanya para i-license ang bawat piraso ng data, tataas nang husto ang gastos sa pagbuo ng AI.
Mabilis din ang pagkilos ng China para i-regulate ang generative AI. Ang kanilang mga panuntunan ay nakatuon sa pagtiyak na ang output ng AI ay tumpak at naaayon sa mga panlipunang halaga. Inoobligahan nila ang mga kumpanya na irehistro ang kanilang mga algorithm sa gobyerno. Lumilikha ito ng isang fragmented na global na kapaligiran. Ang isang developer sa San Francisco ay kailangan nang mag-alala tungkol sa EU AI Act, batas sa copyright ng US, at pagpaparehistro ng algorithm sa China. Ang fragmentation na ito ay isang malaking alalahanin para sa industriya. Lumilikha ito ng mataas na hadlang para sa mga mas maliliit na player na hindi kayang magbayad ng malaking legal department. Ang takot ay ang mga pinakamalalaking tech company lamang ang magkakaroon ng resources para manatiling compliant sa bawat rehiyon. Maaari itong humantong sa sitwasyon kung saan ilang higante lamang ang kumokontrol sa buong merkado dahil sila lang ang may kakayahang magbayad ng “compliance tax.”
Sa totoong buhay, mukhang isang pangunahing pagbabago ito sa kung paano binubuo ang mga produkto. Isipin ang isang product manager sa isang mid-sized na startup. Isang taon na ang nakalilipas, ang layunin nila ay ilabas ang isang bagong AI feature nang mabilis hangga’t maaari. Ngayon, ang kanilang unang meeting ay kasama ang isang compliance officer. Kailangan nilang i-track ang bawat dataset na ginagamit nila. Kailangan nilang i-test ang kanilang model para sa “hallucinations” at bias. Kailangan nilang gumawa ng “human in the loop” na system para bantayan ang mga desisyon ng AI. Nagdaragdag ito ng ilang buwan sa development cycle. Para sa isang creator, magkaiba ang epekto. Naghahanap na sila ngayon ng mga tool na makakapagpatunay na hindi sila sinanay sa mga ninakaw na gawa. Nakikita natin ang pag-usbong ng “licensed AI” kung saan ang bawat imahe at pangungusap sa training set ay may pananagutan. Ito ay isang hakbang patungo sa isang mas sustainable ngunit mas mahal na paraan ng pagbuo ng teknolohiya.
Ang isang araw sa buhay ng isang compliance officer ngayon ay kinabibilangan ng mga “red teaming” session kung saan sinusubukan nilang sirain ang sarili nilang AI. Naghahanap sila ng mga paraan kung paano maaaring magbigay ng mapanganib na payo ang model o magpakita ng pagkiling. Dinodokumento nila ang mga pagkakamaling ito at ang mga solusyon. Ang dokumentasyong ito ay hindi lamang para sa internal na paggamit. Dapat itong handa para sa inspeksyon ng mga regulator ng gobyerno anumang oras. Malayo ito sa panahon ng “move fast and break things.” Ngayon, kung may masira ka, maaaring harapin mo ang demanda mula sa isang malaking organisasyon ng balita o multa mula sa isang ahensya ng gobyerno. Ang EU AI Act ay ginawa ang pagbuo ng AI bilang isang regulated na propesyon, katulad ng pagbabangko o medisina. Makakahanap ka ng komprehensibong pagsusuri sa polisiya ng AI na nagdedetalye kung paano inilalapat ang mga panuntunang ito sa iba’t ibang sektor ngayon. Ang nakataya ay hindi na lang tungkol sa user experience; ito ay tungkol sa legal na kaligtasan.
Ang industriya ay nakikipagbuno rin sa “Copyright Trap.” Ang mga pangunahing publisher tulad ng New York Times ay nagdemanda sa mga kumpanya ng AI dahil sa paggamit ng kanilang mga artikulo nang walang pahintulot. Ang mga kasong ito ay hindi lang tungkol sa pera. Ang mga ito ay tungkol sa karapatang umiral. Kung magdedesisyon ang mga korte na ang AI training ay hindi fair use, maaaring gumuho ang buong business model ng generative AI. Kailangang burahin ng mga kumpanya ang kanilang kasalukuyang mga model at magsimulang muli gamit ang licensed data. Ito ang dahilan kung bakit nakikita natin ang mga kumpanya tulad ng OpenAI na pumipirma ng mga kasunduan sa mga organisasyon ng balita. Sinusubukan nilang unahan ang legal na panganib. Ipinagpapalit nila ang pera para sa legal na karapatang gumamit ng data. Lumilikha ito ng isang bagong ekonomiya kung saan ang data ang pinakamahalagang kalakal.
Gumagamit ang BotNews.today ng mga tool ng AI upang saliksikin, isulat, i-edit, at isalin ang nilalaman. Sinusuri at pinangangasiwaan ng aming koponan ang proseso upang panatilihing kapaki-pakinabang, malinaw, at maaasahan ang impormasyon.
Iminumungkahi ng Socratic skepticism na dapat nating itanong kung sino ba talaga ang pinoprotektahan ng mga panuntunang ito. Pinoprotektahan ba nila ang publiko, o pinoprotektahan nila ang mga incumbent? Kung ang gastos sa pagsunod ay milyun-milyong dolyar, ang isang two-person startup sa isang garahe ay hindi makakalaban. Maaaring hindi sinasadya na lumilikha tayo ng monopolyo para sa mga kumpanyang may pera na. Mayroon ding tanong tungkol sa privacy. Para patunayan na ang isang AI ay hindi biased laban sa isang partikular na grupo, maaaring kailanganin ng isang kumpanya na mangolekta ng mas maraming data tungkol sa grupong iyon. Lumilikha ito ng paradox kung saan kailangan ng mas maraming surveillance para matiyak ang “fairness.” Dapat din nating itanong ang tungkol sa environmental cost. Kung ang regulasyon ay nangangailangan ng patuloy na pag-test at muling pagsasanay ng mga model para matugunan ang mga bagong pamantayan, ang pagkonsumo ng enerhiya ng mga data center na ito ay lalago nang mas mabilis. Handa ba tayong tanggapin ang trade-off na iyon?
Ang isa pang mahirap na tanong ay ang kahulugan ng “katotohanan.” Gusto ng mga regulator na ang AI ay maging “tumpak.” Ngunit sino ang nagpapasya kung ano ang tumpak sa isang politikal o panlipunang konteksto? Kung ang isang gobyerno ay maaaring magmulta ng isang kumpanya para sa isang “hindi tumpak” na tugon ng AI, ang gobyernong iyon ay mayroon nang tool para sa censorship. Isa itong malaking alalahanin sa mga bansang may hindi gaanong perpektong rekord sa karapatang pantao. Nag-aalala ang industriya na ang “kaligtasan” ay magiging code word para sa “state-approved content.” Nakikita rin natin ang pagtulak para sa “watermarking” ng AI content. Bagama’t maganda ito pakinggan para pigilan ang mga deepfake, teknikal na mahirap itong ipatupad. Ang isang matalinong user ay madalas na kayang tanggalin ang watermark. Kung aasa tayo sa isang teknolohiya na madaling malusutan, lumilikha ba tayo ng maling pakiramdam ng seguridad? Ang mga nakatagong gastos ng mga regulasyong ito ay madalas na nakabaon sa fine print.
Para sa mga power user at developer, ang geeky na bahagi ng regulasyon ay matatagpuan sa mga teknikal na requirement para sa pag-uulat ng model. Nakikita natin ang pag-usbong ng model cards, na mga standardized na dokumento na naglilista ng training data, performance benchmarks, at mga kilalang limitasyon ng isang model. Nagiging kasingkaraniwan na ito ng mga “readme” file sa mga GitHub repository. Kailangan din ng mga developer na bumuo ng “transparency APIs” na nagpapahintulot sa mga third-party researcher na i-audit ang kanilang mga system nang hindi nakikita ang underlying code. Isa itong kumplikadong engineering challenge. Paano mo bibigyan ang isang tao ng sapat na access para i-verify ang kaligtasan ng iyong model nang hindi ibinibigay ang iyong intellectual property? Kasalukuyang pinagtatalunan ng industriya ang mga pamantayan para sa mga API na ito at ang mga limitasyon ng kung ano ang dapat ibahagi.
Ang local storage at “edge AI” ay nagiging mas popular bilang paraan para maiwasan ang ilang regulatory hurdles. Kung ang AI processing ay nangyayari sa telepono ng isang user sa halip na sa cloud, mas madaling sumunod sa mahigpit na batas sa data privacy. Gayunpaman, nililimitahan nito ang kapangyarihan ng AI. Binabalanse na ngayon ng mga developer ang pangangailangan para sa malaking cloud compute at ang legal na kaligtasan ng local inference. Nakikita rin natin ang pagpapatupad ng mga “kill switch” sa AI code. Ito ang mga protocol na maaaring mag-shut down sa isang model kung magsisimula itong magpakita ng “emergent behaviors” na hindi nahulaan noong testing. Hindi na ito science fiction. Requirement na ito para sa mga high-risk system. Ang compliance ay direktang isinasama sa software architecture, mula sa database schema hanggang sa API rate limits.
Ang bottom line ay ang industriya ng AI ay nagiging mature na. Ang paglipat mula sa isang research curiosity patungo sa isang regulated utility ay masakit at magastos. Ang mga kumpanyang hindi papansin sa legal na pagbabago ay hindi makakaligtas sa susunod na limang taon. Ang pokus ay lumipat na mula sa “kaya ba nating buuin ito” patungo sa “dapat ba nating buuin ito” at “paano natin ito idodokumento.” Ang pagbabagong ito ay malamang na magpapabagal sa bilis ng inobasyon sa maikling panahon, ngunit maaaring humantong ito sa mas stable at mapagkakatiwalaang teknolohiya sa mahabang panahon. Ang mga panuntunan ay sinusulat pa rin, at ang mga demanda ay inaayos pa rin. Ang malinaw ay wala na ang “wild west.” Ang kinabukasan ng AI ay tutukuyin ng mga abogado at mambabatas gaya ng pagtukoy dito ng mga engineer at data scientist. Nag-aalala ang industriya, ngunit umaangkop din ito sa bagong realidad ng isang regulated na mundo.
Paalala ng Editor: Ginawa namin ang site na ito bilang isang multilingual AI news at guides hub para sa mga taong hindi computer geeks, ngunit nais pa ring maunawaan ang artificial intelligence, gamitin ito nang may higit na kumpiyansa, at sundan ang hinaharap na dumarating na.
May nakitang error o kailangan ng pagwawasto? Ipaalam sa amin.