Najvažniji AI zakoni i regulative koje morate pratiti
Era bezakonja u svetu veštačke inteligencije je završena. Vlade širom planete prelaze sa nejasnih preporuka na stroge zakone sa ogromnim kaznama. Ako gradite ili koristite softver, pravila se menjaju pod vašim nogama. Ovo više nije samo pitanje etike. Radi se o pravnoj usklađenosti i pretnji od milijardi u penalima. Evropska unija je postavila tempo prvim velikim sveobuhvatnim zakonom, ali Sjedinjene Američke Države i Kina nisu daleko iza. Ova pravila će odrediti koje funkcije možete koristiti i kako kompanije upravljaju vašim podacima. Većina ljudi misli da je ovo dalek problem za advokate. Greše. To utiče na sve, od načina na koji se prijavljujete za posao do toga kako se rangira vaš social media feed. Svedočimo rađanju regulisane industrije koja više liči na bankarstvo ili medicinu nego na otvoreni web iz prošlosti. Ova promena će definisati narednu deceniju tehničkog razvoja i korporativne strategije. Vreme je da pogledamo specifične mandate koji se sele iz vladinih hodnika u kod vaših app-ova.
Globalni zaokret ka nadzoru veštačke inteligencije
Srž trenutne regulative je EU AI Act. Ovaj zakon ne tretira sav softver na isti način. Koristi okvir zasnovan na riziku kako bi odlučio šta je dozvoljeno, a šta nije. Na vrhu piramide su zabranjeni sistemi. To uključuje stvari poput biometrijske identifikacije u realnom vremenu na javnim mestima ili društvenog bodovanja od strane vlada. Oni su jednostavno zabranjeni jer predstavljaju preveliki rizik po građanske slobode. Ispod toga su visokorizični sistemi. Ova kategorija uključuje AI koji se koristi u obrazovanju, zapošljavanju ili kritičnoj infrastrukturi. Ako kompanija napravi alat za filtriranje biografija, mora dokazati da nije pristrasan. Moraju voditi detaljne logove i obezbediti ljudski nadzor. Zakon takođe cilja general purpose modele. Ovi modeli moraju biti transparentni o tome kako su trenirani. Moraju poštovati autorska prava i sumirati podatke korišćene za trening. Ovo je ogromna promena u odnosu na tajnoviti način na koji su modeli građeni pre samo dve godine.
U Sjedinjenim Američkim Državama, pristup je drugačiji, ali jednako značajan. Bela kuća je izdala Executive Order koji zahteva od developera moćnih sistema da podele rezultate svojih testova bezbednosti sa vladom. Koristi Defense Production Act kako bi osigurali da AI ne postane pretnja po nacionalnu bezbednost. Ovo nije zakon koji je usvojio Kongres, ali nosi težinu federalnih nabavki i nadzora. Fokusira se na red-teaming, što je praksa testiranja sistema na slabosti ili štetne rezultate. Kina ima svoj set pravila koja se fokusiraju na istinitost sadržaja i zaštitu društvenog poretka. Iako se metode razlikuju, cilj je isti. Vlade žele da povrate kontrolu nad tehnologijom koja se kretala brže nego što su očekivali. Više detalja o specifičnim zahtevima možete pronaći u zvaničnoj dokumentaciji Evropske komisije o AI aktu. Ova pravila su nova osnova za svaku kompaniju koja želi da posluje na globalnom nivou.
Ovi zakoni imaju domet koji se proteže daleko izvan granica zemalja koje ih pišu. Ovo se često naziva *Brussels Effect*. Ako velika tech kompanija želi da prodaje svoj softver u Evropi, mora se pridržavati pravila EU. Umesto građenja različitih verzija za svaku zemlju, većina kompanija će jednostavno primeniti najstroža pravila na ceo svoj globalni proizvod. To znači da zakon donet u Briselu efektivno postaje zakon za developera u Kaliforniji ili korisnika u Tokiju. Stvara globalni minimum za bezbednost i transparentnost. Međutim, stvara i fragmentiran svet u kojem su neke funkcije jednostavno isključene u određenim regionima. Već vidimo da se to dešava. Neke kompanije su odložile lansiranje naprednih funkcija u Evropi jer je pravni rizik previsok. Ovo stvara digitalni jaz gde korisnici u SAD možda imaju pristup alatima koje korisnici u Francuskoj nemaju. Za kreatore, to znači da je njihov rad bolje zaštićen od korišćenja kao podataka za trening bez dozvole. Za vlade, to je trka ko može postati globalni hub za pouzdanu tehnologiju. Ulozi su visoki. Ako zemlja previše reguliše, možda će izgubiti najbolje talente. Ako nedovoljno reguliše, rizikuje bezbednost svojih građana. Ova tenzija je nova normalnost za globalnu tech ekonomiju. Ove promene možete pratiti kroz Izvršnu uredbu Bele kuće o veštačkoj inteligenciji koja ocrtava američku strategiju za balansiranje inovacija i bezbednosti.
Zamislite dan u životu softverskog inženjera po imenu Markus. Pre dve godine, Markus je mogao da uzme dataset sa weba i istrenira model za jedan vikend. Nije morao nikoga da pita za dozvolu. Danas, njegovo jutro počinje sastankom o usklađenosti. Mora da dokumentuje poreklo svake slike u svom setu za trening. Mora da pokrene testove kako bi osigurao da model ne diskriminiše određene poštanske brojeve. Njegova kompanija je zaposlila novog Chief AI Compliance Officer-a koji ima moć da zaustavi bilo koje lansiranje. Ovo je operativna realnost. Nije više samo u pitanju kod. Radi se o revizorskom tragu. Markus troši trideset procenata svog vremena pišući izveštaje za regulatore umesto da piše funkcije za korisnike. Ovo je skriveni porez nove regulatorne ere. Za prosečnog korisnika, uticaj je suptilniji, ali jednako dubok. Kada se prijavite za kredit, banka mora biti u stanju da objasni zašto vas je AI odbio. Imate pravo na objašnjenje. Ovo okončava eru crne kutije automatizovanog odlučivanja. Ljudi imaju tendenciju da precenjuju koliko brzo će ovi zakoni zaustaviti greške. Potcenjuju koliko će ovi zakoni usporiti izlazak novih funkcija. Prelazimo iz sveta beta softvera u svet sertifikovanog softvera. To će dovesti do stabilnijih proizvoda, ali manje radikalnih skokova.
BotNews.today користи АИ алате за истраживање, писање, уређивање и превођење садржаја. Наш тим прегледа и надгледа процес како би информације биле корисне, јасне и поуздане.
Praktične promene za industriju
- Obavezno testiranje bezbednosti za svaki model koji premašuje specifične pragove računarske snage.
- Pravo korisnika da dobiju objašnjenje za svaku automatizovanu odluku koja utiče na njihov pravni status.
- Strogi zahtevi za označavanje podataka i otkrivanje autorskih prava u setovima za trening.
- Visoke kazne koje mogu dostići do sedam procenata ukupnog globalnog prihoda kompanije.
- Stvaranje nacionalnih AI kancelarija za praćenje usklađenosti i istraživanje pritužbi.
Moramo se zapitati da li ova pravila zaista štite javnost ili samo štite moćne. Da li regulativa od četiri stotine stranica pomaže malom startup-u, ili osigurava da samo kompanije sa pravnim timovima vrednim milijarde dolara mogu da prežive? Ako je cena usklađenosti previsoka, možda predajemo trajni monopol trenutnim tech gigantima. Takođe moramo preispitati definiciju bezbednosti. Ko odlučuje šta je neprihvatljiv rizik? Ako vlada može da zabrani određene vrste AI-a, može tu moć koristiti i da ućutka neslaganje ili kontroliše informacije. Postoji skriveni trošak i transparentnosti. Ako kompanija mora da otkrije tačno kako njen model radi, da li to olakšava lošim akterima da pronađu slabosti? Menjamo brzinu za bezbednost, ali još nismo definisali kako bezbednost zapravo izgleda. Da li je moguće regulisati industriju koja se menja svakih šest meseci zakonima za čije pisanje su potrebne godine? Ovo su pitanja koja će odrediti da li je ova era regulacije uspeh ili neuspeh. Moramo biti oprezni da ne izgradimo sistem koji je toliko krut da postane zastareo pre nego što se mastilo osuši. Pravila u Kini, kojima upravlja Cyberspace Administration of China, pokazuju kako se bezbednost može tumačiti kao društvena stabilnost. Ovo naglašava različite filozofske puteve kojima nacije idu. Moramo biti skeptični prema svakom zakonu koji tvrdi da rešava sve probleme dok stvara nove za sledeću generaciju graditelja.
Tehnički standardi i workflow-ovi usklađenosti
Za tehničku publiku, fokus se pomera ka compliance stack-u. Ovo uključuje alate za data lineage i automatizovanu reviziju modela. Developeri gledaju C2PA standarde za digitalno vodeno žigosanje. To uključuje ugrađivanje metapodataka u fajlove koji preživljavaju kropovanje ili ponovno čuvanje. Postoji i pokret ka lokalnom skladištenju osetljivih podataka. Da bi se uskladile sa pravilima o privatnosti, kompanije se udaljavaju od centralizovane cloud obrade za određene zadatke. Koriste edge computing kako bi zadržale korisničke podatke na uređaju. API limiti se takođe redizajniraju. Nije više samo u pitanju rate limiting za saobraćaj. Radi se o bezbednosnim filterima koji blokiraju određene vrste upita na nivou hardvera. Svedočimo usponu Model Cards koje su poput nutritivnih etiketa za AI. One navode podatke za trening, nameravanu upotrebu i poznata ograničenja. Iz perspektive workflow-a, to znači integraciju automatizovanog testiranja u proces continuous integration. Svaki put kada se model ažurira, mora proći bateriju testova na pristrasnost i bezbednost pre nego što se može deploy-ovati. Ovo dodaje latenciju razvojnom ciklusu, ali smanjuje rizik od pravne katastrofe. Kompanije takođe istražuju kako da upravljaju zahtevima za brisanje podataka za istrenirane modele, što je značajan tehnički izazov. Ako korisnik traži da se njegovi podaci uklone, kako da od-učite te podatke iz neuralne mreže? Ovde se zakon susreće sa limitima trenutne kompjuterske nauke. Vidimo novu klasu softvera dizajniranog specifično za upravljanje ovim pravnim zahtevima.
Naredna godina će biti prvi pravi test ovih zakona. Videćemo prve velike kazne i prve sudske slučajeve koji definišu limite vladine moći. Smislen napredak bi bio jasan set standarda koji omogućavaju malim kompanijama da se takmiče bez gušenja u papirologiji. Treba tražiti pojavu nezavisnih revizora koji mogu sertifikovati da je AI bezbedan. Cilj je preći preko hype-a i straha. Potreban nam je sistem gde tehnologija služi ljudima bez kršenja njihovih prava. Implementacija **EU AI Act**-a biće primarni signal za praćenje. Ako je sprovođenje previše agresivno, možda ćemo videti odliv kapitala u druge regione. Ako bude preslabo, zakon će se smatrati papirnim tigrom. Pravila su tu. Sada moramo videti da li zaista funkcionišu u stvarnom svetu.
Пронашли сте грешку или нешто што треба исправити? Јавите нам.
Napomena urednika: Kreirali smo ovaj sajt kao višejezični centar za vesti i vodiče o veštačkoj inteligenciji za ljude koji nisu kompjuterski genijalci, ali ipak žele da razumeju veštačku inteligenciju, koriste je sa više samopouzdanja i prate budućnost koja već stiže.