Kako vlade pokušavaju da kontrolišu AI
Nova pravila mašine
Era divljeg zapada u veštačkoj inteligenciji se završava. Vlade više ne posmatraju sa strane. One pišu pravilnike koji će odrediti kako se piše kod i gde se on može primeniti. Ovo nije samo pitanje etike ili nejasnih principa. Radi se o čvrstim zakonima i ogromnim kaznama. Evropska unija je povela put sa svojim AI Act-om. Sjedinjene Američke Države su usledile sa sveobuhvatnom izvršnom naredbom. Ovi potezi menjaju matematiku za svaku tech kompaniju na planeti. Ako napravite model koji premašuje određeni prag snage, sada imate metu na leđima. Morate dokazati da je bezbedan pre nego što stigne do javnosti. Ova promena označava prelazak sa dobrovoljnih obećanja o bezbednosti na obavezni nadzor. Za prosečnog korisnika, to znači da alati koje koristite sutra mogu izgledati drugačije od onih koje koristite danas. Neke funkcije mogu biti blokirane u vašoj zemlji. Drugi alati mogu postati transparentniji u vezi sa tim kako koriste vaše podatke. Cilj je balansiranje napretka sa zaštitom, ali put je pun trenja.
Od etike do sprovođenja
Da biste razumeli nova pravila, morate pogledati kategorije rizika. Većina vlada se udaljava od pristupa koji svima odgovara. Umesto toga, oni ocenjuju sisteme na osnovu potencijalne štete koju bi mogli da izazovu. Ovo je direktna operativna promena. Kompanije više ne mogu jednostavno da izbace proizvod i nadaju se najboljem. Moraju da kategorizuju svoju tehnologiju pre nego što ona uopšte stigne do korisnika. Ova klasifikacija određuje nivo nadzora koji će vlada primeniti. Takođe određuje nivo pravne odgovornosti sa kojom se kompanija suočava ako nešto krene po zlu. Fokus se pomerio sa toga šta AI jeste na to šta AI radi. Ako sistem donosi odluke o ljudima, tretira se sa mnogo većom sumnjom nego sistem koji generiše slike mačaka.
Najrestriktivnija pravila važe za sisteme koji se smatraju neprihvatljivim rizikom. Oni nisu samo obeshrabreni. Oni su zabranjeni. Ovo stvara jasnu granicu za developere. Oni tačno znaju koje linije ne smeju da pređu. Za sve ostalo, pravila zahtevaju novi nivo dokumentacije. Kompanije moraju voditi detaljne evidencije o tome kako su njihovi modeli trenirani. Takođe moraju biti u stanju da objasne kako model dolazi do svojih zaključaka. Ovo je značajan tehnički izazov jer su mnogi moderni modeli u suštini crne kutije. Primoravanje da budu objašnjivi zahteva fundamentalnu promenu u načinu na koji su dizajnirani. Pravila takođe zahtevaju da podaci koji se koriste za trening budu čisti i bez predrasuda. To znači da je sam proces prikupljanja podataka sada podložan pravnim revizijama. Sledeće kategorije definišu trenutni regulatorni pristup:
- Zabranjeni sistemi koji koriste društveno bodovanje ili obmanjujuće tehnike za manipulaciju ponašanjem.
- Sistemi visokog rizika koji se koriste u kritičnoj infrastrukturi, zapošljavanju i sprovođenju zakona koji zahtevaju stroge revizije.
- Sistemi ograničenog rizika poput chatbotova koji moraju da otkriju da nisu ljudi.
- Sistemi minimalnog rizika poput AI video igara koji se suočavaju sa manje ograničenja.
Ova struktura je dizajnirana da bude fleksibilna. Kako se tehnologija menja, lista aplikacija visokog rizika može rasti. Ovo održava zakon relevantnim čak i dok se softver razvija. Međutim, to takođe stvara stanje trajne neizvesnosti za preduzeća. Oni moraju stalno da proveravaju da li je njihova nova funkcija prešla u više regulisanu kategoriju. Ovo je nova realnost pravljenja softvera u svetu koji je oprezan prema moći mašine.
Fragmentirani globalni okvir
Uticaj ovih pravila nije ograničen na granice jedne nacije. Vidimo uspon *Brussels Effect-a*. Kada EU postavi visoku lestvicu za tech regulativu, globalne kompanije često usvajaju te standarde svuda kako bi pojednostavile svoje poslovanje. Jeftinije je napraviti jedan usaglašen proizvod nego deset različitih verzija za različita tržišta. Ovo daje Evropi ogroman uticaj na to kako se AI gradi u Silicon Valley-u. Možete pročitati više o EU AI Act-u da vidite kako su ovi standardi strukturirani. U Sjedinjenim Američkim Državama, pristup je drugačiji, ali podjednako značajan. Vlada koristi **Defense Production Act** da primora tech gigante da podele svoje rezultate testova bezbednosti. Ovo signalizira da SAD vide AI velikih razmera kao pitanje nacionalne bezbednosti.
U međuvremenu, Kina je krenula direktnijim putem. Njihovi propisi se fokusiraju na sadržaj koji proizvodi generativni AI. Oni zahtevaju da rezultati budu u skladu sa društvenim vrednostima i da ne podrivaju državnu moć. Ovo stvara fragmentiran svet u kojem se isti model može ponašati drugačije u zavisnosti od toga gde se prijavljujete. Model u Pekingu će imati drugačije zaštitne ograde od onog u Parizu ili New York-u. Ova fragmentacija stvara glavobolju za developere koji sada moraju da rade kroz mrežu konfliktnih pravila. Neke zemlje žele više otvorenosti dok druge žele više kontrole nad narativom. Za globalnu publiku, to znači da AI iskustvo postaje lokalizovano. San o jedinstvenom, internetu bez granica bledi. Na njegovom mestu je regulisano okruženje gde vaša lokacija određuje šta mašina sme da vam kaže. Ovo je nova realnost 2024. godine. To je pomak koji će definisati narednu deceniju tehnološkog rasta.
Svakodnevni život pod regulatornim okom
Zamislite tipično jutro za projekt menadžerku Saru. Ona započinje svoj dan otvaranjem AI alata da sumira dugačak niz e-mailova. Prema novim propisima, njen softver mora da je obavesti da je rezime generisan algoritmom. Takođe mora da osigura da se podaci njene kompanije ne koriste za treniranje javnog modela bez njenog pristanka. Ovo je direktan rezultat novih zaštita privatnosti ugrađenih u nedavne zakone. Kasnije, Sara se prijavljuje za novu ulogu u tech firmi. Firma koristi AI alat za skrining. Pošto je ovo aplikacija visokog rizika, kompanija je morala da revidira alat zbog pristrasnosti. Sara ima zakonsko pravo da traži objašnjenje zašto ju je AI rangirao na način na koji jeste. U prošlosti, dobila bi generičko odbijanje. Sada ima put ka transparentnosti. Ovo je konkretan primer kako upravljanje menja dinamiku moći između korporacija i pojedinaca.
Popodne, Sara šeta kroz tržni centar. U nekim gradovima, prepoznavanje lica bi pratilo njeno kretanje kako bi joj serviralo ciljane oglase. Prema strogim pravilima EU, ova vrsta nadzora u realnom vremenu je ograničena. Tržni centar mora imati specifičan pravni razlog da ga koristi i Sara mora biti obaveštena. Proizvodi koje koristi se takođe menjaju. Kompanije poput OpenAI-a i Google-a već prilagođavaju svoje funkcije kako bi bile u skladu sa lokalnim zakonima. Možda ćete primetiti da određeni alati za generisanje slika nisu dostupni u vašem regionu ili imaju stroge filtere koji ih sprečavaju da kreiraju realistična lica javnih ličnosti. Ovo nije tehničko ograničenje. To je pravno. Argument za ova pravila deluje stvarno kada uzmete u obzir potencijal deepfake-ova da poremete izbore ili pristrasnih algoritama da uskrate ljudima stanovanje. Postavljanjem zaštitnih ograda, vlade pokušavaju da spreče ove štete pre nego što se dogode. Ovo je američki pristup bezbednosti AI-a na delu.
BotNews.today користи АИ алате за истраживање, писање, уређивање и превођење садржаја. Наш тим прегледа и надгледа процес како би информације биле корисне, јасне и поуздане.
Skriveni troškovi usaglašenosti
Moramo postaviti teška pitanja o tome ko zaista pobeđuje u regulisanom svetu. Da li težak regulatorni teret zaista štiti javnost, ili jednostavno štiti one koji su već na pozicijama? Velike tech firme imaju resurse da zaposle stotine advokata i inženjera da se bave usaglašenošću. Mali startup u garaži nema. Rizikujemo stvaranje sveta u kojem samo giganti mogu sebi priuštiti inovacije. To bi moglo dovesti do manje konkurencije i viših cena za korisnike. Tu je i pitanje privatnosti naspram bezbednosti. Kada vlade zahtevaju pristup unutrašnjem radu AI modela, ko štiti te podatke? Ako vlada može da revidira model da osigura da je bezbedan, oni takođe mogu koristiti taj isti pristup da prate šta model uči od svojih korisnika. Ovo je kompromis o kojem se retko raspravlja na javnim forumima.
Takođe moramo uzeti u obzir skrivenu cenu inovacija. Ako svaka nova funkcija mora da prođe kroz dugotrajan proces odobravanja, da li ćemo propustiti otkrića koja bi mogla spasiti živote u medicini ili rešiti kompleksne klimatske probleme? Trenje regulative je stvarni trošak. Moramo znati da li je bezbednost koju dobijamo vredna napretka koji gubimo. Tu je i pitanje sprovođenja. Kako regulisati model koji je hostovan na decentralizovanoj mreži ili u zemlji koja ignoriše međunarodne norme? Pravila se mogu primenjivati samo na kompanije koje odluče da ih poštuju, ostavljajući najopasnije aktere slobodnim da rade bez nadzora. Ovo stvara lažni osećaj sigurnosti. Gradimo ogradu oko građana koji poštuju zakon dok kapija ostaje otvorena za sve ostale. Ovo su pitanja koja regulatori često izbegavaju. Oni se fokusiraju na vidljive rizike dok ignorišu sistemske. Kako idemo napred, moramo osigurati da nas naša želja za bezbednošću ne zaslepi za vrednost otvorenog i konkurentnog tržišta.
Имате причу о вештачкој интелигенцији, алат, тренд или питање које мислите да бисмо требали да покријемо? Пошаљите нам своју идеју за чланак — волели бисмо да је чујемо.Tehnički danak transparentnosti
Za napredne korisnike i developere, novi propisi se prevode u specifična tehnička ograničenja. Jedna od najznačajnijih metrika je prag računanja. Izvršna naredba SAD postavlja lestvicu na 10 na stepen 26 operacija sa pokretnim zarezom. Svaki model treniran sa više snage od ovoga mora biti prijavljen vladi. Ovo primorava developere da vode detaljne logove o korišćenju hardvera i treninzima. API limiti takođe postaju alat za regulaciju. Da bi se sprečilo masovno generisanje dezinformacija, neki regioni razmatraju ograničenja broja zahteva koje jedan korisnik može poslati generativnom modelu. Ovo utiče na to kako developeri grade aplikacije koje se oslanjaju na ove modele. Oni sada moraju da uračunaju ove limite u svoj kod i svoje poslovne modele. Lokalno skladištenje je još jedan glavni faktor. Zakoni često zahtevaju da podaci o građanima ostanu unutar određenih geografskih granica. To znači da kompanije ne mogu jednostavno koristiti centralni cloud za obradu podataka odasvud. Moraju graditi i održavati lokalne data centre. Tehnički zahtevi uključuju:
- Obavezno vodeno žigosanje na nivou API-ja za identifikaciju AI generisanog sadržaja.
- Zahteve o rezidenciji podataka koji primoravaju lokalnu obradu i skladištenje.
- Logovanje računanja za svaki trening modela koji premašuje prag od 10 na stepen 26 flops-a.
- Slojeve objašnjivosti koji omogućavaju ljudsku reviziju težina modela i putanja odlučivanja.
Radni procesi integracije se takođe menjaju. Developeri sada moraju ugraditi bezbednosne provere u svakoj fazi pipeline-a. Ako pravite alat koji koristi API treće strane, sada ste odgovorni za to kako taj API rukuje podacima. Morate osigurati da vaša integracija ne zaobilazi bezbednosne filtere koje je postavio provajder. Geek sekcija zakona je mesto gde se vode prave bitke. Radi se o latenciji, rezidenciji podataka i matematici težina modela. Ovo su detalji koji određuju da li je proizvod održiv ili će biti zakopan pod teretom sopstvenih zahteva za usaglašenošću. Možete pronaći više detalja o ovim tehničkim promenama u najnovijim vestima u vezi sa tech politikom. Za one koji žele da ostanu ispred ovih promena, praćenje najnovijih dešavanja u AI regulativi je ključno. Kompleksnost ovih pravila znači da uloga developera postaje podjednako stvar zakona koliko i stvar koda.
Nedovršeni kod
Pokušaj kontrole AI-a je rad u toku. Prelazimo iz perioda potpune slobode u period upravljanog rasta. Pravila napisana danas oblikovaće tehnologiju naredne decenije. Međutim, brzina softvera uvek nadmašuje brzinu zakonodavstva. Do trenutka kada se zakon donese, tehnologija je često prešla na nešto novo. Ovo nas ostavlja sa pitanjem uživo koje će održavati ovu temu u razvoju: može li demokratski proces ikada biti dovoljno brz da reguliše inteligenciju koja samu sebe prepisuje? Za sada, fokus je na transparentnosti i odgovornosti. Pokušavamo da osiguramo da ljudi ostanu zaduženi za mašine koje su izgradili. Da li će ova pravila učiniti AI bezbednijim ili samo komplikovanijim, ostaje da se vidi. Jedina sigurnost je da je era neregulisanog algoritma gotova. Ovo je realnost 2024. godine i dalje.
Napomena urednika: Kreirali smo ovaj sajt kao višejezični centar za vesti i vodiče o veštačkoj inteligenciji za ljude koji nisu kompjuterski genijalci, ali ipak žele da razumeju veštačku inteligenciju, koriste je sa više samopouzdanja i prate budućnost koja već stiže.
Пронашли сте грешку или нешто што треба исправити? Јавите нам.