Slik prøver myndighetene å kontrollere KI
De nye reglene for maskinen
Æraen med det ville vesten innen kunstig intelligens er over. Myndighetene sitter ikke lenger på sidelinjen. De skriver regelbøkene som skal avgjøre hvordan kode skrives og hvor den kan tas i bruk. Dette handler ikke bare om etikk eller vage prinsipper. Det handler om harde lover og enorme bøter. EU har gått foran med sin AI Act. USA fulgte opp med en omfattende presidentordre. Disse tiltakene endrer regnestykket for alle teknologiselskaper på planeten. Hvis du bygger en modell som overskrider en viss kraftterskel, har du nå et mål på ryggen. Du må bevise at den er trygg før den når offentligheten. Dette skiftet markerer overgangen fra frivillige sikkerhetsløfter til obligatorisk tilsyn. For den vanlige brukeren betyr dette at verktøyene du bruker i morgen kan se annerledes ut enn de du bruker i dag. Noen funksjoner kan bli blokkert i landet ditt. Andre verktøy kan bli mer transparente om hvordan de bruker dataene dine. Målet er å balansere fremgang med beskyttelse, men veien er full av friksjon.
Fra etikk til håndheving
For å forstå de nye reglene, må du se på risikokategoriene. De fleste myndigheter beveger seg bort fra en «én størrelse passer alle»-tilnærming. I stedet graderer de systemer basert på den potensielle skaden de kan forårsake. Dette er en direkte operasjonell endring. Selskaper kan ikke lenger bare lansere et produkt og håpe på det beste. De må kategorisere teknologien sin før den i det hele tatt når en bruker. Denne klassifiseringen avgjør hvilket nivå av kontroll myndighetene vil bruke. Den avgjør også nivået av juridisk ansvar selskapet står overfor hvis noe går galt. Fokus har skiftet fra hva KI-en er, til hva KI-en gjør. Hvis et system tar beslutninger om mennesker, blir det behandlet med mye større mistenksomhet enn et system som genererer bilder av katter.
De strengeste reglene gjelder systemer som anses som en uakseptabel risiko. Disse blir ikke bare frarådet. De er forbudt. Dette skaper en tydelig grense for utviklere. De vet nøyaktig hvilke linjer de ikke kan krysse. For alt annet krever reglene et nytt nivå av dokumentasjon. Selskaper må føre detaljerte logger over hvordan modellene deres ble trent. De må også kunne forklare hvordan modellen kommer frem til sine konklusjoner. Dette er en betydelig teknisk utfordring fordi mange moderne modeller i bunn og grunn er svarte bokser. Å tvinge dem til å være forklarlige krever en fundamental endring i hvordan de er designet. Reglene krever også at data som brukes til trening er rene og frie for bias. Dette betyr at selve datainnsamlingsprosessen nå er underlagt juridiske revisjoner. Følgende kategorier definerer dagens regulatoriske tilnærming:
- Forbudte systemer som bruker sosial scoring eller villedende teknikker for å manipulere atferd.
- Høyrisikosystemer som brukes i kritisk infrastruktur, ansettelser og rettshåndhevelse som krever strenge revisjoner.
- Begrensede risikosystemer som chatbots som må opplyse om at de ikke er mennesker.
- Minimal risiko-systemer som KI-aktiverte videospill som møter færre restriksjoner.
Denne strukturen er designet for å være fleksibel. Etter hvert som teknologien endres, kan listen over høyrisikoapplikasjoner vokse. Dette holder loven relevant selv når programvaren utvikler seg. Det skaper imidlertid også en tilstand av permanent usikkerhet for bedrifter. De må hele tiden sjekke om den nye funksjonen deres har flyttet seg inn i en mer regulert kategori. Dette er den nye virkeligheten ved å bygge programvare i en verden som er skeptisk til maskinens kraft.
Et fragmentert globalt rammeverk
Virkningen av disse reglene er ikke begrenset til grensene til én nasjon. Vi ser fremveksten av *Brussels-effekten*. Når EU setter en høy standard for teknologiregulering, vedtar globale selskaper ofte disse standardene overalt for å forenkle driften. Det er billigere å bygge ett kompatibelt produkt enn å bygge ti forskjellige versjoner for ulike markeder. Dette gir Europa en massiv innflytelse over hvordan KI bygges i Silicon Valley. Du kan lese mer om EU AI Act for å se hvordan disse standardene er strukturert. I USA er tilnærmingen annerledes, men like viktig. Myndighetene bruker **Defense Production Act** for å tvinge teknigigantene til å dele resultatene fra sikkerhetstesting. Dette signaliserer at USA ser på storskala KI som et spørsmål om nasjonal sikkerhet.
I mellomtiden har Kina valgt en mer direkte vei. Reguleringene deres fokuserer på innholdet produsert av generativ KI. De krever at resultatene samsvarer med sosiale verdier og ikke undergraver statsmakten. Dette skaper en fragmentert verden der den samme modellen kan oppføre seg forskjellig avhengig av hvor du logger inn. En modell i Beijing vil ha andre sikkerhetsmekanismer enn en i Paris eller New York. Denne fragmenteringen skaper hodebry for utviklere som nå må jobbe på tvers av et nett av motstridende regler. Noen land ønsker mer åpenhet, mens andre ønsker mer kontroll over narrativet. For det globale publikummet betyr dette at KI-opplevelsen blir lokalisert. Drømmen om et enkelt, grenseløst internett svinner hen. I stedet får vi et regulert miljø der din lokasjon avgjør hva maskinen har lov til å fortelle deg. Dette er den nye virkeligheten i 2024. Det er et skifte som vil definere det neste tiåret med teknologisk vekst.
Hverdagen under det regulatoriske blikket
Se for deg en typisk morgen for en prosjektleder ved navn Sarah. Hun starter dagen med å åpne et KI-verktøy for å oppsummere en lang e-posttråd. Under de nye forskriftene må programvaren hennes varsle henne om at oppsummeringen ble generert av en algoritme. Den må også sikre at bedriftsdataene hennes ikke blir brukt til å trene den offentlige modellen uten hennes samtykke. Dette er et direkte resultat av nye personvernregler bygget inn i nyere lover. Senere søker Sarah på en ny stilling i et teknologiselskap. Firmaet bruker et KI-verktøy for screening. Fordi dette er en høyrisikoapplikasjon, har selskapet måttet revidere verktøyet for bias. Sarah har juridisk rett til å be om en forklaring på hvorfor KI-en rangerte henne slik den gjorde. Tidligere ville hun bare fått et generisk avslag. Nå har hun en vei til åpenhet. Dette er et konkret eksempel på hvordan styring endrer maktbalansen mellom selskaper og individer.
På ettermiddagen går Sarah gjennom et kjøpesenter. I noen byer ville ansiktsgjenkjenning sporet bevegelsene hennes for å vise målrettede annonser. Under de strenge EU-reglene er denne typen sanntidsovervåking begrenset. Kjøpesenteret må ha en spesifikk juridisk grunn for å bruke det, og Sarah må informeres. Produktene hun bruker endrer seg også. Selskaper som OpenAI og Google justerer allerede funksjonene sine for å overholde lokale lover. Du merker kanskje at visse bildegenereringsverktøy er utilgjengelige i din region, eller at de har strenge filtre som forhindrer dem i å skape realistiske ansikter av offentlige personer. Dette er ikke en teknisk begrensning. Det er en juridisk en. Argumentet for disse reglene føles reelt når du vurderer potensialet for at deepfakes kan forstyrre valg eller at partiske algoritmer kan nekte folk bolig. Ved å sette opp sikkerhetsgjerder prøver myndighetene å forhindre disse skadene før de skjer. Dette er USAs tilnærming til KI-sikkerhet i praksis.
BotNews.today bruker AI-verktøy for å forske, skrive, redigere og oversette innhold. Teamet vårt gjennomgår og overvåker prosessen for å holde informasjonen nyttig, klar og pålitelig.
De skjulte kostnadene ved etterlevelse
Vi må stille de vanskelige spørsmålene om hvem som egentlig vinner i en regulert verden. Beskytter en tung regulatorisk byrde faktisk offentligheten, eller beskytter den bare de etablerte aktørene? Store teknologiselskaper har ressurser til å ansette hundrevis av advokater og ingeniører for å håndtere etterlevelse. En liten startup i en garasje gjør ikke det. Vi risikerer å skape en verden der bare gigantene har råd til å innovere. Dette kan føre til mindre konkurranse og høyere priser for brukerne. Det er også spørsmålet om personvern kontra sikkerhet. Når myndigheter krever tilgang til hvordan en KI-modell fungerer på innsiden, hvem beskytter da disse dataene? Hvis myndighetene kan revidere en modell for å sikre at den er trygg, kan de også bruke den samme tilgangen til å overvåke hva modellen lærer fra brukerne sine. Dette er en avveining som sjelden diskuteres i offentlige fora.
Vi må også vurdere den skjulte kostnaden ved innovasjon. Hvis hver nye funksjon må gjennom en lang godkjenningsprosess, vil vi gå glipp av gjennombrudd som kunne reddet liv innen medisin eller løst komplekse klimaproblemer? Friksjonen ved regulering er en reell kostnad. Vi må vite om sikkerheten vi vinner er verdt fremgangen vi mister. Det er også spørsmålet om håndheving. Hvordan regulerer du en modell som er hostet på et desentralisert nettverk eller i et land som ignorerer internasjonale normer? Reglene gjelder kanskje bare for selskapene som velger å følge dem, noe som lar de farligste aktørene operere fritt uten tilsyn. Dette skaper en falsk trygghetsfølelse. Vi bygger et gjerde rundt lovlydige borgere mens porten forblir åpen for alle andre. Dette er spørsmålene regulatorer ofte unngår. De fokuserer på de synlige risikoene mens de ignorerer de systemiske. Når vi beveger oss fremover, må vi sikre at ønsket vårt om sikkerhet ikke gjør oss blinde for verdien av et åpent og konkurransedyktig marked.
Har du en AI-historie, et verktøy, en trend eller et spørsmål du synes vi bør dekke? Send oss din artikkelidé — vi vil gjerne høre den.Den tekniske kostnaden ved åpenhet
For superbrukere og utviklere oversettes de nye forskriftene til spesifikke tekniske begrensninger. En av de viktigste beregningene er beregningsterskelen. USAs presidentordre setter en grense på 10 opphøyd i 26 flyttallsoperasjoner. Enhver modell trent med mer kraft enn dette må rapporteres til myndighetene. Dette tvinger utviklere til å føre detaljerte logger over maskinvarebruk og treningskjøringer. API-grenser blir også et verktøy for regulering. For å forhindre massiv generering av desinformasjon vurderer enkelte regioner grenser for hvor mange forespørsler en enkelt bruker kan sende til en generativ modell. Dette påvirker hvordan utviklere bygger applikasjoner som er avhengige av disse modellene. De må nå ta høyde for disse grensene i koden og forretningsmodellene sine. Lokal lagring er en annen viktig faktor. Lover krever ofte at data om innbyggere forblir innenfor visse geografiske grenser. Dette betyr at selskaper ikke bare kan bruke en sentral cloud for å behandle data fra overalt. De må bygge og vedlikeholde lokale datasentre. De tekniske kravene inkluderer:
- Obligatorisk vannmerking på API-nivå for å identifisere KI-generert innhold.
- Krav om datalagring som tvinger lokal prosessering og lagring.
- Logging av beregningskraft for all modelltrening som overstiger 10 opphøyd i 26 flops-terskelen.
- Forklaringslag som tillater menneskelig revisjon av modellvekter og beslutningsveier.
Integrasjonsarbeidsflyter endres også. Utviklere må nå bygge inn sikkerhetssjekker i hvert trinn av rørledningen. Hvis du bygger et verktøy som bruker et tredjeparts-API, er du nå ansvarlig for hvordan dette API-et håndterer data. Du må sikre at integrasjonen din ikke omgår sikkerhetsfiltrene satt av leverandøren. Det tekniske avsnittet i loven er der de virkelige kampene utkjempes. Det handler om forsinkelse, datalagring og matematikken bak modellvekter. Dette er detaljene som avgjør om et produkt er levedyktig eller om det vil bli begravd under vekten av sine egne krav til etterlevelse. Du kan finne flere detaljer om disse tekniske skiftene i de siste nyhetsrapportene angående teknologipolitikk. For de som ønsker å ligge i forkant av disse endringene, er det viktig å følge den siste utviklingen innen KI-regulering. Kompleksiteten i disse reglene betyr at rollen som utvikler i økende grad handler like mye om jus som om kode.
Den uferdige koden
Forsøket på å kontrollere KI er et arbeid under utvikling. Vi beveger oss fra en periode med total frihet til en med styrt vekst. Reglene som skrives i dag vil forme teknologien det neste tiåret. Imidlertid løper hastigheten på programvare alltid fra hastigheten på lovgivning. Innen en lov er vedtatt, har teknologien ofte gått videre til noe nytt. Dette etterlater oss med et åpent spørsmål som vil holde dette emnet i utvikling: kan en demokratisk prosess noen gang være rask nok til å regulere en intelligens som skriver om seg selv? Foreløpig er fokuset på åpenhet og ansvarlighet. Vi prøver å sikre at menneskene forblir ansvarlige for maskinene de har bygget. Om disse reglene vil gjøre KI tryggere eller bare mer komplisert, gjenstår å se. Det eneste som er sikkert er at æraen med den uregulerte algoritmen er over. Dette er virkeligheten i 2024 og fremover.
Redaktørens merknad: Vi opprettet dette nettstedet som et flerspråklig knutepunkt for AI-nyheter og guider for folk som ikke er datanerder, men som likevel ønsker å forstå kunstig intelligens, bruke den med større selvtillit og følge fremtiden som allerede er her.
Fant du en feil eller noe som må korrigeres? Gi oss beskjed.