De viktigste AI-lovene og reguleringene du må følge med på
Tiden med lovløs kunstig intelligens er over. Regjeringer over hele verden går fra vage forslag til strenge lover med tunge bøter. Hvis du bygger eller bruker programvare, endres reglene under føttene dine. Dette handler ikke lenger bare om etikk. Det handler om juridisk etterlevelse og trusselen om milliarder i bøter. EU har satt standarden med den første store, omfattende loven, men USA og Kina er ikke langt bak. Disse reglene vil avgjøre hvilke funksjoner du kan bruke og hvordan selskaper håndterer dataene dine. De fleste tror dette er et fjernt problem for advokater. De tar feil. Det påvirker alt fra hvordan du søker på en jobb til hvordan sosiale medier-feeden din rangeres. Vi ser fødselen av en regulert industri som ligner mer på bank eller medisin enn den åpne nettet fra fortiden. Dette skiftet vil definere det neste tiåret med teknisk utvikling og bedriftsstrategi. Det er på tide å se på de spesifikke mandatene som beveger seg fra regjeringens korridorer til koden i appene dine.
Det globale skiftet mot tilsyn med kunstig intelligens
Kjernen i dagens regulering er EUs AI Act. Denne loven behandler ikke all programvare likt. Den bruker et risikobasert rammeverk for å avgjøre hva som er tillatt og hva som ikke er det. På toppen av pyramiden er forbudte systemer. Dette inkluderer ting som sanntids biometrisk identifikasjon på offentlige steder eller sosial scoring utført av myndigheter. Disse er rett og slett forbudt fordi de utgjør for stor risiko for sivile friheter. Under dette er høyrisikosystemer. Denne kategorien inkluderer AI brukt i utdanning, ansettelser eller kritisk infrastruktur. Hvis et selskap bygger et verktøy for å screene CV-er, må de bevise at det ikke er partisk. De må føre detaljerte logger og sørge for menneskelig tilsyn. Loven retter seg også mot generelle modeller. Disse modellene må være transparente om hvordan de ble trent. De må respektere opphavsretten og oppsummere dataene som brukes til trening. Dette er en massiv endring fra den hemmelighetsfulle måten modeller ble bygget på for bare to år siden.
I USA er tilnærmingen annerledes, men like viktig. Det hvite hus utstedte en Executive Order som krever at utviklere av kraftige systemer deler resultatene fra sikkerhetstesting med myndighetene. Den bruker Defense Production Act for å sikre at AI ikke blir en trussel mot nasjonal sikkerhet. Dette er ikke en lov vedtatt av Kongressen, men den bærer vekten av føderale anskaffelser og tilsyn. Den fokuserer på red-teaming, som er praksisen med å teste et system for svakheter eller skadelige utdata. Kina har sitt eget sett med regler som fokuserer på innholdets sannferdighet og beskyttelse av sosial orden. Selv om metodene varierer, er målet det samme. Regjeringer ønsker å gjenvinne kontrollen over en teknologi som beveget seg raskere enn de forventet. Du kan finne flere detaljer om de spesifikke kravene i den offisielle dokumentasjonen for EUs AI Act. Disse reglene er det nye grunnlaget for ethvert selskap som ønsker å operere på global skala.
Disse lovene har en rekkevidde som strekker seg langt utover grensene til landene som skriver dem. Dette kalles ofte *Brussels-effekten*. Hvis et stort teknologiselskap vil selge programvaren sin i Europa, må de følge EUs regler. I stedet for å bygge forskjellige versjoner for hvert land, vil de fleste selskaper ganske enkelt bruke de strengeste reglene på hele sitt globale produkt. Dette betyr at en lov vedtatt i Brussel effektivt blir loven for en utvikler i California eller en bruker i Tokyo. Det skaper et globalt gulv for sikkerhet og transparens. Det skaper imidlertid også en fragmentert verden hvor enkelte funksjoner rett og slett slås av i visse regioner. Vi ser allerede at dette skjer. Noen selskaper har utsatt lanseringer av avanserte funksjoner i Europa fordi den juridiske risikoen er for høy. Dette skaper et digitalt skille der brukere i USA kan ha tilgang til verktøy som brukere i Frankrike ikke har. For skapere betyr dette at arbeidet deres er bedre beskyttet mot å bli brukt som treningsdata uten tillatelse. For regjeringer er det et kappløp om hvem som kan bli det globale knutepunktet for pålitelig teknologi. Innsatsen er høy. Hvis et land overregulerer, kan det miste sine beste talenter. Hvis det underregulerer, risikerer det sikkerheten til innbyggerne sine. Denne spenningen er den nye normalen for den globale teknøkonomien. Du kan følge disse endringene gjennom Executive Order on AI fra Det hvite hus, som skisserer den amerikanske strategien for å balansere innovasjon og sikkerhet.
Tenk på en dag i livet til programvareutvikleren Marcus. For to år siden kunne Marcus hente et datasett fra nettet og trene en modell i løpet av en helg. Han trengte ikke å be om tillatelse fra noen. I dag starter morgenen hans med et compliance-møte. Han må dokumentere opprinnelsen til hvert bilde i treningssettet sitt. Han må kjøre tester for å sikre at modellen ikke diskriminerer basert på postnummer. Selskapet hans har ansatt en ny Chief AI Compliance Officer som har fullmakt til å stoppe enhver lansering. Dette er den operasjonelle virkeligheten. Det handler ikke lenger bare om koden. Det handler om revisjonssporet. Marcus bruker tretti prosent av tiden sin på å skrive rapporter for tilsynsmyndigheter i stedet for å skrive funksjoner for brukere. Dette er den skjulte skatten i den nye regulatoriske æraen. For den gjennomsnittlige brukeren er effekten mer subtil, men like dyp. Når du søker om lån, må banken kunne forklare hvorfor AI-en avslo deg. Du har rett til en forklaring. Dette avslutter