DeepSeek, Perplexity og den neste bølgen av AI-utfordrere
Æraen med dyre monopoler innen kunstig intelligens går mot slutten. De siste to årene har bransjen operert under antakelsen om at toppytelse krever milliarder av dollar i datakraft og massivt energiforbruk. DeepSeek og Perplexity beviser nå at effektivitet kan slå rå skala. DeepSeek sjokkerte markedet ved å lansere modeller som matcher ytelsen til bransjelederne til en brøkdel av treningskostnadene. Samtidig endrer Perplexity fundamentalt hvordan folk samhandler med internett ved å erstatte den tradisjonelle listen med lenker med direkte, siterte svar. Dette skiftet handler ikke bare om nye verktøy. Det handler om en fundamental endring i økonomien bak intelligens. Fokus har flyttet seg fra hvor stor en modell kan være, til hvor lite det kan koste å kjøre den. Etter hvert som disse utfordrerne vinner terreng, blir de etablerte gigantene tvunget til å forsvare sine forretningsmodeller med høye marginer mot en bølge av slanke, spesialiserte konkurrenter som prioriterer nytteverdi over hype.
Effektivitetssjokket i intelligensmarkedet
DeepSeek representerer et skifte i produktvirkeligheten i AI-verdenen. Mens mange selskaper fokuserer på å bygge størst mulige nevrale nettverk, fokuserte dette teamet på arkitektonisk optimalisering. Deres DeepSeek-V3-modell benytter en «Mixture of Experts»-tilnærming som bare aktiverer en liten del av de totale parameterne for en gitt oppgave. Dette gjør at modellen kan opprettholde høy ytelse samtidig som den drastisk reduserer datakraften som trengs for hvert ord den genererer. Fortellingen rundt dette selskapet er ofte sentrert rundt det lave treningsbudsjettet, som angivelig er under seks millioner dollar. Dette tallet utfordrer ideen om at bare de rikeste nasjonene og selskapene kan bygge grensesprengende modeller. Det tyder på at inngangsbilletten for maskinlæring på høyt nivå er lavere enn tidligere antatt.
Perplexity nærmer seg problemet fra brukergrensesnittets perspektiv. Det er en «answer engine» snarere enn en tradisjonell søkemotor. Den bruker eksisterende store språkmodeller for å skanne det levende nettet, hente ut relevant informasjon og presentere den i et sammenhengende avsnitt med fotnoter. Dette designvalget adresserer hovedsvakheten ved standard AI-modeller, som er deres tendens til å oppgi fakta som er utdaterte eller helt oppspinn. Ved å forankre hvert svar i sanntidsdata fra nettet, har Perplexity skapt et verktøy som føles mer pålitelig for profesjonell forskning enn en standard chat-bot. Produktet er ikke bare selve modellen, men systemet for gjenfinning og sitering som omgir den. Denne tilnærmingen legger et enormt press på tradisjonelle søkeleverandører som er avhengige av annonseinntekter fra brukere som klikker seg gjennom flere sider med resultater.
BotNews.today bruker AI-verktøy for å forske, skrive, redigere og oversette innhold. Teamet vårt gjennomgår og overvåker prosessen for å holde informasjonen nyttig, klar og pålitelig.
Geopolitikken bak billig datakraft
Den globale effekten av disse utfordrerne er forankret i demokratiseringen av høyytelses-inferens. Når kostnaden ved å kjøre en modell faller med nitti prosent, øker potensialet for integrering i hverdagslig programvare eksponentielt. Utviklere i fremvoksende markeder som tidligere ble priset ut av å bruke topp-API-er, kan nå bygge sofistikerte applikasjoner. Dette endrer tyngdepunktet for hele bransjen. Hvis de mest effektive modellene kommer fra utenfor de tradisjonelle Silicon Valley-hubene, begynner den strategiske fordelen med massive, nasjonale serverparker å avta. Det tvinger frem en samtale om modellsuverenitet og om land bør være avhengige av noen få sentraliserte leverandører eller investere i egne effektive arkitekturer. Dette er et signal verdt å følge med på, fordi det flytter bransjen bort fra en «vinneren tar alt»-dynamikk mot et mer fragmentert og konkurranseutsatt marked.
Bedriftskjøpere begynner å merke dette skiftet på bunnlinjen. Fortellingen om lavere kostnader for inferens endrer hvordan selskaper planlegger sine langsiktige teknologistakker. Hvis en modell som DeepSeek kan gi åtti prosent av nytteverdien til en dyrere rival til ti prosent av prisen, fordamper forretningsgrunnlaget for det dyrere alternativet for de fleste rutineoppgaver. Dette skaper et lagdelt marked der de dyreste modellene er reservert for svært kompleks resonnering, mens hovedtyngden av arbeidet håndteres av effektive utfordrere. Denne økonomiske virkeligheten påvirker også reklameverdenen. Perplexity eksperimenterer med en modell der annonser er integrert i forskningsprosessen i stedet for å være en distraksjon fra den. Dette kan redefinere hvordan merkevarer når forbrukere i en tid der folk ikke lenger besøker forsider eller blar gjennom søkeresultater. Effekten merkes av alle, fra programvareingeniøren som velger et API til markedsføringssjefen som prøver å finne et publikum i en verden av umiddelbare svar.
En tirsdag med «answer engines»
For å forstå den virkelige effekten, tenk på en dag i livet til en finansanalytiker ved navn Sarah. Tidligere startet Sarah morgenen med å åpne ti forskjellige faner for å sjekke markedsbevegelser og nyhetsrapporter. Hun brukte timer på å syntetisere data til en morgenbrief. I dag bruker hun en «answer engine» for å spørre om spesifikke datapunkter på tvers av flere kilder samtidig. Hun ber om en sammenligning av tre forskjellige kvartalsrapporter og mottar et sitert sammendrag på sekunder. Dataene hun mottar er nøyaktige fordi systemet henter dem direkte fra kildeteksten. Hun bruker ikke lenger tiden sin på å finne informasjon. Hun bruker tiden på å verifisere den og ta beslutninger basert på den. Dette er historien om søkedistribusjon i praksis. Grensesnittet har blitt forskeren, og Sarah har blitt redaktøren. Arbeidsflyten hennes er raskere, men den er også mer avhengig av nøyaktigheten i siteringene fra motoren.
Senere på dagen må Sarah skrive et tilpasset skript for å automatisere en dataregistreringsoppgave. I stedet for å bruke en generell assistent som kan koste en premie, bruker hun en spesialisert kodingsmodell fra en utfordrer som DeepSeek. Modellen leverer koden umiddelbart, og fordi inferenskostnaden er så lav, tillater selskapet hennes at hun bruker den til tusenvis av små oppgaver gjennom dagen uten å bekymre seg for budsjettet. Dette er hvordan modellmarkedet endrer seg. Det er i ferd med å bli en bakgrunnsverktøy snarere enn en dyrebar ressurs. Presset på tradisjonell søkeatferd er synlig når Sarah innser at hun ikke har brukt en vanlig søkelinje på tre dager. Hun har ikke behov for en liste med lenker når hun kan få et strukturert dokument. Følgende punkter illustrerer skiftet i hennes daglige rutine:
- Sarah erstatter manuell nyhetsaggregering med automatiserte, siterte sammendrag som oppdateres i sanntid.
- Hun bruker rimelige modeller for repetitive kodingsoppgaver som tidligere var for dyre å automatisere i stor skala.
- Hennes avhengighet av tradisjonelle annonsestøttede søkemotorer faller til nesten null ettersom hun finner mer verdi i direkte svar.
- Tiden hun sparer, lar henne fokusere på strategi på høyt nivå og kunderelasjoner i stedet for datainnsamling.
Den skjulte prisen for gratis intelligens
Sokratisk skepsis krever at vi spør hva vi gir opp i bytte mot denne effektiviteten. Hvis en modell er betydelig billigere å trene og kjøre, hvor kom de besparelsene fra? Vi må spørre om dataene som ble brukt til å trene disse effektive modellene ble innhentet med samme grad av granskning som dyrere motparter. Det er en risiko for at kappløpet mot bunnen når det gjelder pris vil føre til et kappløp mot bunnen for personvern og immaterielle rettigheter. Hvis et selskap ikke tar mye betalt for modellen sin, monetiserer de i stedet dataene som brukere mater inn i den? Vi må også vurdere den skjulte kostnaden ved «answer engine»-modellen. Når Perplexity oppsummerer et nettsted, mister det nettstedet en besøkende. Hvis skaperne av det opprinnelige innholdet ikke blir kompensert, kan selve informasjonen som disse motorene er avhengige av, etter hvert forsvinne. Hvem skal finansiere journalistikken og forskningen til 2026 hvis leserne aldri faktisk besøker kilden?
Et annet vanskelig spørsmål involverer påliteligheten til disse slanke arkitekturene. Introduserer «Mixture of Experts»-tilnærmingen nye typer feil som er vanskeligere å oppdage? Vi må spørre om vi ofrer dybde for hastighetens skyld. Det er en fare for at brukere blir for avhengige av de oppsummerte siteringene uten noen gang å sjekke den opprinnelige konteksten. Dette kan føre til en overfladisk forståelse av komplekse temaer der nyanser går tapt i jakten på et konsist svar. Vi bør også være skeptiske til påstandene om treningskostnader. Er disse tallene fullstendig transparente, eller utelater de kostnaden for menneskelig arbeidskraft og miljøpåvirkningen fra maskinvaren? Etter hvert som vi beveger oss mot en verden med billig intelligens, må vi forbli årvåkne når det gjelder kvaliteten og etikken i systemene vi integrerer i livene våre. Støyen fra en ny produktlansering kan ofte overdøve signalet om de langsiktige konsekvensene.
Under panseret på de nye utfordrerne
For «power user»-en ligger appellen til disse utfordrerne i deres tekniske fleksibilitet og integrasjonsmuligheter. DeepSeek-V3 bruker et treningsrammeverk som optimaliserer for FP8-presisjon, noe som muliggjør raskere beregning uten et betydelig tap i nøyaktighet. Dette er en viktig teknisk milepæl som bidrar til å forklare kostnadseffektiviteten deres. Deres «Multi-head Latent Attention»-mekanisme reduserer modellens minnebruk under inferens, noe som er en kritisk faktor for utviklere som ønsker å hoste disse modellene på egen maskinvare. Mange av disse nye modellene lanseres med åpne vekter, noe som betyr at de kan kjøres lokalt eller på private cloud-instanser. Dette er en stor fordel for bedrifter som ikke kan risikere å sende sensitive data til et tredjeparts-API. Muligheten til å finjustere disse modellene på spesifikke datasett øker verdien ytterligere for nisjeapplikasjoner innen juridiske, medisinske eller finansielle sektorer.
Har du en AI-historie, et verktøy, en trend eller et spørsmål du synes vi bør dekke? Send oss din artikkelidé — vi vil gjerne høre den.Perplexity tilbyr en annen type teknisk verdi gjennom sitt API, som lar utviklere bygge søkefunksjonalitet direkte inn i sine egne applikasjoner. Dette omgår behovet for en separat søkeindeks og en separat språkmodell. Systemet håndterer forankring og sitering automatisk. Det er imidlertid begrensninger å vurdere. API-ratebegrensninger og ventetiden ved søk på det levende nettet kan være en flaskehals for applikasjoner med høyt volum. Brukere må også håndtere avveiningen mellom søkehastighet og analysens dybde. Lokal lagring av disse søkeresultatene er en annen vurdering for «power users» som trenger å opprettholde en revisjonslogg over hvor informasjonen deres kom fra. Følgende tekniske faktorer definerer for øyeblikket konkurransefortrinnet for disse verktøyene:
- Bruken av «Multi-head Latent Attention» for å redusere KV-cache-minnebruk under oppgaver med lang kontekst.
- Støtte for FP8-trening og inferens for å maksimere gjennomstrømmingen til moderne GPU-maskinvare.
- Integrering av sanntids RAG-pipelines som kan håndtere tusenvis av samtidige nettsøk.
- Tilgjengeligheten av åpne vekter for lokal distribusjon i sikre miljøer.
Fremtiden for selektiv intelligens
Fremveksten av DeepSeek og Perplexity markerer begynnelsen på et mer modent AI-marked. Vi beveger oss bort fra nyhetens interesse for modeller som kan snakke, og mot nytteverdien av modeller som kan jobbe effektivt. Tyngdepunktet skifter mot leverandører som kan levere resultater av høy kvalitet til en bærekraftig pris. Dette er ikke bare en trend for inneværende 2026, men et langsiktig skifte i hvordan vi bygger og konsumerer digitale tjenester. Presset på tradisjonelle søk og leverandører av dyre modeller vil bare øke etter hvert som disse utfordrerne forbedrer produktene sine. For brukeren betyr dette mer valgfrihet og bedre verktøy. For bransjen betyr det et fornyet fokus på ingeniørkunst fremfor rå datakraft. De virkelige vinnerne vil være de som kan skille mellom støyen fra hype-syklusen og signalet om reell strukturell endring i teknøkonomien.
Redaktørens merknad: Vi opprettet dette nettstedet som et flerspråklig knutepunkt for AI-nyheter og guider for folk som ikke er datanerder, men som likevel ønsker å forstå kunstig intelligens, bruke den med større selvtillit og følge fremtiden som allerede er her.
Fant du en feil eller noe som må korrigeres? Gi oss beskjed.