Hoe we hier kwamen: De korte geschiedenis van de AI-boom
De huidige opmars van kunstmatige intelligentie begon niet met een virale chatbot eind 2022. Het begon met een specifiek onderzoekspaper dat in 2017 door Google-engineers werd gepubliceerd, getiteld “Attention Is All You Need”. Dit document introduceerde de Transformer-architectuur, die de manier waarop machines menselijke taal verwerken volledig veranderde. Vóór dit punt hadden computers moeite om de context van een lange zin vast te houden. Ze vergaten vaak het begin van een alinea tegen de tijd dat ze het einde bereikten. De Transformer loste dit op door het model in staat te stellen het belang van verschillende woorden tegelijkertijd te wegen. Deze ene technische verschuiving is de primaire reden waarom moderne tools coherent aanvoelen in plaats van robotachtig. We leven momenteel in de opgeschaalde gevolgen van die ene beslissing om af te stappen van sequentiële verwerking. Deze geschiedenis gaat niet alleen over betere code. Het gaat over een fundamentele verandering in hoe we op mondiaal niveau met informatie omgaan. De verschuiving van het zoeken naar antwoorden naar het genereren ervan heeft de basisverwachtingen van elke internetgebruiker vandaag de dag veranderd.
Statistische voorspelling boven logica
Om de huidige staat van de technologie te begrijpen, moet men het idee loslaten dat deze systemen aan het denken zijn. Dat zijn ze niet. Het zijn enorme statistische engines die het volgende deel van een reeks voorspellen. Wanneer je een prompt typt, kijkt het systeem naar zijn trainingsdata om te bepalen welk woord het meest waarschijnlijk op jouw invoer volgt. Dit is een afwijking van de logica-gebaseerde programmering uit het verleden. In eerdere decennia volgde software strikte if-then-regels. Als een gebruiker op een knop klikte, voerde de software een specifieke actie uit. Vandaag de dag is de output probabilistisch. Dit betekent dat dezelfde invoer tot verschillende resultaten kan leiden, afhankelijk van de instellingen van het model. Deze verschuiving heeft een nieuw type software gecreëerd dat flexibel is, maar ook gevoelig voor fouten die een traditionele rekenmachine nooit zou maken.
De schaal van deze training is wat de resultaten op intelligentie doet lijken. Bedrijven hebben vrijwel het gehele publieke internet gescraped om deze modellen te voeden. Dit omvat boeken, artikelen, code repositories en forumposts. Door miljarden parameters te analyseren, leren de modellen de structuur van menselijk denken zonder ooit de betekenis van de woorden te begrijpen. Dit gebrek aan begrip is de reden waarom een model een perfect juridisch document kan schrijven, maar faalt bij een simpel wiskundig probleem. Het is niet aan het rekenen. Het bootst de patronen na van mensen die eerder wiskunde hebben gedaan. Dit onderscheid begrijpen is essentieel voor iedereen die deze tools professioneel gebruikt. Het verduidelijkt waarom de systemen zo zelfverzekerd zijn, zelfs als ze er volledig naast zitten.
BotNews.today gebruikt AI-tools om inhoud te onderzoeken, schrijven, bewerken en vertalen. Ons team controleert en begeleidt het proces om de informatie nuttig, duidelijk en betrouwbaar te houden.
De wereldwijde wapenwedloop om silicium
De impact van deze technologische verschuiving reikt veel verder dan software. Het heeft een enorme geopolitieke strijd om hardware ontketend. Specifiek is de wereld nu afhankelijk van high-end graphics processing units of GPU’s. Deze chips waren oorspronkelijk ontworpen voor videogames, maar hun vermogen om veel kleine berekeningen tegelijk uit te voeren, maakt ze perfect voor AI. Eén bedrijf, NVIDIA, speelt nu een centrale rol in de wereldeconomie omdat het de chips produceert die nodig zijn om deze modellen te trainen. Landen behandelen deze chips nu als olie of goud. Het zijn strategische activa die bepalen welke landen de komende tien jaar economisch zullen leiden.
Deze afhankelijkheid heeft een kloof gecreëerd tussen degenen die enorme rekenkracht kunnen betalen en degenen die dat niet kunnen. Het trainen van een topmodel kost tegenwoordig honderden miljoenen dollars aan elektriciteit en hardware. Deze hoge toetredingsdrempel betekent dat een paar grote bedrijven in de Verenigde Staten en China de meeste macht in handen hebben. Deze centralisatie van invloed is een grote zorg voor toezichthouders over de hele wereld. Het beïnvloedt alles, van hoe data wordt opgeslagen tot hoeveel een startup moet betalen om toegang te krijgen tot basistools. De economische zwaartekracht van de industrie is verschoven naar de eigenaren van de datacenters. Dit is een aanzienlijke verandering ten opzichte van het vroege internettijdperk, waarin een klein team met een beperkt budget een product van wereldklasse kon bouwen. In 2026 zijn de kosten voor toetreding hoger dan ooit tevoren.
Wanneer het abstracte dagelijks werk wordt
Voor de meeste mensen is de geschiedenis van deze technologie minder belangrijk dan het dagelijkse nut ervan. Denk aan een marketingmanager genaamd Sarah. Een paar jaar geleden bestond haar dag uit urenlang handmatig onderzoek en schrijfwerk. Ze zocht naar trends, las tientallen artikelen en vatte die vervolgens samen in een rapport. Vandaag de dag is haar workflow anders. Ze gebruikt een model om de belangrijkste trends samen te vatten en een eerste opzet te maken. Ze is geen schrijver meer. Ze is een editor van door machines gegenereerde content. Deze verandering vindt plaats in elke sector waar een toetsenbord wordt gebruikt. Het gaat niet alleen om snelheid. Het gaat om het elimineren van het lege blad. De machine levert het eerste concept en de mens levert de richting.
Deze verschuiving heeft praktische gevolgen voor baanzekerheid en de ontwikkeling van vaardigheden. Als een junior analist nu het werk van drie mensen kan doen met deze tools, wat gebeurt er dan met de arbeidsmarkt voor starters? We zien een beweging naar een “super-user”-model waarbij één persoon meerdere AI-agents beheert om complexe taken te voltooien. Dit is zichtbaar in software engineering, waar tools zoals GitHub Copilot hele blokken code suggereren. De developer besteedt minder tijd aan typen en meer tijd aan controleren. Deze nieuwe realiteit vereist een andere set vaardigheden. Je hoeft niet langer elke syntax-regel uit je hoofd te kennen. Je moet weten hoe je de juiste vragen stelt en hoe je een subtiele fout in een zee van perfect uitziende tekst opmerkt. De dag van een professional in 2026 is nu een constante cyclus van prompten en verifiëren. Hier zijn enkele manieren waarop dit er in de praktijk uitziet:
- Software developers gebruiken modellen om repetitieve unit tests en boilerplate code te schrijven.
- Juridisch assistenten gebruiken ze om duizenden pagina’s aan documenten te scannen op specifieke trefwoorden.
- Medisch onderzoekers gebruiken ze om te voorspellen hoe verschillende eiwitstructuren op elkaar kunnen reageren.
- Klantenserviceteams gebruiken ze om routinevragen af te handelen zonder menselijke tussenkomst.
De stille kosten van de black box
Naarmate we meer op deze systemen vertrouwen, moeten we moeilijke vragen stellen over de verborgen kosten. De eerste is de impact op het milieu. Een enkele query naar een large language model vereist aanzienlijk meer elektriciteit dan een standaard Google-zoekopdracht. Vermenigvuldigd met miljoenen gebruikers wordt de ecologische voetafdruk aanzienlijk. Er is ook de kwestie van waterverbruik. Datacenters hebben enorme hoeveelheden water nodig om de servers te koelen die deze modellen draaien. Zijn we bereid lokale waterzekerheid op te offeren voor sneller e-mailverkeer? Dit is een vraag die veel gemeenschappen in de buurt van datacenters beginnen te stellen. We moeten ook naar de data zelf kijken. De meeste modellen zijn getraind op auteursrechtelijk beschermd materiaal zonder toestemming van de makers. Dit heeft geleid tot een golf van rechtszaken van kunstenaars en schrijvers die stellen dat hun werk is gestolen om een product te bouwen dat hen uiteindelijk zou kunnen vervangen.
Dan is er het probleem van de black box. Zelfs de engineers die deze modellen bouwen, begrijpen niet volledig waarom ze bepaalde beslissingen nemen. Dit gebrek aan transparantie is gevaarlijk wanneer AI wordt gebruikt voor gevoelige taken zoals werving of het goedkeuren van leningen. Als een model een vooroordeel ontwikkelt tegen een bepaalde groep, kan het moeilijk zijn om de hoofdoorzaak te vinden en te herstellen. We besteden in feite belangrijke maatschappelijke beslissingen uit aan een systeem dat zijn eigen redenering niet kan uitleggen. Hoe houden we een machine verantwoordelijk? Hoe zorgen we ervoor dat de data die wordt gebruikt om deze systemen te trainen geen oude vooroordelen versterkt? Dit zijn geen theoretische problemen. Het zijn actuele kwesties die de nieuwste AI-ontwikkelingen met wisselend succes proberen aan te pakken.
Heeft u een AI-verhaal, tool, trend of vraag die wij volgens u zouden moeten behandelen? Stuur ons uw artikelidee — we horen het graag.
Latency en de token-economie
Voor degenen die deze tools willen integreren in professionele workflows, zijn de technische details van belang. De meeste interactie met deze modellen verloopt via een Application Programming Interface of API. Hier kom je het concept van tokens tegen. Een token is ongeveer vier tekens aan Engelse tekst. Modellen lezen geen woorden. Ze lezen tokens. Dit is belangrijk omdat de meeste aanbieders kosten in rekening brengen op basis van het aantal verwerkte tokens. Als je een tool bouwt die lange documenten analyseert, kunnen je kosten snel oplopen. Je moet ook het contextvenster beheren. Dit is de hoeveelheid informatie die het model tegelijkertijd kan “onthouden”. Vroege modellen hadden kleine vensters, maar nieuwere versies kunnen hele boeken in één prompt verwerken. Grotere vensters leiden echter vaak tot hogere latency en een grotere kans dat het model het spoor bijster raakt in het midden van de tekst.
Een ander cruciaal gebied is het proces van lokale opslag en privacy. Veel bedrijven aarzelen om gevoelige data naar een externe server te sturen. Dit heeft geleid tot de opkomst van lokale modellen zoals Llama 3 die op interne hardware kunnen draaien. Het lokaal draaien van een model vereist aanzienlijk VRAM op je GPU. Een model met 70 miljard parameters vereist bijvoorbeeld meestal twee high-end kaarten om op een bruikbare snelheid te draaien. Dit is waar kwantisatie om de hoek komt kijken. Het is een techniek die de modelgrootte verkleint door de precisie van de getallen in de berekeningen te verminderen. Hierdoor kan een krachtig model op consumentenhardware draaien met slechts een klein verlies aan nauwkeurigheid. Developers moeten deze factoren in balans houden:
- API-kosten versus de hardware-uitgaven voor het lokaal draaien van modellen.
- De snelheid van een kleiner model versus het redeneervermogen van een groter model.
- De veiligheid van data on-premise houden versus het gemak van de cloud.
- De limieten van rate-throttling op publieke API’s tijdens piekuren.
De weg vooruit
De geschiedenis van de AI-boom is een verhaal over het opschalen van één goed idee. Door de Transformer-architectuur te nemen en er enorme hoeveelheden data en rekenkracht tegenaan te gooien, hebben we iets gecreëerd dat aanvoelt als een nieuw tijdperk in computing. Maar we staan nog in de kinderschoenen. De verwarring die velen vandaag voelen, komt voort uit de kloof tussen wat de technologie kan en wat we ervan verwachten. Het is een tool voor augmentatie, geen vervanging voor menselijk oordeel. De meest succesvolle mensen in de komende jaren zullen degenen zijn die de statistische aard van deze systemen begrijpen. Zij zullen weten wanneer ze de machine moeten vertrouwen en wanneer ze het werk moeten verifiëren. We bewegen ons naar een toekomst waarin het vermogen om AI te beheren net zo fundamenteel zal zijn als het vermogen om een tekstverwerker te gebruiken.
Noot van de redactie: We hebben deze site gemaakt als een meertalige AI-nieuws- en gidsenhub voor mensen die geen computernerds zijn, maar toch kunstmatige intelligentie willen begrijpen, er met meer vertrouwen mee willen omgaan en de toekomst willen volgen die al aanbreekt.
Een fout gevonden of iets dat gecorrigeerd moet worden? Laat het ons weten.