Founders, critici en onderzoekers: gesprekken die ertoe doen
De meeste mensen kennen de CEO van OpenAI wel. Maar vraag ze naar de auteurs van het paper dat het huidige tijdperk van large language models definieerde, en het blijft stil. Dit kennisgat zorgt voor een vertekend beeld van hoe technologie écht vooruitgaat. We behandelen artificial intelligence als een reeks productlanceringen, terwijl het in werkelijkheid een trage opeenstapeling van wiskundige doorbraken is. De founders beheren het kapitaal en het publieke verhaal. De onderzoekers beheren de gewichten en de logica. Het verschil begrijpen is de enige manier om door de marketingwolken heen te kijken. Als je alleen de founders volgt, kijk je naar een film. Als je de onderzoekers volgt, lees je het script. Dit artikel onderzoekt waarom dat onderscheid ertoe doet en hoe je de signalen herkent die de toekomst van de industrie echt bepalen. We laten de charismatische speeches achter ons en kijken naar de kille realiteit van het lab. Het is tijd om ons te focussen op de mensen die de code schrijven, in plaats van alleen op degenen die de persberichten ondertekenen.
De onzichtbare architecten van het machinetijdperk
Founders zijn het publieke gezicht. Ze spreken op het World Economic Forum en getuigen voor het Congres. Hun taak is om miljarden aan financiering binnen te halen en een merk te bouwen dat onvermijdelijk voelt. Ze gebruiken woorden die naar magie neigen. Onderzoekers zijn anders. Zij werken in Python en LaTeX. Zij geven om loss functions en token efficiency. Een founder zegt misschien dat hun model ‘denkt’. Een onderzoeker vertelt je dat het simpelweg het volgende meest waarschijnlijke woord voorspelt op basis van een specifieke kansverdeling. De verwarring ontstaat omdat de media deze twee groepen op één hoop gooit. Wanneer een CEO zegt dat een model klimaatverandering gaat oplossen, is dat een verkooppraatje. Wanneer een onderzoeker een paper publiceert over sparse autoencoders, is dat een technische claim. Het ene is hoop, het andere is een feit.
Het publiek verwart die hoop vaak met feiten. Dit leidt tot een cyclus van overdreven beloftes en tegenvallende resultaten. Om dit veld te begrijpen, moet je de persoon die de auto verkoopt scheiden van de persoon die de motor ontwierp. De motorontwerper weet precies waar de bouten loszitten. De verkoper zal je nooit vertellen over die losse bouten, want hun taak is om de aandelenkoers hoog te houden. We zien dit elke keer als er een nieuw model uitkomt. De founder plaatst een cryptische tweet om de hype aan te zwengelen. De onderzoeker plaatst een link naar een technisch rapport op arXiv. De tweet krijgt een miljoen views. Het technisch rapport wordt gelezen door een paar duizend mensen die daadwerkelijk dingen bouwen. Dit creëert een feedbackloop waarin de luidste stemmen de realiteit bepalen voor de rest.
Voorbij het publieke gezicht van innovatie
Deze kloof heeft enorme gevolgen voor het wereldwijde beleid. Overheden schrijven momenteel wetten op basis van de waarschuwingen van founders. Deze founders waarschuwen vaak voor existentiële risico’s die aan sciencefiction doen denken. Dit houdt de focus op hypothetische toekomsten in plaats van op huidige schade. Ondertussen wijzen onderzoekers op directe problemen zoals databias en energieverbruik. Door alleen naar de bekende namen te luisteren, riskeren we de verkeerde dingen te reguleren. We verbieden misschien een toekomstige superintelligentie, terwijl we negeren dat huidige modellen de grondwaterspiegels van kleine steden leegtrekken om hun datacenters te koelen. Dit is niet alleen een Amerikaans probleem; in Europa en Azië speelt dezelfde dynamiek.
De stemmen die de meeste zendtijd krijgen, zijn die met de grootste marketingbudgetten. Dit creëert een ‘winner-take-all’-omgeving waarin een paar bedrijven de agenda voor de hele planeet bepalen. Als we ons perspectief niet verbreden, laten we een handvol mensen in Silicon Valley bepalen wat veilig is en wat mogelijk is. Deze concentratie van macht is op zichzelf al een risico. Het beperkt de diversiteit aan denken in een veld dat dit juist nodig heeft. We moeten luisteren naar de mensen aan de University of Toronto of de labs in Tokyo, net zo goed als naar de mensen in San Francisco. Wetenschappelijke vooruitgang is een wereldwijde inspanning, maar het narratief is momenteel een lokaal monopolie. We moeten kijken naar tijdschriften als Nature om de echte vooruitgang te zien die buiten de bestuurskamers wordt geboekt.
Waarom de wereld naar de verkeerde mensen luistert
Denk eens aan een dag uit het leven van een lead researcher bij een groot lab. Ze worden wakker en checken de resultaten van een training run die drie miljoen dollar kostte. Ze zien dat het model meer hallucineert dan verwacht. Ze besteden tien uur aan het bestuderen van dataclusters om de ruis te vinden. Ze denken niet aan de verkiezingen van 2024 of het lot van de mensheid. Ze denken na over waarom het model ontkenning in complexe zinnen niet begrijpt. Ze kijken naar heat maps van neuron-activatie. Hun succes wordt gemeten in bits per karakter of nauwkeurigheid op een specifieke benchmark. Denk nu eens aan de dag van een founder. Ze zitten in een privévliegtuig op weg naar een ontmoeting met een staatshoofd. Ze praten over de biljoenen dollars aan kansen van de nieuwe economie.
De onderzoeker houdt zich bezig met het ‘hoe’. De founder houdt zich bezig met het ‘waarom het geld waard is’. Voor een developer die een app bouwt, is de onderzoeker de belangrijkere figuur. De onderzoeker bepaalt de API latency en het context window. De founder bepaalt de prijs. Als je een bedrijf probeert op te bouwen, moet je weten of de technologie echt kan wat de founder beweert. Vaak kan dat niet. We zagen dit in de begindagen van autonoom rijden. De founders zeiden dat we tegen 2026 miljoenen robotaxi’s zouden hebben. De onderzoekers wisten dat edge cases bij zware regenval nog steeds een onopgelost probleem waren. Het publiek geloofde de founders. De onderzoekers hadden gelijk.
Hetzelfde patroon herhaalt zich in de generatieve AI-ruimte. Ons wordt verteld dat modellen binnenkort advocaten en artsen zullen vervangen. Als je de technische papers leest, zie je dat de modellen nog steeds worstelen met fundamentele logische consistentie. De kloof tussen de demo en de realiteit is waar bedrijven geld verliezen. Je kunt een deep dive in artificial intelligence trends vinden om te zien hoe deze technische limieten vandaag de dag worden getest. Dit onderscheid is het verschil tussen een gezonde investering en een speculatieve bubbel. Wanneer je een nieuwe claim hoort, vraag jezelf dan af of deze uit een paper komt of uit een persbericht. Het antwoord vertelt je hoeveel gewicht je eraan moet hangen. Journalisten bij MIT Technology Review benadrukken vaak deze kloof tussen het lab en de lobby. We moeten onthouden dat founders een prikkel hebben om gebreken te verbergen, terwijl onderzoekers een prikkel hebben om ze te vinden. De eerste bouwt de hype, de tweede bouwt de waarheid. Op de lange termijn is de waarheid het enige dat schaalt. We zagen dit in 2026 toen de eerste golf van hype begon af te koelen onder het gewicht van de technische realiteit.
Een dinsdag in het lab versus de bestuurskamer
We moeten moeilijke vragen stellen over het huidige pad van ontwikkeling. Wie betaalt voor het onderzoek waarvan de founders beweren dat het iedereen ten goede komt? De meeste top-onderzoekers hebben de academische wereld verlaten voor private labs. Dit betekent dat de kennis die ze produceren geen publiek goed meer is. Het is een bedrijfsgeheim. Wat gebeurt er met de wetenschappelijke methode wanneer de data die wordt gebruikt om een punt te bewijzen achter een betaalmuur zit? We zien een verschuiving van open science naar een model van gesloten concurrentievoordeel. Helpt de roem van een paar individuen het veld, of creëert het een persoonlijkheidscultus die tegenspraak ontmoedigt? Als een onderzoeker een groot gebrek in een flagship model vindt, voelen ze zich dan veilig om dit te rapporteren als het de bedrijfswaarde kan schaden?
BotNews.today gebruikt AI-tools om inhoud te onderzoeken, schrijven, bewerken en vertalen. Ons team controleert en begeleidt het proces om de informatie nuttig, duidelijk en betrouwbaar te houden.
De financiële druk op deze firma’s is enorm. We moeten ook kijken naar de ecologische kosten. Is het nastreven van iets betere benchmarks de enorme carbon footprint van het trainen van deze modellen wel waard? We praten vaak over de voordelen van AI voor het milieu, maar we zien zelden een balans die beide kanten meeweegt. Tot slot: wie is de eigenaar van de cultuur waarop deze modellen zijn getraind? De onderzoekers gebruiken de collectieve output van het internet om hun systemen te bouwen. De founders laten het publiek vervolgens betalen voor toegang tot een gedestilleerde versie van diezelfde output. Dit is een vermogensoverdracht die zelden in de krantenkoppen verschijnt. Dit zijn niet alleen technische problemen. Het zijn sociale en ethische dilemma’s die meer vereisen dan alleen een beter algoritme om op te lossen.
Technische beperkingen en lokale implementatie
Voor degenen die op deze platforms bouwen, zijn de technische details belangrijker dan de filosofie. Huidige API-limieten zijn een grote bottleneck voor enterprise-adoptie. De meeste providers hebben strikte rate limits die real-time verwerking met een hoog volume in de weg staan. Daarom kijken veel bedrijven naar lokale opslag en lokale uitvoering. Modellen zoals Llama 3 op lokale hardware gebruiken zorgt voor betere data privacy en lagere kosten op de lange termijn. De hardware-eisen zijn echter fors. Om een model met 70 miljard parameters met een fatsoenlijke snelheid te draaien, heb je high-end GPU’s met aanzienlijk VRAM nodig. Dit is waar de ‘geek-sectie’ de financiële sectie ontmoet. De kosten van een H100-cluster vormen een toetredingsdrempel die de macht in handen van de rijken houdt.
We zien ook een verschuiving naar gespecialiseerde fine-tuning. In plaats van één algemeen model voor alles te gebruiken, gebruiken developers kleinere modellen die getraind zijn op specifieke datasets. Dit verbetert de nauwkeurigheid en verlaagt het aantal tokens. De technische uitdaging hier is data curation. Als de inputdata slecht is, zal het fine-tuned model slechter presteren dan het algemene model. We zien ook meer gebruik van Retrieval Augmented Generation (RAG) om modellen te baseren op feitelijke data. Dit omzeilt de noodzaak voor enorme context windows en vermindert hallucinaties. Maar RAG heeft zijn eigen limieten, specifiek in hoe het omgaat met de ranking van opgehaalde documenten. Als de zoekstap faalt, is de output van het model waardeloos. De meeste gebruikers realiseren zich niet dat de prestaties van een AI net zozeer afhangen van de database die het bevraagt als van het model zelf.
De laatste filter voor informatie
De toekomst van AI is niet één verhaal verteld door één persoon. Het is een rommelig, lopend debat tussen degenen die een visie verkopen en degenen die de realiteit bouwen. Om een slimme consument van tech-nieuws te zijn, moet je leren voorbij de charismatische founder te kijken. Zoek naar de namen op de papers. Zoek naar de onderzoekers die bereid zijn te praten over wat hun modellen niet kunnen. De tegenstrijdigheden in de industrie zijn geen bugs. Het zijn de meest eerlijke delen van het verhaal. Het veld zal blijven evolueren omdat de technische problemen nog lang niet zijn opgelost. De prangende vraag blijft: kunnen we een echt intelligent systeem bouwen zonder het enorme verbruik van middelen dat het huidige tijdperk definieert? Totdat we dat beantwoorden, zal de hype de wetenschap blijven overtreffen. We moeten sceptisch blijven tegenover elk verhaal dat een perfecte oplossing belooft zonder de bijbehorende trade-offs te noemen.
Noot van de redactie: We hebben deze site gemaakt als een meertalige AI-nieuws- en gidsenhub voor mensen die geen computernerds zijn, maar toch kunstmatige intelligentie willen begrijpen, er met meer vertrouwen mee willen omgaan en de toekomst willen volgen die al aanbreekt.
Een fout gevonden of iets dat gecorrigeerd moet worden? Laat het ons weten.