OpenAI kraken de hallucinatiecode van AI

September 8, 2025

Belangrijkste AI-nieuws van afgelopen week

Afgelopen week draaide het AI-nieuws vooral om transparantie, eigendomsrechten en technologische machtsverschuivingen. Drie onderwerpen sprongen eruit: de strijd tegen AI-hallucinaties, een grote juridische schikking in het voordeel van auteurs, en de stap van OpenAI richting eigen chipproductie.

OpenAI onderzoekt waarom chatbots hallucineren

OpenAI publiceerde nieuw onderzoek naar de reden dat AI-systemen vaak met zelfvertrouwen onjuiste informatie geven. Uit de studie blijkt dat huidige trainingsmethodes systemen vooral belonen voor gokken, niet voor eerlijk toegeven als ze iets niet weten. Als modellen getraind worden om vaker “ik weet het niet” te zeggen bij twijfel, kunnen ze mogelijk betrouwbaarder worden. Dit kan doorslaggevend zijn wanneer AI wordt ingezet voor cruciale toepassingen.

Anthropic betaalt $1,5 miljard aan auteurs

AI-bedrijf Anthropic heeft ingestemd met een schikking van minimaal $1,5 miljard, na beschuldigingen van grootschalige inbreuk op auteursrechten. Het bedrijf gebruikte miljoenen illegaal verkregen boeken om hun taalmodellen te trainen. Deze uitkomst zet een eerste duidelijke standaard: trainen op legaal aangeschafte teksten is toegestaan, maar het gebruik van illegale kopieën niet.

OpenAI ontwikkelt eigen AI-chips met Broadcom

OpenAI werkt samen met Broadcom aan de ontwikkeling van eigen AI-chips, waarmee het vanaf volgend jaar de capaciteit van hun systemen flink wil vergroten. Door zelf chips te ontwerpen, vermindert OpenAI de afhankelijkheid van marktleider Nvidia en kan het beter voldoen aan de groeiende vraag naar rekenkracht. Deze stap laat zien hoe belangrijk het is voor techbedrijven om hun infrastructuur te controleren.

Kort nieuws en nieuwe tools

Samen laten deze ontwikkelingen zien hoe snel het speelveld van AI verandert — en dat transparantie, betrouwbaarheid en grip op technologie steeds belangrijker worden.