Afgelopen week draaide het AI-nieuws vooral om transparantie, eigendomsrechten en technologische machtsverschuivingen. Drie onderwerpen sprongen eruit: de strijd tegen AI-hallucinaties, een grote juridische schikking in het voordeel van auteurs, en de stap van OpenAI richting eigen chipproductie.
OpenAI publiceerde nieuw onderzoek naar de reden dat AI-systemen vaak met zelfvertrouwen onjuiste informatie geven. Uit de studie blijkt dat huidige trainingsmethodes systemen vooral belonen voor gokken, niet voor eerlijk toegeven als ze iets niet weten. Als modellen getraind worden om vaker “ik weet het niet” te zeggen bij twijfel, kunnen ze mogelijk betrouwbaarder worden. Dit kan doorslaggevend zijn wanneer AI wordt ingezet voor cruciale toepassingen.
AI-bedrijf Anthropic heeft ingestemd met een schikking van minimaal $1,5 miljard, na beschuldigingen van grootschalige inbreuk op auteursrechten. Het bedrijf gebruikte miljoenen illegaal verkregen boeken om hun taalmodellen te trainen. Deze uitkomst zet een eerste duidelijke standaard: trainen op legaal aangeschafte teksten is toegestaan, maar het gebruik van illegale kopieën niet.
OpenAI werkt samen met Broadcom aan de ontwikkeling van eigen AI-chips, waarmee het vanaf volgend jaar de capaciteit van hun systemen flink wil vergroten. Door zelf chips te ontwerpen, vermindert OpenAI de afhankelijkheid van marktleider Nvidia en kan het beter voldoen aan de groeiende vraag naar rekenkracht. Deze stap laat zien hoe belangrijk het is voor techbedrijven om hun infrastructuur te controleren.
Samen laten deze ontwikkelingen zien hoe snel het speelveld van AI verandert — en dat transparantie, betrouwbaarheid en grip op technologie steeds belangrijker worden.