Ik zie, ik zie wat kunstmatige intelligentie niet ziet. Een algoritme kan aan de hand van een enkele hersenscan nauwkeurig beschrijven waar je naar kijkt. De technologie is een stap in de richting van gedachtelezende computers
Om de inhoud van een afbeelding te achterhalen moet een kunstmatige intelligentie (KI) normaal gesproken de werkelijke afbeelding analyseren. Door een nieuw trucje kan een KI nu op een afbeelding beschrijven basis van een hersenscan van iemand die ernaar kijkt .
De KI, ontwikkeld door Ichiro Kobayashi en zijn collega’s van de Ochanomizu-universiteit in Japan, gebruikt een fMRI-scan van een persoon die naar een afbeelding kijkt om te bepalen wat hij ziet. Een fMRI-scanner leest de activiteit in de hersenen af door de toe- en afname in bloedtoevoer te meten. Hierdoor lichten de hersengebieden op die overeenkomen met het zien van bepaalde elementen in afbeeldingen. Vervolgens kon de KI een bijschrift bedenken op basis van wat het denkt dat de persoon aan het bekijken was.
Eén bijschrift dat werd gegenereerd, luidt bijvoorbeeld: ‘een hond zit op de grond voor een open deur’, een correcte omschrijving van de afbeelding. ‘Sommige resultaten waren erg goed, anderen wat minder,’ zegt Kobayashi.
Neuraal netwerk
Om de KI te trainen deelden de onderzoekers het systeem op in twee componenten. Het eerste gedeelte herkent de elementen van een afbeelding zoals ‘man’, ‘surfplank’ of ‘oceaan’, het tweede gedeelte koppelt deze aan elkaar en schrijft er een tekst bij zoals ‘een man surft op de oceaan met zijn surfplank’.
Beide KI-componenten zijn neurale netwerken – algoritmes die gebruikmaken van duizenden connecties, geïnspireerd op de manier waarop hersencellen aan elkaar zijn verbonden. Het probleem met neurale netwerken is dat ze tientallen of honderdduizenden voorbeelden moeten verwerken om goed te worden in een taak zoals het herkennen van een hond of mens. Doordat de fMRI-techniek duur en tijdrovend is bestaan er daardoor geen grote hoeveelheid hersenscans. Om dit probleem te omzeilen trainden de onderzoekers daarom de component die bijschriften bij afbeeldingen moest leren schrijven op normale afbeeldingen.
Hierna trainden ze de component die elementen uit de afbeelding moest herkennen op hersenscans die gemaakt zijn terwijl mensen afbeeldingen bekeken. De KI leerde bepaalde patronen van hersenactiviteit te associëren met de elementen in de afbeeldingen. Door de twee componenten samen te voegen ontstond de uiteindelijke gedachtelezende KI.
Gedachten lezen
Het is nog onduidelijk hoe nauwkeurig een dergelijk systeem kan worden. Een fMRI-scanner registreert namelijk niet alles wat de hersenen doen, maar maakt slechts een momentopname. Dit betekent dat er mogelijk een grens is aan de hoeveelheid detail die de methode uit een hersenscan kan aflezen.
Technologiebedrijven als Facebook en Neuralink werken aan vergelijkbare gedachtelezende systemen waarmee computers rechtstreeks met de hersenen worden bestuurd. Zij gebruiken echter elektro-encefalografie (EEG) om hersenactiviteit af te lezen. Dit is een methode waarmee de elektrische activiteit in de hersenen met kleine elektroden op de hoofdhuid wordt gemeten – een stuk gebruiksvriendelijker dan grote onhandige fMRI-scanners.
‘Ik zie het echt als een vorm van gedachten lezen’, zegt Umut Güçlü van de Radboud Universiteit, Nijmegen. ’Zodra dergelijke methoden ook betrouwbaar kunnen stellen waar we aan denken, in plaats van wat we zien, verwacht ik dat ze ook een belangrijke rol kunnen spelen bij de ontwikkeling van bijvoorbeeld nieuwe neuroprothese-apparaten.’
Mis niet langer het laatste wetenschapsnieuws en meld je nu gratis aan voor de nieuwsbrief van New Scientist.
Lees verder: