2min

Tags in dit artikel

, ,

Een nieuw AI-model van Meta herkent woorden op basis van hersenactiviteit. De technologie kan mensen met een spraakbeperking helpen te communiceren.

Denk je aan een woord, dan maken je hersenen signalen aan. Verschillende delen van het brein zijn verantwoordelijk voor bewegingen van mond. Sommige gebieden spelen een belangrijke rol bij het spreken en begrijpen van taal.

Een nieuw AI-algoritme van Facebook AI Research Labs (FAIR) kan het leven van miljoenen individuen veranderen. De technologie is veelbelovend voor mensen met een beperkt spraak- en bewegingsvermogen.

“We hebben een AI-model ontwikkeld dat spraak kan decoderen uit niet-invasieve opnames van hersenactiviteit”, deelde FAIR Labs-onderzoekswetenschapper Jean Remi King. “Het decoderen van spraak uit hersenactiviteit is al lange tijd een doel van neurowetenschappers en clinici, maar de meeste vooruitgang was afhankelijk van invasieve hersenopnametechnieken.”

AI verwijdert ruis en decodeert spraak

Hersenscans als CT en MRI geven een indicatie van hersenactiviteit. Het gebied van de activiteit komt in beeld, maar de daadwerkelijke activiteit is moeilijk te ontcijferen. De meeste methodes voor het aflezen van hersenactiviteit zijn tot nu toe invasief geweest.

Ook niet-invasieve technologieën als EEG en MEG kunnen hersenactiviteit vastleggen, maar beide technologieën nemen ruis op. Als gevolg komt de hersenactiviteit niet duidelijk in beeld.

FAIR ontwikkelde een AI-model om de uitdaging te overbruggen. Wave2vec 2.0 filtert ruis in opnames van hersenactiviteit. Het model is in staat om de woorden af te lezen waaraan een persoon denkt.

FAIR wist de effectiviteit van het model in een recent onderzoek te onderbouwen. Wanneer je een geluidsopname aan een persoon laat horen en de hersenactiviteit opmeet, dan kan het model bepalen welke geluidsopname de persoon heeft gehoord.

Vroege stap

Dit is een vroege stap, benadrukt FAIR. Het AI-model moet weten welke geluidsopname de persoon mogelijk heeft gehoord. Het is nog niet mogelijk om een willekeurige hersenscan in te voeren en woorden te detecteren. Daar werken de onderzoekers in de komende jaren naar toe.

Op dit moment onderzoekt FAIR manieren om woorden te herkennen zonder afhankelijk te zijn van geluidsopnames. Dergelijke technologie maakt het mogelijk om systemen te ontwikkelen die woorden uitspreken op basis van gedachten.

Tip: Meta AI introduceert versie 3 van BlenderBot chatbot