Forskare använde hjärnimplantat och AI för att studera hur hjärnan hanterar verkliga samtal i realtid

25.05.13 - Med hjälp av hjärnimplantat och AI har forskare för första gången kunnat följa hur hjärnan växlar mellan att lyssna och tala.
Vad händer egentligen i våra hjärnor när vi har ett riktigt, levande samtal om favoritfilmer, semestrar eller gårdagens middag. Den frågan ville ett forskarteam från Massachusetts General Hospital få svar på.
Genom att kombinera hjärnimplantat med avancerade AI-modeller kunde forskarna för första gången följa hjärnans aktivitet under naturliga samtal. Deras studie, publicerad i Nature Communications, visar hur stora delar av hjärnan samarbetar när vi lyssnar, formulerar tankar och det är vår tur att pata. Det visade sig att vårt språk inte bara styrs av vissa specifika hjärnområden — utan av ett välkoordinerat hjärnregionnätverk som växlar blixtsnabbt mellan att lyssna och prata.
Från kliniskt labb till vardagsprat
Tidigare studier om språk och hjärnan har ofta skett under ganska onaturliga former: folk har fått läsa färdiga meningar eller upprepa ord i bestämda ordningar. Värdefullt för forskningen, men långt ifrån hur vi faktiskt pratar.
För att komma närmare verkligheten använde forskarna en ovanlig möjlighet. De studerade 14 patienter som redan hade elektroder inopererade i hjärnan för att behandla epilepsi. Med patienternas tillåtelse spelade forskarna in hjärnaktiviteten när patienterna hade naturliga samtal med en forskare om allt möjligt — från filmer till vardagshändelser. Tillsammans blev det över 86 000 ord och upp till 90 minuters samtal per person.
Så samarbetar hjärnan med AI
För att analysera hur hjärnan bearbetade språket använde forskarna en AI-modell som heter GPT-2, en föregångare till den teknik som ligger bakom dagens avancerade språkmodeller. Den hjälper till att förstå ordens innebörd och sammanhang — ungefär som vår hjärna gör.
När forskarna jämförde AI-modellens ordanalys med den registrerade hjärnaktiviteten såg de något häpnadsväckande: hjärnans signaler följde inte bara med i orden som sades eller hördes, utan de visade också när deltagarna bytte från att lyssna till att tala, och tvärtom. Olika delar av hjärnan tändes och slocknade i ett komplext mönster, som en symfoni av signaler som styr både vad som sägs och vem som säger det.
Enkelt samtal – avancerad hjärnkoreografi
Det kanske mest fascinerande? Hjärnan reagerade inte bara på enskilda ord. Den följde sammanhanget, nyanserna och meningsbyggnaden — och anpassade aktiviteten beroende på om personen pratade eller lyssnade. Flera hjärnområden ökade sin aktivitet precis innan personen började tala, medan andra tog över när det var dags att lyssna.
Dessutom visade det sig att hjärnan använde samma nätverk både för att förstå vad som sades och för att hantera själva turordningen i samtalet. Något vi tar för givet i vardagen, men som enligt forskarna kräver en otrolig koordination i hjärnan.
Från ord till tanke – nästa steg i forskningen
Studien visade också att mer avancerade AI-modeller gav bättre träffsäkerhet i att förutsäga hjärnans reaktioner. Ju mer AI:n kunde förstå meningarnas sammanhang, desto mer speglade dess analys hjärnaktiviteten hos deltagarna.
Det här är bara början, menar forskarna. Nästa steg blir att studera hur saker som tonläge, betoning och känslouttryck påverkar hjärnan under samtal — och kanske till och med att en dag kunna tyda tankar innan de blivit till ord.
En ny era för språkforskning
Att kombinera hjärnimplantat med AI öppnar helt nya möjligheter för språkvetenskapen och medicinen. På sikt hoppas forskarna kunna utveckla verktyg för personer som förlorat talförmågan, genom att omvandla hjärnsignaler till ord och meningar i realtid.
“Det här är ett oerhört spännande ögonblick för forskningen om hur vi kommunicerar,” säger Jing Cai, en av studiens huvudförfattare. “Vi börjar nu förstå hur hjärnan orkestrerar något så vardagligt — och ändå så mirakulöst — som ett samtal.”