Da Ann Johnson holdt bryllupsfest for 20 år siden, var det tydeligt for alle, at hun havde talegaverne i orden. I en sprudlende – og lang – tale jokede hun med, at hun havde taget kirkegulvet i løb, funderede over, om der i programmet burde have stået ’fløjtist’ eller ’fløjtenist’, og sagde uden beklagelse, at hun var i gang med at »monopolisere mikrofonen«.
Bare to år senere blev Ann Johnson – der på det tidspunkt var 30 år, lærer, volleyballtræner og mor til et spædbarn – ramt af et katastrofalt slagtilfælde, der gjorde hende lam og ude af stand til at tale.
I sidste uge kom så en nyhed om, at forskerne har gjort markante fremskridt med hensyn til at hjælpe hende og andre patienter til at tale igen – ved at kombinere neurovidenskabelig viden med kunstig intelligens. Ved hjælp af indopererede elektroder blev signalerne fra Ann Johnsons hjerne afkodet, mens hun, tavst, forsøgte at sige nogle sætninger. Teknologien konverterede signalerne fra hjernen til skriftligt og mundtligt sprog, så en avatar på en computerskærm kunne sige ordene og endda smile eller knibe læberne sammen og vise andre ansigtsudtryk. Det er intet mindre end en milepæl, og resultaterne blev i sidste uge publiceret i det videnskabelige tidsskrift Nature.
Ifølge eksperter er det første gang, talte ord og ansigtsudtryk er blevet dannet direkte ud fra hjernesignaler. Johnson havde selv valgt avataren, med et ansigt, der lignede hendes eget, og forskerne brugte hendes bryllupstale til at udvikle avatarens stemme.
