Un model de inteligență artificială poate decoda semnalele vorbirii din activitatea creierului cu o acuratețe incredibilă

Acest model ar oferi în viitor posibilitatea de a discuta cu persoanele care nu pot comunica prin intermediul vorbirii, dactilografierii sau gesticii. Printre aceste persoane se numără pacienți cu o conștiință minimă sau în stare vegetativă.

Un model de inteligență artificială poate decoda semnalele vorbirii din activitatea creierului cu o acuratețe incredibilă
Meta poate deconda semnalele vorbirii din activitatea creierului

Acest model ar oferi în viitor posibilitatea de a discuta cu persoanele care nu pot comunica prin intermediul vorbirii, dactilografierii sau gesticii. Printre aceste persoane se numără pacienți cu o conștiință minimă sau în stare vegetativă, ceea ce este cunoscut sub denumirea de sindrom apalitic sau coma de veche.

Dezvoltat de către Meta, compania ce deține Facebook, AI-ul poate recunoaște ce a auzit o persoană din datele activității creierului pe o perioadă de câteva secunde. Cercetătorii declară că acesta listează răspunsul corect în top 10 răspunsuri posibile, cu o acuratețe de până la 73%, recunoscând o mare parte din cuvintele pe care le folosim zilnic.

Sursa: Meta AI Research

Jean-Rémi King, cercetător în neuroștiință pentru Meta, declarcă că această nouă metodă non-invazivă ar putea ajuta acești pacienți să comunice cu cei dragi fără a suferi operații pe creier sau implanturi bionice.

Sursa: Meta AI Research

Acesta împreună cu colegii săi au antrenat modelul de inteligență artificială să recunoască cuvinte și propoziții folosind 56.000 de ore înregistrate în 53 de limbi. În plus, modelul a fost antrenat să recunoască și anumite particularități ale limbii, precum silabisirea.

Studiul are ca scop doar decodarea percepției vorbirii, însă cercetătorii declară că obiectivul final ar fi crearea vorbirii.


Surse

Using AI to decode speech from brain activity
Decoding speech from brain activity has mostly benefited from invasive approaches. New research from FAIR shows AI could instead make use of noninvasive brain scans.
An AI can decode speech from brain activity with surprising accuracy
Developed by Facebook’s parent company, Meta, the AI could eventually be used to help people who can’t communicate through speech, typing or gestures.
Meta Is Building AI That Reads Brainwaves. The Reality, So Far, Is Messy
The research is meant to help people with traumatic brain injuries and other conditions, who can’t otherwise communicate
Decoding speech from non-invasive brain recordings
Decoding language from brain activity is a long-awaited goal in bothhealthcare and neuroscience. Major milestones have recently been reached thanksto intracranial devices: subject-specific pipelines trained on invasive brainresponses to basic language tasks now start to efficiently decode interpr…