Дослідники продемонстрували приголомшливий спосіб реконструкції слів, заснований на інтерпретації мозкових хвиль пацієнтів, які про них думали.
Техніка, описана у часописі PLoS Biology, базується на зборі електричних сигналів безпосередньо у мозку пацієнта.
На основі цих сигналів було створено комп’ютерну модель для реконструкції звуків слів, про які думали пацієнти.
У майбутньому цей метод зможе допомогти спілкуватися пацієнтам у комі, а також тим, які страждають на синдром "замкненої людини".
Протягом останніх років у межах кількох підходів висловлювалось припущення, що вчені впритул підійшли до відкриття методів, які дозволять "читати" наші думки.
У рамках дослідження, проведеного у 2011 році, пацієнти, безпосередньо до мозку яких були підключені електроди, могли рухати курсор на екрані, просто думаючи про голосні звуки.
Техніка "відображення функціонального магнетичного резонансу" (fMRI), яка дозволяє відстежувати кровотік у мозку, є перспективною для розпізнавання слів, про які думає людина.
Вивчаючи зразки кровотоку у співвіднесенні з певними зображеннями, група Джека Галланта з Каліфорнійського університету у Берклі у вересні продемонструвала, що за допомогою цих зразків можна здогадатися, про яке саме зображення думають пацієнти – відтворення "кінофільмів у мозку".
Тепер Брайан Паслі разом із групою колег з Каліфорнійського університету у Берклі, просунули цю "реконструкцію стимулу" ще на один крок уперед.
"Нас надихнула робота Джека Галланта, - каже доктор Паслі. – Питання було в тому… як глибоко ми зможемо проникнути у слухову систему за допомогою дуже простого методу моделювання".
Команда зосередилась на дослідженні ділянки мозку, що має назву верхня скронева звивина.
Ця широка ділянка є не лише частиною слухового апарату, але й одним з "високорозвинених" відділів мозку, який допомагає нам лінгвістично оформлювати звуки, що ми чуємо.
Команда досліджувала хвилі верхньої скроневої звивини 15 пацієнтів, яким робили операцію для лікування епілепсії чи пухлин, під час якої кілька різних людей промовляли певні слова і речення.
Основна складність полягала в тому, щоб розібратися в хаосі електричних сигналів, які виникали у верхній скроневій звивині пацієнтів внаслідок аудіосигналів.
Для цього команда використовувала комп’ютерну модель, що давала змогу з’ясувати рівень збудження в різних ділянках мозку під час відтворення звуків різної частоти.
За допомогою цієї моделі, коли пацієнтам надавався перелік слів, про які вони мають думати, команда мала змогу здогадатися, яке саме слово обрав пацієнт.
Вони навіть спромоглися відтворити деякі слова, перетворюючи мозкові хвилі, які вони спостерігали, знову на звуки на основі припущень комп’ютерної моделі.
"Ця робота має два аспекти, й один з них - фундаментальні знання про роботу мозку", - каже головний автор дослідження Роберт Найт з Каліфорнійського університету у Берклі.
"З протетичної точки зору люди з розладами мовлення… теоретично зможуть використовувати спеціальні пристрої, коли вони не можуть говорити, але можуть уявити, що вони хочуть сказати", - пояснює професор Найт.
"Ми отримуємо необхідні нам дані від пацієнтів, і було б добре, якби в результаті ми змогли дати їм щось навзамін", - додає професор.
Автори попереджають, що ідея перекладу думок потребує значних вдосконалень перед тим, як можна буде створити подібні пристрої.
На думку Мінді Маккамбер, логопеда з Флоридської лікарні в Орландо, такі пристрої можуть мати значні переваги.
"Як лікар, я бачу їх потенційне застосування у відновленні здатності до спілкування в пацієнтів з багатьма розладами", - сказала вона в інтерв’ю службі новин Бі-Бі-Сі.
"Розвиток безпосереднього нейро-контролю віртуальних і фізичних пристроїв стане революцією у "додатковій і альтернативній комунікації", а також значною мірою покращить життя тих, хто страждає розладами у комунікативних здібностях", - додає лікар.