Когда технологии читают мысли
19.09.2025

Технологии, которые ещё недавно казались фантастикой, сегодня становятся частью реальности. Учёные и инженеры всё активнее работают над системами, способными напрямую взаимодействовать с мозгом человека. Эти разработки открывают новые возможности, но одновременно ставят вопросы о границах допустимого.

Одним из самых обсуждаемых примеров стал эксперимент в Китае. Там власти начали тестировать специальные умные повязки, которые считывают уровень концентрации школьников. AI-повязки BrainCo Focus используют датчики электроэнцефалографии (EEG), которые считывают электрические сигналы мозга. Алгоритмы искусственного интеллекта обрабатывают данные и в режиме реального времени определяют уровень концентрации ученика. Если школьник сосредоточен, на повязке загорается красный индикатор, если отвлёкся – синий. По задумке авторов, это должно помогать поддерживать внимание и улучшать учебный процесс.

Новость быстро разлетелась по соцсетям. Многие родители и интернет-пользователи выразили опасения, что такие технологии нарушают права детей и создают риск утечки личных данных. Другие сомневаются в реальной эффективности гаджетов и указывают на психологическое давление на школьников.

31 октября 2025 года местное управление образования объявило, что использование устройства приостанавливается, а школы обязаны провести самопроверку, чтобы исключить возможность утечки данных.

В тот же день компания BrainCo выступила с заявлением: по её словам, повязка предназначена не для персонального контроля, а для тренировки концентрации с помощью метода нейрофидбэка.

Несмотря на заявления компании, большинство пользователей встретили новинку в штыки. Согласно опросу Economic Daily, 88% из более чем 3 000 респондентов сочли такую практику ненужной или даже недопустимой.

Эксперты в сфере образования также выразили опасения: технология может сформировать у детей «демонстративное поведение» вместо реальной концентрации, а сам процесс обучения будет зависеть от машин, а не от учителей.

Параллельно в США идут исследования совсем другого уровня. Один из ключевых экспериментов был проведён исследователями из Стэнфордского университета. Учёные создали систему, которая с помощью нейроимпланта «расшифровывает» внутренний монолог пациентов с тяжёлыми нарушениями речи. В испытаниях приняли участие сразу четыре человека, потерявшие возможность говорить после инсультов и других заболеваний.

Имплант фиксировал электрическую активность мозга, а алгоритм на базе искусственного интеллекта переводил её в текст. Система декодировала внутреннюю речь с уровнем ошибок от 14% до 33% для словаря в 50 слов. При тестировании на большом словаре в 125,000 слов уровень ошибок составил от 26% до 54%. Это ниже точности при распознавании попыток реальной речи, но достаточно для доказательства принципа.

нейроимплант

Особенностью системы стал «мысленный пароль» — механизм безопасности, который активирует декодирование только после того, как пользователь мысленно произнесет заранее заданное слово. В одном из тестов определенная фраза разблокировала интерфейс с вероятностью более 98%. Это предотвращает случайное считывание мыслей и защищает конфиденциальность пользователя.

Технология также улавливала непреднамеренные мысли, например, цифры, когда участники считали предметы. Это первый случай успешной расшифровки именно внутренней речи, а не попыток артикуляции. Ученые считают, что новинка открывает путь к более естественному и быстрому общению для людей с параличом.

В дальнейшем исследователи планируют усовершенствовать датчики и алгоритмы, а также изучить другие области мозга, отвечающие за восприятие языка.
Цель — создать нейроинтерфейс, который позволит общаться так же быстро и плавно, как при обычной речи.

Все эти примеры демонстрирует потенциал нейротехнологий, но также и опасности: от утечки данных до возможных манипуляций сознанием.
Будущее, о котором раньше писали фантасты, наступает на наших глазах. И от того, как будут регулироваться эти разработки, зависит, станет ли оно временем новых возможностей или эпохой тотального контроля.