Новый ИИ может нарисовать мысли с точностью 80%


Иллюстрация Mike MacKenzie/Flickr.

Сверху показаны снимки, которые видел человек. Снизу - то, что нарисовал ИИ, исходя из данных о работе мозга человека.

Сверху показаны снимки, которые видел человек. Снизу - то, что нарисовал ИИ, исходя из данных о работе мозга человека.
Иллюстрация Osaka University.

Сверху показаны снимки, которые видел человек. Снизу - то, что нарисовал ИИ, исходя из данных о работе мозга человека.
Искусственный интеллект обретает всё новые навыки. Уже сейчас ИИ может создавать картинки высокого качества на основе текстового описания картинки. Но даже это не предел. Следующий большой шаг — развитие ИИ, который сможет "понимать" сигналы мозга и оживлять то, что происходит в нашей голове.

Машины, которые могут узнать то, что происходит в голове человека, десятилетиями существовали лишь в научной фантастике. Но постепенно учёные не без помощи современных технологий учатся узнавать по активности мозга мысли людей.

Компьютеры сегодня могут считывать мозговые волны, а алгоритмы визуализировать образы в голове человека. Ещё в 2008 году исследователи использовали машинное обучение для захвата и расшифровки активности мозга.

В последние годы ИИ постоянно учат считывать мысли людей и преобразовывать их в текст. Также предпринимаются попытки воспроизвести мысли с помощью изображений.

Пара нейробиологов из Университета Осаки в Японии недавно заявила, что они создали новый искусственный интеллект, который работает быстрее и точнее предшественников.

Новая модель регистрирует нейронную активность с точностью около 80%. Это выяснилось в ходе тестов, результаты которых учёные представят на международной конференции по компьютерному зрению и распознаванию образов в Ванкувере.

Сверху показаны снимки, которые видел человек. Снизу – то, что нарисовал ИИ, исходя из данных о работе мозга человека.

Ю Такаги и Синдзи Нисимото использовали алгоритм под названием Stable Diffusion для создания изображений. Он преобразует текст в картинку при помощи глубокого обучения.

В качестве исходных данных исследователи использовали набор данных Миннесотского университета 2021 года, в котором были собраны мозговые волны и данные фМРТ четырёх участников. Каждый из них просмотрел около 10 тысяч изображений.

Затем эти данные фМРТ были загружены в две ИИ-модели. Они "написали" текст для Stable Diffusion.

Дело в том, что, когда люди видят фотографию или картинку, разные части мозга фиксируют всё, что касается содержания изображения, включая его перспективу, цвет и масштаб.

Несмотря на то, что достижение является значительным, в ближайшие годы такие телепаты на основе искусственного интеллекта нельзя будет купить для личного пользования.

Проблема в том, что мозговые волны у каждого человека разные. Поэтому исследователям пришлось каждый раз создавать новые модели для каждого из четырёх человек.