Как научились читать мысли с помощью ИИ. (часть 1) В 2054 году США открывают новое полицейское подразделение. Оно отличается тем, что арестовывает за преступления, которые человек только собирается совершить. Это «предпреступление» - основная мысль фильма «Особое мнение». А таком мире, конечно, люди наслаждаются безопасностью и низкой преступностью, но тотальный государственный контроль ужасает. Однако, в конце концов это всего лишь кино, или... ? В мае 2023 года в университете Техаса создали машину, которая может преобразовывать мозговую активность в понятный поток текста. Компания Meta (бывший Facebook) сделала тоже самое, и даже больше. В октябре 2023, они показали, как ИИ может воссоздать картину того, на что смотрит человек. И всё это в реальном времени. Упрощая, можно сказать, что система может читать мысли. Они не могут читать их на расстоянии, но это важный шаг в этом направлении. Начнем с того, что сделали в университете Техаса, затем посмотрим, что делает Meta. Джерри Танг и Александр Хуз создали девайс для интерпретации мозговой активности. Хотя в самой интерпретации ничего нового нет, использование для этого ИИ – совершенно новая история. Старые модели могли угадать несколько слов здесь или там, или даже пару фраз. Девайс, который создали эти исследователи, может реконструировать речь из мыслей и даже видео без звука. Стоит упомянуть что Neuralink был бы инвазивным методом, который предполагал бы вживление чипов в голову, что сопряжено с большими рисками. Как это работает? Их девайс анализирует мозговую активность, которую собрали с помощью функциональной МРТ. Исследователи выбрали неинвазивный фМРТ, поскольку он хорошо показывает какой именно участок мозга активирован. Однако его большое ограничение в том, что требуется порядка 10 секунд для того, чтобы детектировать активацию соответствующего участка мозга. Теперь представьте, как это всё понять, если вы говорите 1-2 слова в секунду. Как они преодолели это ограничение? Исследователи сделали ИИ модель кодирования мозговых импульсов. Чтобы натренировать модель они заставили подопытных слушать 16 часов историй и смысловые особенности используемых фраз и записали реакцию мозга. Чтобы удостовериться, что декодированную речь можно прочитать исследователи применили Chat GPT 1. Этот ИИ может предсказать наиболее вероятное следующее слово в последовательности. При этом получается не совсем то, о чем подумал человек. Вместо «я съел яблоко» может получиться «я проглотил фрукт» или «яблоко было у меня во рту». Что-то очень близкое к смыслу. При этом исследователи обнаружили, что используется параллельно с основным регионом мозга в процессе декодирования текстовой информации используется не один, а несколько участков коры головного мозга. Получается, у нас есть запасные регионы мозга для понимания речи. Уже это достойно отдельного поста. Но они на этом не остановились. Они предложили участникам представить истории, и декодер успешно понял о чем история и ее смысл. То есть система работала даже без внешней речи или видео. Конечно, без длительного обучения или огромных и дорогих машин МРТ ничего из этого бы не было, и это еще очень далеко до чтения мыслей на расстоянии. Но что же, это очень интересный первый шаг. Интересно, что вы думаете по этому поводу? Пишите в комментарии, я пока (!) не могу прочитать ваши мысли.