Перепрошивка памяти: новая модель памяти, которая работает как мозг

Новая модель памяти, разработанная командой из университетов Падуи и Санта-Барбары, предлагает объяснение того, как внешние стимулы помогают нам восстанавливать воспоминания. Модель устойчива к шуму и может отсеить слабые воспоминания в пользу стабильных и значимых, что позволяет использовать ее в будущих системах искусственного интеллекта.
Владимир Губайловский
Владимир Губайловский
Перепрошивка памяти: новая модель памяти, которая работает как мозг
Модели сети мозга. Вместо того чтобы применять двухэтапный алгоритм восстановления воспоминаний на довольно статичном энергетическом ландшафте оригинальной модели сети Хопфилда, исследователи описывают динамический механизм, управляемый входом. Neuroscience News
Послушайте первые ноты старой, любимой песни. Можете ли вы назвать эту мелодию? Если сможете, поздравляем — это хорошая работа вашей ассоциативной памяти, в которой одна часть информации (первые несколько нот) вызывает в памяти весь паттерн (песню), при этом вам не нужно переслушивать остальную часть песни, — она прозвучит у вас в голове. Мы используем этот удобный нейронный механизм, чтобы учиться, запоминать, решать проблемы и вообще ориентироваться в реальности.

«Память — это сетевой процесс», — говорит профессор Калифорнийского университета в Санта-Барбаре Франческо Булло, объясняя, что ассоциативные воспоминания не хранятся в отдельных клетках мозга. — «Хранение и извлечение воспоминаний — это динамические процессы, которые происходят в целых сетях нейронов».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Продвинутая сеть Хопфилда

В 1982 году физик Джон Хопфилд перевел эту теоретическую концепцию нейронауки в сферу искусственного интеллекта. При этом он не только дал математическую основу для понимания, хранения и извлечения памяти в человеческом мозге, но и разработал одну из первых в истории рекуррентных искусственных нейронных сетей — сеть Хопфилда — известную своей способностью извлекать полные паттерны из зашумленных или неполных входных данных. Хопфилд получил Нобелевскую премию по физике за свою работу в 2024 году.

Схема сети Хопфилда для 3 нейронов.
Схема сети Хопфилда для 3 нейронов.
Википедия
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако, по словам Булло и его коллег Симоне Беттети, Джакомо Баджо и Сандро Дзампьери из Падуанского университета в Италии, традиционная модель сети Хопфилда эффективна, но она не рассказывает всю историю о том, как новая информация управляет извлечением воспоминаний.

В статье, опубликованной в журнале Science Advances, ученые отмечают, что роль входных стимулов в значительной степени не изучена, но от их влияния на нейронную динамику зависит эффективное извлечение воспоминаний. Исследователи предлагают модель, которая, по их словам, более точно описывает то, как мы вспоминаем.

Как входящий сигнал управляет памятью

Сравнение классической модели Хопфилда и модели Хопфилда IDP.
Сравнение классической модели Хопфилда и модели Хопфилда IDP.
https://www.science.org/doi/10.1126/sciadv.adu6991
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Главный вопрос, вдохновлявший ученых, был таким: как сигналы, которые мы получаем от окружающего мира, помогают нам извлекать воспоминания?

Хопфилд предложил представить извлечение воспоминаний в терминах энергетического ландшафта, в котором долины являются энергетическими минимумами, где и «лежат» нужные воспоминания. Извлечение воспоминаний похоже на исследование этого ландшафта. Припоминание происходит, когда вы спускаетесь в нужную долину. Ваше начальное положение на ландшафте — это ваше начальное энергетическое состояние.

«Представьте, что вы видите хвост кошки», — говорит Булло. — «Не всю кошку, а только хвост. Наша ассоциативная система памяти способна восстановить всю кошку». Согласно традиционной модели Хопфилда, хвоста кошки (стимула) достаточно, чтобы сразу поместить вас ближе всего к долине с надписью «кошка». Но как вы попадаете именно в это место не вполне ясно.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Классическая модель Хопфилда не объясняет подробно, как хвост кошки помещает вас в нужное место, чтобы дальше спуститься в долину и достичь минимума энергии, то есть вспомнить всю кошку», — говорит Булло.

Созданная учеными модель получила название IDP (Input-Driven Plasticity или пластичность, управляемая входными данными). Эта модель разработана, чтобы устранить эту неясность с помощью механизма, который постепенно объединяет прошлую и новую информацию, направляя процесс доступа к правильному воспоминанию. Исследователи описывают динамический механизм, управляемый входными данными.

«Мы отстаиваем идею о том, что само получение стимула из внешнего мира (например, изображения кошачьего хвоста) не просто помещает нас в определенное положение на ландшафте, а сразу изменяет ландшафт», — говорит Булло. — «Стимул упрощает энергетический ландшафт, так что независимо от вашего начального положения вы спускаетесь к правильному воспоминанию о кошке».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Устойчивость к шуму и механизм внимания

Энергетические ландшафты для модели Хопфилда IDP для различных весовых коэффициентов.
Энергетические ландшафты для модели Хопфилда IDP для различных весовых коэффициентов.
https://www.science.org/doi/10.1126/sciadv.adu6991

Кроме того, говорят исследователи, модель IDP устойчива к шуму — ситуациям, когда входные данные неопределенны, неоднозначны или частично скрыты — и фактически использует шум как средство для фильтрации менее стабильных воспоминаний (это позволяет модели не застревать в неглубоких долинах этого энергетического ландшафта) в пользу более стабильных.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Мы начинаем с того, что когда вы смотрите на сцену, ваш взгляд перемещается между различными компонентами сцены», — говорит Беттети. — «Таким образом, в каждый момент времени вы выбираете то, на чем вы хотите сосредоточиться, но вокруг вас много шума. Как только вы фиксируете входные данные, сеть устанавливает их приоритетность».

Выбор стимула, на котором следует сосредоточиться, или механизм внимания, является основным механизмом, лежащим в основе другой архитектуры нейронной сети — трансформера, который стал сердцем больших языковых моделей, таких как ChatGPT.

Хотя модель IDP, предлагаемая исследователями, «начинается с совершенно другой начальной точки с другой целью», говорит Булло, у модели есть большой потенциал быть полезной при проектировании будущих систем машинного обучения: «Мы видим связь между ними, и статья описывает ее. Это не является основной темой статьи, но есть надежда, что наша система ассоциативной памяти и большие языковые модели могут быть согласованы».