«Прозрачная» ИИ-модель может объяснить, как она обучается и принимает решения

Исследователи Лафборского университета разработали прототип ИИ-модели, которая может объяснить каждый шаг своего обучения и принятия решений. Этого не могут стандартные нейросети — «черные ящики», но это крайне важно для уверенности в их корректной работе. Прозрачной модели — можно доверять.
Владимир Губайловский
Владимир Губайловский
«Прозрачная» ИИ-модель может объяснить, как она обучается и принимает решения
Иллюстрация, созданная с помощью ИИ, на которой сравниваются прозрачный ИИ и ИИ типа «черный ящик». Loughborough University
«Черный ящик» в ИИ — это не метафора, а системная проблема. Большинство современных нейросетей, включая большие языковые модели, не могут объяснить, почему они дают тот или иной ответ: веса миллиардов параметров взаимодействуют непредсказуемо. Особенно остро это вопрос стоит в медицине и праве, где алгоритм обязан не только быть точным, но и давать обоснование решения. Принятый в 2018 году европейский регламент GDPR закрепил «право на объяснение» для автоматических решений, но большинство систем глубокого обучения технически не способны его реализовать.

Исследователи опубликовали в журнале Physica D: Nonlinear Phenomena математическую основу для построения «прозрачных» систем ИИ. Прототип имеет аналоги и «мозга», и памяти: он обучается непрерывно, не теряя прошлых знаний, не формирует ложных воспоминаний и воспроизводит ключевые свойства человеческого мышления — усиление или постепенное забывание информации — контролируемым и предсказуемым образом.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В тестах система без учителя распознавала музыкальные ноты и короткие фразы, идентифицировала цвета на изображениях. При этом ни разу не проявила «катастрофического забывания» — феномена, при котором нейросеть, усваивая новое, стирает ранее выученное.

Схематическое изображение формирования и исчезновения аттрактора в сети из 3 нейронов при изменении входных данных.
Схематическое изображение формирования и исчезновения аттрактора в сети из 3 нейронов при изменении входных данных. https://www.sciencedirect.com/science/article/pii/S0167278926001247?via%3Dihub
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Интеллект моделей долгое время считался чем-то, что возникает внутри черного ящика, — говорит ведущий автор работы, доктор Наталья Янсон. — Мы хотели переосмыслить ИИ с нуля и построили систему, в которой внутренняя работа понимания и познания полностью прозрачна».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Математика прозрачности

Изменение весов связей обучаемой нейронной сети Хопфилда.
Изменение весов связей обучаемой нейронной сети Хопфилда. https://www.sciencedirect.com/science/article/pii/S0167278926001247?via%3Dihub

В основе подхода лежит концепция «пластичного векторного поля» — математического описания того, как информация изменяется со временем по образцу мозговых процессов. Это позволяет отслеживать каждый этап обучения и понимания. Причем прозрачность встроена изначально, а не добавлена в готовую модель.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Команда также изучила существующие нейросети и установила: их ограничения не случайны, они заложены в самой архитектуре. «Можно ясно видеть, почему современные нейронные сети с трудом поддаются интерпретации, — отмечает соавтор работы профессор Александр Баланов. — Сама их конструкция делает невозможным полный контроль над тем, как они учатся и хранят информацию».

Прототип пока совсем небольшой по масштабу и требует развития для реального применения. Команда планирует адаптировать его для новых типов аппаратного обеспечения с целью создания ИИ, которому можно доверять: от медицинских инструментов до систем автоматизированного принятия решений.