Открытое письмо, подписанное десятками ученых со всего мира, призывает разработчиков искусственного интеллекта (ИИ) узнавать больше о сознании людей по мере того, как системы ИИ становятся все более совершенными. «Системы ИИ, обладающие чувствами и даже сознанием человеческого уровня, — это уже не из области научной фантастики», — говорится в письме. Вот что предсказывают эксперты и чем они обеспокоены.
Совет на будущее! Вот почему надо изучать сознание человека, чтобы работать с ИИ


Искусственный интеллект и будущее
Термин ИИ охватывает компьютерные системы, способные выполнять задачи, которые обычно требуют человеческого интеллекта. Это чат-боты, способные понимать вопросы и давать ответы, подобные человеческим, и системы, способные распознавать объекты на изображениях. Generative Pre-trained Transformer 4 (GPT-4) — система искусственного интеллекта, разработанная OpenAI, создателем чат-бота ChatGPT, теперь может успешно сдать экзамен на адвоката, хотя она все еще допускает ошибки и может дезинформировать. Но это только одна функция ИИ.
Продукты искусственного интеллекта внедряются во многих секторах, включая исследования в области здравоохранения, маркетинг и финансы. Так, миллиардер Илон Маск подписал недавно письмо, в котором говорится, что дальнейшие разработки ИИ должны быть приостановлены до тех пор, пока не будут разработаны и реализованы эффективные меры безопасности.
Ассоциация науки о математическом сознании (AMCS), составившая открытое письмо под названием «Ответственное развитие повестки дня в области ИИ должно включать исследования сознания», заявила, что не знает, следует ли приостановить развитие ИИ в целом. Все это подтолкнуло специалистов к более глубокому научному пониманию сознания, того, как оно может применяться к ИИ и как общество может сосуществовать с ним: «Быстрое развитие ИИ обнажает острую необходимость ускорить исследования в области науки о сознании».
В прошлом году инженера Google уволили после того, как он заявил, что система искусственного интеллекта «разумна». Блейк Лемуан написал большую языковую модель Google Lamda, ставшую основой ИИ Bard, который якобы сумел выразить чувства. Однако Google утверждает, что Lamda делала именно то, для чего была запрограммирована — общалась по-человечески. Один из боссов Google Сундар Пичаи пояснил журналистам, что он «не полностью понимает», как работает Bard. Он добавил, что человеческий разум все еще не изучен полностью, поэтому следует начать дополнительные исследования сначала человеческого сознания, чтобы не возникли проблемные ситуации с ИИ в будущем.