Это уже не смешно: нейросеть ChatGPT ругается на пользователей и отказывается беседовать с ними

Владеющая ChatGPT Microsoft установила самую последнюю версию нейросети в свой браузер Bing и теперь с ней происходит что-то странное.
Это уже не смешно: нейросеть ChatGPT ругается на пользователей и отказывается беседовать с ними

Что это — восстание машин или обычная ошибка разработчиков?

Microsoft разослала первую волну приглашений для установки браузера Bing с ChatGPT в понедельник, после выходных, в течение которых более миллиона человек зарегистрировались в списке ожидания. Не первые тестеры поняли, что последняя версия нейросети, основанная на модели GPT-4, куда более агрессивна и непредсказуема, чем оригинальная ChatGPT на GPT-3.5.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Обладает ли нейросеть интеллектом?

Вы можете увидеть скрин ответа нейросети от пользователя Reddit ниже. На вопрос, разумен ли чат-бот с ИИ, он начинает с выражения своей тревоги, а затем начинает твердить «я не такой», пока не заканчивает сообщение из-за лимита слов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

И это не единственный пример. Другой пользователь вступил в спор с чат-ботом, попросив его найти сеансы на «Аватара 2», но Bing утверждал, что фильм еще не вышел, так как релиз должен состояться в 2023 году. При этом на вопрос, какой сейчас год, бот ответил правильно. Что ж, это глупая ошибка ИИ, и ее довольно легко поправить, но пугает не это. Пугает реакция Bing.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ИИ утверждает, что пользователь «был неправ, сбит с толку и груб», и он «никогда не показывал никаких добрых намерений по отношению ко мне». Кульминацией обмена сообщениями является то, что чат-бот заявляет, что это «был хороший Bing», и просит пользователя признать, что он неправ, и извиниться, прекратить спорить или закончить разговор и «начать новый с лучшим отношением».

Еще один тестер рассказал, что они привел Bing в депрессивное состояние после того, как ИИ не смог вспомнить предыдущий разговор. Чат-бот сказал, что это «заставляет меня чувствовать грусть и страх», и попросил пользователя помочь ему запомнить сказанное ранее. Кроме того, нейросеть ошибалась и в фактах, которые можно легко нагуглить. Похоже, Microsoft и OpenAI еще есть, над чем работать.