Может ли человек распознать текст ИИ? Вот к чему надо готовиться в будущем!

Влияние крупномасштабных языковых моделей наподобие ChatGPT коснется практически всех уголков жизни человечества, поэтому ученые предлагают менять обучение людей.
Может ли человек распознать текст ИИ? Вот к чему надо готовиться в будущем! 
unsplash.com

Самое последнее поколение чат-ботов на основе искусственного интеллекта (ИИ) заставило многих задуматься о том, как скоро роботы начнут лишать людей работы. Опасения из-за целостности рынка труда распространились и на учебные классы, ведь преподаватели переосмысливают сам процесс обучения людей, чтобы противостоять в будущем, к примеру, ChatGPT . Ученые из Школы инженерии и прикладных наук Пенсильванского университета, США, показали, что люди могут научиться замечать разницу между текстом, созданным машиной, и текстом, написанным человеком.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
unsplash.com

Технологии будущего

Прежде чем вы увидите привлекательный рецепт блюда, поделитесь какой-либо статьей или предоставите данные своей кредитной карты, важно знать, как можно удостовериться в надежности источника информации перед вашими глазами. Исследование под руководством Криса Каллисона-Берча, доцента кафедры компьютерных и информационных наук, вместе с Лиамом Дуганом и Дафной Ипполито указывает, что сгенерированный ИИ текст поддается обнаружению.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Мы показали, что люди могут научиться распознавать тексты, сгенерированные машиной», — говорит Каллисон-Берч. «Люди начинают с определенного набора предположений о том, какие ошибки будет совершать машина, но эти предположения не обязательно верны. Со временем, имея достаточное количество примеров и подробные инструкции, мы научимся определять типы ошибок, к которым склонны машины». «Сегодня искусственный интеллект на удивление хорош в создании очень беглых и грамматически правильных текстов», — добавляет Дуган. «Но все же появляются "ошибки здравого смысла", "ошибки релевантности", ошибки рассуждения и логические ошибки».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В работе использовались данные, собранные с помощью оригинальной сетевой игры Real or Fake Text?. Эта обучающая игра примечательна тем, что меняет стандартный экспериментальный метод исследований по обнаружению текстов ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
  • В стандартных методах участников просят ответить да или нет: «Создала ли машина данный текст?». Такое задание включает в себя просто классификацию текста как настоящего или поддельного, а ответы оцениваются как правильные или неправильные.
unsplash.com

ChatGPT и человек

Модель ученых Пенсильванского университета значительно улучшает привычный метод: участникам исследования показывали примеры, где у каждого начало было с пассажей, который написал живой человек. Затем текст постепенно переходил в сгенерированный ИИ текст, а добровольцев просили отметить, где, по их мнению, начинается переход.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Наш метод не только превращает задачу в игру, делая ее более увлекательной, но и обеспечивает более реалистичный контекст для обучения [людей]», — говорит Лиам Дуган. «Пять лет назад модели ИИ не могли сосредоточиться на теме или составить беглое предложение. Теперь они редко допускают грамматические ошибки. Имейте в виду, что эти ошибки не исчезнут. Сдвиг, о котором следует беспокоиться, заключается не в том, что текст, написанный ИИ, невозможно обнаружить, а в том, что людям нужно будет продолжать тренироваться, чтобы распознавать разницу и работать с программным обеспечением для обнаружения».

«Люди беспокоятся из-за ИИ по понятным причинам, — говорит Каллисон-Берч. "Наше исследование развеивает некоторые опасения".