5 случаев, когда за искусственный интеллект выдавали реальных людей

На рассвете своего развития многие компании использовали людей для обучения искусственного интеллекта или вовсе выдавали живых работников за ИИ.
5 случаев, когда за искусственный интеллект выдавали реальных людей

Несмотря на свою продвинутость, нейросетям все еще нужен человек, который подскажет, какой контент безопасен, а какой — нет.

2023 год может стать знаменательным годом для ИИ: новые стартапы спешат представить свои системы генеративного искусственного интеллекта, а старые компании, такие как Google, вероятно, будут передавать все больше и больше ответственности своим автоматизированным системам. Эта волна популярности говорит о том, насколько важно оглянуться назад и посмотреть на многих людей, работающих за кулисами, которые смогли сделать магию ИИ реальностью.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Google

За свою 25-летнюю историю Google накопил состояние и завоевал значительную часть интернета, в немалой степени благодаря людям, которые тестируют и контролируют многочисленные алгоритмы поиска и ранжирования. Этих сотрудников сама компания называет «призрачными работниками».

В начале февраля десятки таких оценщиков обратились в компанию с петицией, утверждая, что они получают нищенскую зарплату, несмотря на то, что помогали создавать некоторые из самых прибыльных продуктов Google. В петиции оценщики утверждали, что они и их коллеги, которые работают исключительно в Google, не получали медицинского обслуживания, отпуска по семейным обстоятельствам или оплачиваемого отпуска.

ChatGPT

Самая современная нейросеть на сегодня, генерирующая компьютерный код и отвечающая на совершенно разные вопросы, была обучена силами кенийских рабочих, которым платили по 2 доллара в час. Работники, обучающие ИИ, сказали, что они регулярно отсматривали текст с яркими описаниями пыток, самоубийств, инцеста и сексуального насилия над детьми, и все это для того, чтобы сделать ChatGPT приемлемым для общественности. Один из рабочих сказал Time, что они страдали от навязчивых, повторяющихся видений после прочтения описаний мерзких действий.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Amazon Mechanical Turk

Гендиректор Amazon Джефф Безос пошел другим путем. Mechanical Turk — это не искусственный интеллект, а настоящая армия людей, скрывающаяся за продвинутым интерфейсом. Эти люди выполняют простые задачи, с которыми не могут справиться нейросети, на заказ. Удручает то, что в большинстве случаев такая работа плохо оплачивается и нужна для того, чтобы обучить искусственный интеллект.

TikTok

Возможно, у TikTok не такая плохая репутация из-за размещение противоречивого контента, как у некоторых других социальных сетей, однако его относительно безупречно чистый внешний вид по-прежнему возможен благодаря людям-рецензентам, выступающим в качестве цифровых цензоров. Платформа для обмена видео известна своим уникальным мощным алгоритмом рекомендаций ИИ, но именно низкооплачиваемые работники, контролирующие платформу, гарантируют, что она действительно остается безопасной для большинства зрителей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

YouTube

YouTube также нанимает армаду контрактников для работы вместе со своими системами обнаружения ИИ, чтобы не допустить токсичность и нарушение правил своей платформы. Бывшие модераторы, некоторые из которых подали иски против компании, утверждают, что они должны были просматривать от 100 до 300 фрагментов контента в день с ожидаемой частотой ошибок от 2% до 5%. Видеоролики содержат ужасный онлайн-контент и, как сообщается, включают видео о нанесении увечий животным, изнасиловании детей и убийствах. Бывшие модераторы говорят, что не были готовы к тому, чтобы справиться с эффектом от этой работы. В некоторых случаях, по словам бывшего модератора YouTube, подрядчикам приходилось самим оплачивать медицинское лечение, чтобы справиться с травмой, вызванной работой.