В Нью-Йорке программы с искусственным интеллектом будут проверять на расизм и сексизм

Теперь компании в Нью-Йорке должны доказывать, что их программы для найма работников, основанные на ИИ, не являются сексистскими и расистскими. Если ПО не прошло проверку, то использовать его дальше станет незаконно.
В Нью-Йорке программы с искусственным интеллектом будут проверять на расизм и сексизм
Scott Graham / Unsplash

Новый закон Нью-Йорка вступит в силу 12 июля и станет первым официальным документом, регулирующим ИИ. Согласно ему, программное обеспечение, использующее машинное обучение для отбора сотрудников, обязательно должно пройти проверку. Ее будет проводить сторонняя компания, которая и решит, свободно ли ПО от расистских или сексистских предубеждений. Результаты должны публиковать, а программы, не прошедшие проверку, станут незаконными.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Компании стали получать слишком большое количество заявок и автоматизировали процесс найма. Сейчас в США инструменты, которые оценивают кандидатов автоматически, без участия HR-менеджера, стали просто необходимы.

«В век Интернета найти работу намного проще. Появились и инструменты, облегчающие этот процесс. Например, работники публикуют резюме и используют автоматическую рассылку сразу на 400 вакансий. В итоге компании получают много заявок и выбрать нужного кандидата помогают алгоритмы ИИ», — говорит Кэти О'Нил, директор фирмы, проводящей аудиты.

Нейросети и закон

В последнее время контролировать ИИ на уровне закона требуют люди творческих профессий. Они считают, что обучение на их материалах — это тоже плагиат.
В последнее время контролировать ИИ на уровне закона требуют люди творческих профессий. Они считают, что обучение на их материалах — это тоже плагиат.
Mojahid Mottakin / Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Чем популярнее становятся такие нейросети, как ChatGPT и Midjourney, тем чаще американские чиновники и руководители технологических компаний призывают контролировать действия ИИ. Но пока мало кто представляет, как можно это делать с помощью закона.

Эксперты говорят, что даже в Нью-Йоркском постановлении всё ещё есть недоработки. При этом программы, использующие машинное обучение, часто «нетолерантны». Дело в том, что информация, поступающая к ИИ, часто даже не фильтруется на наличие расизма, сексизма или шовинизма.

Получается, что уже существующую программу придется долго переобучать, чтобы во время аудита они не совершили ошибку — она станет фатальной. Либо создать новое ПО, но уже тщательнее отбирать материалы для его обучения.

Джулия Стоянович, профессор компьютерных наук в Нью-Йоркском университете сказала, что в законе не рассматривается дискриминация по возрасту или инвалидности. Как документ с такими выборочными критериями будет работать и получат ли сотрудники пользу от него, мир узнает в среду.