А киберсудьи кто? Может ли искусственный интеллект вершить правосудие и перед кем сами роботы будут отвечать в суде

Не секрет, что в последнее десятилетие искусственный интеллект активно развивается и проникает практически во все сферы нашей жизни, претендуя на то, чтобы стать ее привычным участником. Здесь возникает справедливый вопрос: что такое ИИ, может ли ИИ нарушать наши права? Если да, то кто за это будет отвечать? Об этом рассказывает Виктор Наумов, ученый-правовед, соавтор первого в России закона о роботах (2016), управляющий партнер офиса Nextons в Санкт-Петербурге, руководитель проекта «Сохраненная культура».
А киберсудьи кто? Может ли искусственный интеллект вершить правосудие и перед кем сами роботы будут отвечать в суде
Unsplash

ИИ в законе

Активное распространение технологий ИИ и повальная мода на них идут рука об руку. Маркетологи взяли за правило добавлять словосочетание «искусственный интеллект» к описанию многих технически сложных продуктов вне зависимости от того, что у них находится внутри. Распространение новостей и аналитики о «цифре» временами напоминает хорошо выстроенную рекламную кампанию. Технологии ИИ уже дали миру и новую индустрию беспилотников, которые в скором будущем могут лишить немалое количество водителей работы; и софт на генеративных алгоритмах, как по мановению волшебной палочки, за минуты создающий непростые картинки и тексты, а также «дипфейки», за которыми обычному человеку трудно отличить правду от лжи.

Кампания по популяризации использования технологий ИИ и роботов в мире набирает обороты. Одновременно с этим появляются и мнения о том, что человечество не совсем понимает, куда оно движется, и как можно, если понадобится, ограничить столь стремительный прогресс.

В мире довольно давно стали разрабатывать и даже принимать нормативно-правовые акты об использовании ИИ. Часто это делается скорее в угоду моде – для демонстрации прогрессивного характера регулирования. Еще чаще появляются документы с громкими названиями, которые на самом деле просто излагают расплывчатые этические правила о том, «что такое хорошо и что такое плохо» при создании таких технологий и взаимодействии с ними.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Практически у всех имеющихся примеров (скажем, у нас в России действует не очень известный федеральный закон 2020 года, дающий определение ИИ) есть общий недостаток: в них либо весьма нечетко и спорно дается определение, что такое ИИ, либо его нет вовсе.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

Пока у авторов законов и актов в разных странах мира нет консенсуса в отношении подходов к формированию юридической терминологии. Кто-то в текстах законов, доктрине и научных исследованиях ссылается на имитацию когнитивных функций человека, возникают такие формулировки, как «не хуже, чем человек», предпринимаются попытки деления на сильный и слабый ИИ, в определениях обозначаются сферы применения и указывается на уровень рисков при использовании таких технологий, приводятся сравнения с информационными системами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Такое разнообразие объяснимо: в технологической и естественнонаучной сферах существует десятки определений ИИ, а разработчики часто не понимают, как тренируемые алгоритмы работают, и сейчас у права пока не получается предложить безупречный и сбалансированный набор юридических понятий. Почему речь идет именно о наборе? Все просто: важно учитывать, что в отношениях задействованы различные объекты и субъекты. Так, нужно определить правовой статус и разработчиков технологий, и тех, кто их обучает, и пользователей всех этих технологических решений.

Сложившуюся ситуацию с правовым регулированием ИИ можно сравнить, например, с космическим правом, которое было модно несколько десятилетий назад, а потом оказалось почти забытым и только сейчас снова набирает популярность. Сегодня же у правоведов ситуация похожая: есть общественные отношения, есть много слов о роботах, существует какое-то (скромное) регулирование, а само явление юридически системно не описано. В прошлые века или десятилетия это не представляло бы особой проблемы, темп жизни был другой, но сейчас все слишком быстро меняется.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

Далее ситуация в регулировании может развиваться различными путями. Первое решение лежит буквально на поверхности: кажется логичным требовать от разработчиков и владельцев технологий и систем указывать, какие именно решения в сфере ИИ они используют. Тогда пользователи смогут понимать, с чем конкретно они взаимодействуют. В перспективе обозначения вроде «ИИ внутри» могут стать обязательными, а за их неправильное употребление может быть введена юридическая ответственность. Водораздел в регулировании также может пройти по линии человек/не человек.

Уже сегодня, например, в сфере контента мы видим смешение между объектами, созданными человеком, и сгенерированными ИИ. И важно определить, кем или чем был создан определенный объект.

Могут ли быть киберсудьи независимыми?

Вагоны фантастики написаны об умных роботах, которые наравне, а где-то и вопреки человеку, покоряют мир; фантасты пишут и о роботах-судьях. Существуют ли последние сейчас?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Пока нет, но использование технологий ИИ в правосудии – тема не новая и довольно неоднозначная. Несмотря на то, что ИИ сегодня применяется в юридической сфере, до сих пор любые судебные решения во всем мире принимаются человеком, хотя создаются так называемые рекомендательные аналитические системы, которые упрощают анализ массы судебных дел, ищут среди них содержательные аналоги и дают уже численную оценку исходу рассмотрения споров. Это очень удобно, но оказывает влияние как на независимость судей, так и на квалификацию принимаемых решений, потому что мы не знаем, кто, как и насколько качественно обучал соответствующий ИИ.

Правосудие здесь зависит от поставщиков решений, имеющих исключительно коммерческие интересы. Сколько в жизни ситуаций, когда интересы извлечения прибыли ставятся во главу угла в ущерб интересам окружающих? Очень много. И это значит, что в ряде сфер разработки и использования ИИ должен быть особый контроль за внедрением технологий, а где-то они могут быть даже запрещены.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

На эту проблему обратили внимание и в США, где подобные системы начали тестироваться раньше. Сейчас там идет жаркая дискуссия в судебном сообществе по этому вопросу, и раздается все больше голосов против внедрения модных технологий.

Unsplash

Не суди, да не судим?

Во всех странах мира законодательство не рассматривает ИИ как субъект права. ИИ – это объект. Значит, пока мы не живем в обществе трансгуманизма и в нашем распоряжении нет сильного ИИ, ответственность по закону может наступить только для субъектов, а это всем известный закрытый перечень, куда входят физические и юридические лица. Вопрос в том, как быть, когда ИИ преступает закон, точнее сказать, кого из существующих субъектов права привлекать к юридической ответственности в случае негативных последствий от использования ИИ. Можно ли и нужно ли запрещать те или иные технологии, их разработку или налагать на этот процесс жесткие ограничения?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Очевидно, что объем использования ИИ для решения узкоспециализированных задач растет. Доверяют ли ИИ комплексные или стратегические задачи (вспоминаем «Терминаторов» со «Скайнетом»), мы сейчас не узнаем. Вместе с тем задачи, решаемые ИИ, становятся сложнее. Достаточно посмотреть на беспилотный транспорт: водителей начнут в недалеком будущем массово увольнять. Поскольку сфера применения технологий становится все шире, в ней все чаще будут возникать обстоятельства, приводящие, например, к причинению физического или психического вреда здоровью человека.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Если мы в скором времени не определим, какие нормы юридической ответственности будет содержать законодательство, то подобная ситуация навредит интересам государства, общества и даже производителей, для которых риски с неурегулированностью таких ситуаций будут приводить к занижению оценки прибыли.

В России уже вовсю тестируют беспилотные автомобили. В случае классических происшествий законодательство определяет систему юридической ответственности, включая уголовную, для участников движения, гораздо более редки случаи привлечения к ответственности производителей. При добавлении ИИ ситуация усложняется, и особый интерес представляет вопрос, в каких обстоятельствах мы будем привлекать к ответственности разработчиков и даже авторов алгоритмов и программных решений. При этом нужно понимать, что уже сейчас очень трудно установить, кто же на самом деле виноват. Так, расследования первых серьезных аварий с участием автомобилей Tesla занимали очень много времени. Для выяснения обстоятельств необходима глубокая и дорогостоящая техническая экспертиза, она не всегда будет содержать однозначные результаты, ее можно будет оспаривать. Разбирательства в итоге будут длиться годами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

С учетом всего этого в мире рассматривают механизмы страхования ответственности, когда производители сложных решений с помощью страховых компаний создают специальные фонды, чтобы нивелировать часть наступающих негативных последствий. Можно не сомневаться, что взносы в эти фонды будут незаметно включаться в потребительскую стоимость товаров или услуг, где используются технологии ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Для формирования полноценного законодательства в сфере искусственного интеллекта потребуется сформировать юридическую позицию по большому спектру вопросов. Ответы на них должны даваться юристами только при условии тесного взаимодействия с обширным кругом специалистов. При этом не стоит забывать, что все изменения должны осуществляться во благо человека и человечества. Этот звучащий абстрактно лозунг может вызывать разную реакцию у тех, кто об этом задумывается, — а таких меньшинство.

Нельзя бездумно вести людей к сложным судьбоносным решениям, не объясняя их гипотетические последствия. Где-то, возможно, уместно будет «притормозить» и дать, например, человеку возможность выбора, оформив его как «право на добровольный осознанный отказ от цифровых технологий» и сохранив возможность делать что-либо «по старинке».