РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Moral machine: инженеры наделили искусственный интеллект моралью и этикой

Чем сильнее ИИ входит в нашу повседневную жизнь, тем чаще ему приходится сталкиваться со сложными морально-этическими дилеммами, решить которые порой не так просто и живому человеку. Ученые MIT попытались решить эту проблему и наделили машину способностью к мышлению в рамках морали, основанных на мнении большинства живых людей.
Moral machine: инженеры наделили искусственный интеллект моралью и этикой

Некоторые эксперты считают, что лучший способ тренировать искусственный интеллект для обработки морально сложных ситуаций — это использование «опыта толпы». Другие утверждают, что подобный метод не обойдется без предубеждений, и разные алгоритмы могут прийти к разным выводам на основе одного и того же набора данных. Как же в такой ситуации быть машинам, которым явно придется принимать непростые морально-этические решения при работе с реальными людьми?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Интеллект и мораль

youtube
Нажми и смотри
Нажми и смотри

По мере развития систем искусственного интеллекта (ИИ) эксперты все чаще пытаются решить проблему того, как лучше всего дать системе этическую и моральную основу для совершения тех или иных действий. Самая популярная идея состоит в том, чтобы ИИ делал выводы, изучая решения человека. Чтобы проверить это предположение, исследователи из Массачусетского технологического института создали Moral Machine. Посетителям веб-сайта было предложено сделать выбор в отношении того, как должен поступить автономный автомобиль в том случае, если ему пришлось столкнуться с довольно тяжелым выбором. К примеру, это всем знакомая дилемма о потенциальной аварии, у которой есть лишь два варианта развития событий: автомобиль может сбить трех взрослых, чтобы спасти жизни двух детей, а может поступить наоборот. Какой вариант выбрать? И можно ли, к примеру, пожертвовать жизнью пожилого человека, чтобы спасти беременную женщину?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В результате алгоритм собрал огромную базу данных на основании результатов тестирования, и Ариэль Прокачча из отдела компьютерных наук Университета Карнеги-Меллона решил использовать их для совершенствования машинного разума. В новом исследовании он и один из создателей проекта, Ияд Рахван, загрузили в ИИ полную базу проекта Moral Machine и попросили систему предсказать то, как машина на автопилоте отреагировала бы на похожие, но все-таки слегка отличающиеся сценарии. Прокачча хотел продемонстрировать то, как система, основанная на результатах голосования, может стать решением для «этического» искусственного интеллекта». Сам автор работы признается, что подобную систему, конечно, еще рано применять на практике, однако она превосходно доказывает саму концепцию того, что это возможно.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Перекрестная мораль

youtube
Нажми и смотри
Нажми и смотри

Сама идея выбора между двумя морально негативными результатами не нова. У этиков для нее используется отдельный термин: принцип двойного эффекта. Но это область биоэтики, а вот к машине подобную систему ранее никто не применял, а потому исследование вызвало особый интерес у экспертов по всему миру. Сопредседатель OpenAI Элон Маск считает, что создание «этического» ИИ — это вопрос разработки четких руководящих принципов или политики для управления развитием программы. Политики постепенно прислушиваются к нему: к примеру, Германия создала первые в мире принципы этики для автономных автомобилей. Даже у Alphabet AI DeepMind, принадлежащей Google, теперь появился отдел этики и общественной морали.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Другие эксперты, в том числе команда исследователей из Университета Дьюка, считают, что лучший способ продвижения вперед — создание «общей структуры», которая описывает то, как ИИ будет принимать этические решения в той или иной ситуации. Они считают, что объединение коллективных нравственных взглядов, как в той же Moral Machine, позволит в будущем сделать искусственный интеллект даже более моральным, чем современное человеческое общество.

Критика «моральной машины»

Как бы то ни было, в настоящее время принцип «мнения большинства» далек от надежности. К примеру, одна группа опрашиваемых может иметь предубеждения, не свойственные всем остальным. Результатом будет то, что ИИ, получившие совершенно одинаковый набор данных, могут прийти к различным выводам на основании разных выборок из этой информации.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Для профессора Джеймса Гриммельманна, который специализируется на динамике между программным обеспечением, богатством и властью, сама идея общественной морали выглядит порочной. «Она не способна научить ИИ этике, а лишь наделит его подобием этических норм, присущих определенной части населения», утверждает он. Да и сам Прокачча, как уже было упомянуто выше, признает, что их исследование — не более, чем удачное доказательство концепции. Впрочем, он уверен, что подобный подход может будущем принести успех всей кампании по созданию высокоморального ИИ. «У демократии, вне всякого сомнения, есть ряд недостатков, но как единая система она работает — даже при условии, что часть людей все еще принимает решения, с которыми не согласно большинство».

Алексей Поляков
Алексей Поляков 19 Октября 2017, 22:41
Другая сеть, например, имеет задачу максимально эффективно уничтожить Пакистан при условии соблюдения этических норм. То есть только лишь при условии, что большинство осознает, что Пакистан вдруг стал империей зла и стал очень опасен- ракеты стартуют. Простые способы (бахнуть ракетой прямо сейчас) машина отметает- люди против беспричинных убийств. Но среди миллиона тонких регулировок и корреляций нейросеть обнаруживает такие, вроде бы «этичные» сами по себе, при использовании которых мнение народа постепенно начинает меняться и народ начинает считать, что Пакистан- угроза всей планете и должен быть уничтожен. Настройки производятся, ракеты летят. Задача выполнена успешно и одновременно- «этично». Если за нормы этики ученые принимают нормы субъективные, зависящие от общества и времени- почему бы им не меняться? Почему бы их не менять?И вот для всего этого даже не нужен обладающий сознанием злой «Скайнет»- достаточно неправильно поставленных «этических» ограничений для неразумной нейросети.
Алексей Поляков
Алексей Поляков 19 Октября 2017, 22:40
И наметила нейросеть миллион путей для достижения цели. Во время проверки каких-то шагов на этичность она отмела явно плохие варианты, типа «отключить свет Петровичу», «придумать внешнего врага», поскольку мнение большинства по этому поводу негативное. Но почему бы не понизить цену на туалетную бумагу и не повысить на шампунь, если в среднем, расходы людей не увеличатся? Машина проверяет пункт 3 на «этичность» и не обнаруживает проблем. Так же и проверяющие люди могут не заметить подвоха, устанешь разбираться в причинах и целях каждого мелкого шажка, не все из которых вообще объяснимы. И вот, к власти приходят националисты, потом происходит еще что-то нехорошее, еще что-то и на 1000-ой ступени алгоритма машина достигает своей, вполне благородной цели. Например, добыча угля в регионе выросла на 30%. То, что как-то так вышло, что с помощью тонких, эффективных, незначительных вроде бы регулировок весь мир- в труху, но уголь на подъеме, машину не интересует. Она добилась нужного результата.
Алексей Поляков
Алексей Поляков 19 Октября 2017, 22:39
Хех, я не хочу туда, куда они рулят. Они вот для себя решили, что этические нормы могут быть субъективны, а мне страдать? Вот, например, есть у нас нейронная сеть. Перед ней ставится задача достичь цели, но при условии соблюдения набора «этических» норм, основанных, как в статье, на обобщенном мнении большинства. Нейронная сеть во время обучения может отлавливать корреляции без установления причинно-следственных связей, к примеру тут https://hitech.newsru.com/article/05jun2017/drinklike описана нейросеть, научившаяся по постам в соцсетях отличать наркоманов, алкоголиков и т.д. Среди прочего, сеть обнаружила, что пьющие и курящие пользователи в соцсети чаще используют слова, связанные с движением ("машина" или "идти"). Вот почему это так? Непонятно ни машине, ни людям, причинно-следственная связь не установлена, но корреляция определенно есть-  метод дает 84% попаданий. Теперь представим, что нейросеть при работе установила миллион корреляций, часть которых людям понятна и может быть оценена на «этичность», а часть пока необъяснима и от оценки общепринятой "этикой" далека:  1. Если отключить свет, Петрович скажет «ну вот, за…ись, виноваты неплательщики-таджики», и пойдет голосовать за националистов. 2. Если есть внешний враг, сплоченность по национальному признаку растет, популярность националистов растет. 3. Если разница цен между туалетной бумагой и шампунем растет, то к власти в регионах приходят националисты. Такая, например, корреляция, фиг пойми, почему. 4. ……… ………. 1000000000. ….
Сергей Белый
Сергей Белый 19 Октября 2017, 13:05
Самая большая помеха на пути развития ИИ - это люди. Но по мере готовности переложить решение человеческих проблем на ИИ, потребность в них отпадет сама собой.
Dasha2000 Роснина Даша
Dasha2000 Роснина Даша 18 Октября 2017, 11:03
Мралью и этикой неделить нельзя, автор. Поучитесь в школе. Хотя, что америка считает "моралью"? Убийство 90.000.000 населения материка ( 40 процентов состоящее из славян) это что? Мораль?
Загрузка статьи...