Роботы-охотники, роботы-дичь: Образовательные технологии

Если б роботы могли не тупо следовать заложенным в них командам, а учиться и эволюционировать... они бы, общаясь друг с другом, вскоре развили бы навыки кооперации и взаимопомощи. Если условия будут подходящи.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Об интересных событиях, которые происходят в лаборатории швейцарского профессора Дарио Флореано (Dario Floreano), мы уже сообщали не раз. Кибернетики и биологи, работающие под его руководством, создают роботизированные системы, которые в ходе «эволюции» способны вырабатывать новые модели поведения. Так, роботы научились действовать в группе — причем далеко не всегда честно («Робот роботу — волк») — и в стремлении добывать больше «пищи» легко идти на обман («Все лгут»).

На сей раз ученые использовали роботов Alice и Khepera, в которых изначально были заложены лишь базовые поведенческие алгоритмы — а также система, создававшая небольшие случайные вариации, своего рода «виртуальные мутации». Каждому следующему поколению роботов передавались, в соответствии с эволюционными принципами, те видоизмененные алгоритмы поведения, которые оказались более успешными. Что же добились роботы

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Первый эксперимент состоял в том, что роботам, оснащенным 6-ю сенсорами на одной стороне и 2-мя — на другой, требовалось найти заряжающую станцию. Те из них, кто решал задачу при минимуме столкновений с препятствиями, выбирались для передачи своего алгоритма следующему «поколению». Через 100 поколений все роботы успешно справлялись с лабиринтом, избегая столкновений. Интересно, что они выработали и новую «походку», двигаясь вперед тем боком, на котором было установлено больше сенсоров.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Второй эксперимент был уже групповым. От «семейки» роботов требовалось, подталкивая, перемещать монетку вдоль стены, пока она не окажется в указанной точке: за каждую успешную операцию начислялись очки, по которым и оценивалась успешность (крупные монетки, которые роботы не могли перемещать поодиночке, приносили больше очков). Как и прежде, наиболее эффективные в решении задачи роботы передавали свои алгоритмы следующему поколению. Однако в этот раз интересным оказалось то, что у роботов развилось «альтруистическое» поведение. Роботы нередко шли на действия, в результате которых они теряли очки, если при этом в выигрыше оказывалась группа, как целое.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Наконец, еще один интересный эксперимент состоял в использовании разных групп роботов — условно, «охотников» и «добычу». Первые оснащались датчиками, позволявшими роботам «видеть» на большое расстояние, а вторые — быстрыми «ногами». «Охотники» были запрограммированы находить «дичь» и преследовать ее, а «дичь», соответственно, убегать. Спустя 125 поколений «охотники» сами (!) развили стратегию засады: они ничем не выдавали своего желания напасть. Завидев «дичь», они следили за ней, не двигаясь, пока та повернется таким образом, что нападающий окажется в мертвой зоне видимости. Впрочем, успехов добились и «жертвы»: вскоре они приспособились к нападениям из засады и, адаптировавшись, старались ни на мгновение не выпускать «хищников» из виду.

Впрочем, главный интерес состоит в том, что изначально алгоритмы поведения, которые были заложены в роботах во всех описанных случаях, очень просты. А значит — даже самое изощренное поведение может развиться на базе изначально простейшего набора инструкций. Что и требовалось доказать.