Сегодня

Инженеры обучили роботов этичности

Инженеры обучили роботов этичности
Инженер обучил робота этичности, но тот не понимает — зачем Инженер из Бристольской компании Robotics Laboratory, Великобритания, создал «этическую ловушку» для робота, которая обучает машину этичности, сообщает «Blog.imena.ua».   В ходе экспериментов инженер Алан Уинфилд запрограммировал робота, чтобы тот предотвратил падение «человека» в яму, воспользовавшись знаменитым «Первым законом робототехники» Айзека Азимова. Напомним, суть закона заключается в следующем: машина ни в коем случае не может позволить, чтобы человеку был причинён вред. Задача была выполнена: едва «человек» двинулся в сторону ямы, робот бросился, чтобы убрать его с опасного пути. Затем учёный добавил второго «человека», который двигался к яме одновременно с первым, вынуждая робота выбирать, кого спасать. Иногда машина спасала одного из «людей», позволяя второму погибнуть, изредка успевала спасти обоих. Однако, в 14 случаях из 33 робот «впадал в ступор» и терял столько времени в размышлениях, что оба «человека» успевали упасть в яму. Промедления машины связаны с тем, что, несмотря на то, что робот может спасать других в соответствии с запрограммированным алгоритмом поведения, он не понимает причин своих действий. Алан Уинфилд практическим путём доказал, что точного ответа на вопрос «можно ли обучить робота этике?» пока нет. Но по мере дальнейшей интеграции роботов в повседневную жизнь человечества на этот вопрос обязательно нужно дать ответ. К слову, эксперты ожидают, что появление на дорогах беспилотных автомобилей поднимет целый ряд этических проблем, среди которых вопрос ответственности за ДТП — далеко не первый и не единственный.

Метки: {keywords}

  • Распечатать

Ссылки на материал


html-cсылка:

BB-cсылка:

Прямая ссылка: