Оригинал материала: https://3dnews.ru/567840

Шесть правил идеального робота

Технологический прогресс за последние десятилетия привел к появлению целого ряда «умных» машин, которые с течение времени только повышают свои «интеллектуальные» способности. Одновременно с этим происходит и расширение профессиональных навыков роботов – они учатся управлять автомобилем, помогать в уходе за пожилыми и больными, и даже осваивают целый ряд военных специальностей: разведчики, саперы, пехотинцы и пр. В связи с этим крайне необходимо интегрировать все более умелых роботов в человеческое общество, и для этого необходимо, по мнению Вендела Уолока, специалиста по этике Йельского Университета, и Колина Алена, историка и философа Университета Индианы, реализовать шесть правил, которые снизят опасность, исходящую от умнеющих роботов. Правило первое: не доверять роботам задач, которые связаны со значительным риском для общества. Другими словами, действия роботов должны быть предсказуемыми, а возможность катастроф сведена к минимуму. Однако уже сейчас поведение вычислительных систем не всегда возможно прогнозировать, а в будущем, по мере усложнения интеллектуальных способностей роботов и компьютеров, их «самостоятельность» будет только повышаться. Правило второе: ни при каких условиях не доверять роботам оружие, и/или не предоставлять им управление вооружением. К сожалению, предотвратить появление боевых роботов невозможно – уже разработаны и поставлены на вооружение полуавтономные роботизированные установки, в небо подняты беспилотные летательные аппараты, а несколько единиц боевых роботов были посланы в Ирак, пусть и для ознакомления с их возможностями. Правило третье: соблюдение трех законов робототехники Азимова. Знаменитые законы Айзека Азимова должны обеспечить безопасное сосуществование роботов в человеческом обществе, избежать несчастных случаев и злоупотребления роботами своими возможностями. Однако подводным камнем является тот факт, что Азимов специализировался на научной фантастике и не имел опыта в роботостроении, а значит, его законы лишены научной базы. Более того, сам автор в своих произведениях описывает ситуации, когда сформулированные им правила перестают работать в нужном направлении. Правило четвертое: программирование роботов с учетом целого ряда условий и принципов. Одним из таких принципов должен являться принцип максимально полезных действий – то есть, выбирать из целого ряда возможных поступков лишь те, которые принесут пользу как можно большему количеству людей. С другой стороны, следуя этому принципу робот может принести в жертву жизнь одного человека, чтобы спасти жизнь пятерых. Сегодня же ни один врач не способен за счет убийства одного человека спасти жизнь и здоровье других пациентов, реализация столь высоких моральных качеств – одна из главных проблем, которая встанет перед робототехниками в будущем. Правило пятое: постоянное обучение роботов. Это позволит «умным» машинам гибко изменять свое поведение с течением времени, анализировать собственные действия, выбирая из них правильные и ошибочные. Впрочем, достижение указанной цели невозможно без целого ряда технологических прорывов, ведь уровень развития современной науки не позволяет создавать действительно мыслящих и анализирующих роботов. Правило шестое: наделение роботов основным набором эмоций. Подобная «функциональность» крайне необходима для интеграции роботов в человеческое общество – машины должны с легкостью распознавать эмоции человека, на основании чего выбирать собственную стратегию поведения. Ведь не секрет, что значительная часть информации, необходимой для успешного общения человека с себе подобными, передается за счет выражения лица, языка жестов – все это должны с легкостью воспринимать и роботы. И хотя эта задача очень сложна в реализации, уже сейчас наблюдаются подвижки в создании роботов, способных распознавать эмоции. То есть, задача не является невыполнимой. Материалы по теме: - IT-байки: Роботы против людей или люди против роботов?;
- Универсальный робот-разведчик Viper для армии обороны Израиля;
- Робот-официант CAFERO.



Оригинал материала: https://3dnews.ru/567840