Разработаны шесть правил, которые спасут человечество от власти роботов
20 ноября 2008 года
Прогресс последних десятилетий привел к появлению целого ряда "умных" машин, которые с течение времени только повышают свои "интеллектуальные" способности. Одновременно с этим происходит и расширение профессиональных навыков роботов ? они учатся управлять автомобилем, помогать в уходе за пожилыми и больными, и даже осваивают целый ряд военных специальностей: разведчики, саперы, пехотинцы и пр.
Чтобы интегрировать умнеющих на глазах роботов в человеческое общество, необходимо соблюдать шесть правил, которые снизят опасность, исходящую от этих машин. Таково, как сообщает 3dNews.ru (Архивная копия от 2 октября 2012 на Wayback Machine), мнение Вендела Уолока, специалиста по этике из Йельского Университета, и Колина Алена, историка и философа из Университета штата Индиана (США).
Правило первое: не доверять роботам задач, которые связаны со значительным риском для общества. Другими словами, действия роботов должны быть предсказуемыми, а возможность катастроф сведена к минимуму. Однако уже сейчас поведение вычислительных систем не всегда возможно прогнозировать, а в будущем, по мере усложнения интеллектуальных способностей роботов и компьютеров, их "самостоятельность" будет только повышаться.
Правило второе: ни при каких условиях не доверять роботам оружие, и/или не предоставлять им управление вооружением. К сожалению, предотвратить появление боевых роботов невозможно ? уже разработаны и поставлены на вооружение полуавтономные роботизированные установки, в небо подняты беспилотные летательные аппараты, а несколько единиц боевых роботов были посланы в Ирак, пусть и для ознакомления с их возможностями.
Правило третье: соблюдение трех законов робототехники Азимова. Знаменитые законы Айзека Азимова должны обеспечить безопасное сосуществование роботов в человеческом обществе, избежать несчастных случаев и злоупотребления роботами своими возможностями. Однако подводным камнем является тот факт, что Азимов специализировался на научной фантастике и не имел опыта в роботостроении, а значит, его законы лишены научной базы. Более того, сам автор в своих произведениях описывает ситуации, когда сформулированные им правила перестают работать в нужном направлении.
Правило четвертое: программирование роботов с учетом целого ряда условий и принципов. Одним из таких принципов должен являться принцип максимально полезных действий ? то есть, выбирать из целого ряда возможных поступков лишь те, которые принесут пользу как можно большему количеству людей. С другой стороны, следуя этому принципу робот может принести в жертву жизнь одного человека, чтобы спасти жизнь пятерых. Сегодня же ни один врач не способен за счет убийства одного человека спасти жизнь и здоровье других пациентов, реализация столь высоких моральных качеств ? одна из главных проблем, которая встанет перед робототехниками в будущем.
Правило пятое: постоянное обучение роботов. Это позволит "умным" машинам гибко изменять свое поведение с течением времени, анализировать собственные действия, выбирая из них правильные и ошибочные. Впрочем, достижение указанной цели невозможно без целого ряда технологических прорывов, ведь уровень развития современной науки не позволяет создавать действительно мыслящих и анализирующих роботов.
Правило шестое: наделение роботов основным набором эмоций. Подобная "функциональность" крайне необходима для интеграции роботов в человеческое общество ? машины должны с легкостью распознавать эмоции человека, на основании чего выбирать собственную стратегию поведения. Ведь не секрет, что значительная часть информации, необходимой для успешного общения человека с себе подобными, передается за счет выражения лица, языка жестов ? все это должны с легкостью воспринимать и роботы. И хотя эта задача очень сложна в реализации, уже сейчас наблюдаются подвижки в создании роботов, способных распознавать эмоции. То есть, задача не является невыполнимой.
Футуролог: роботы и физически, и умственно превзойдут людей к 2030 году
Напомним, согласно мнению известного британского футуролога, сотрудника British Telecom Яна Пирсона в ближайшие 30 лет человечество ждет множество инноваций в области производства, обработки информации, здравоохранения и индустрии развлечений. А роботы за это время разовьются так, что обгонят людей как по физическим, так и по умственным способностям.
К 2007 году роботы, похожие на человека, смогут заменить людей на фабриках, а к 2015 - в домашнем хозяйстве и в больницах. К 2010 году четверть звезд шоу-бизнеса будут составлять "компфетки" - компьютерные виртуальные персонажи. Они же будут среди самых высокооплачиваемых знаменитостей. К 2015 году для них самих - то есть для искусственных компьютерных разумов - появится своя индустрия развлечений.
После 2011 года практически все программное обеспечение будет писаться машинами. В 2018 году искусственный интеллект получит Нобелевскую премию, а в 2020 году электронные формы жизни получат конституционные права. К 2025 году в развивающихся странах будет больше роботов, чем людей. После 2030 роботы и физически, и умственно превзойдут людей, и скорее всего не захотят терпеть диктата своих создателей-людей, предупреждает футуролог. Многие из предсказаний Пирсона, кстати, уже подтвердились: первый его список "памятных дат будущего", опубликованный компанией BTexact Technologies в 1991 году, сбылся на 85%. Среди точно предсказанных событий - появление робокошек и робособак, а также общественного транспорта без водителей и машинистов.
Другой аспект той же проблемы ? как заранее провести четкую границу между людьми и кибернетическими организмами. В конце октября столь неожиданный вопрос обсуждали ученые с мировыми именами на заседании Европейской группы по соблюдению этики в науке и новых технологиях (EGE). EGE - это серьезный консультативный орган Еврокомиссии, высокий статус которого подтверждается хотя бы тем, что на всех заседаниях группы присутствуют как минимум два еврокомиссара. Волнения EGE связаны с чипами-имплантатами, способными влиять на работу мозга. Прототипы таких чипов разрабатываются в Институте биохимии Общества Макса Планка, причем с благороднейшей целью - помочь людям, страдающим эпилепсией.
Проблема в том, что от эта техническая разработка может стать толчком к созданию столь любимых писателями-фантастами мозг8овых чипов для увеличения объема памяти. Так что эксперты мгновенно задались вопросом, можно ли будет назвать подобный усовершенствованный мозг человеческим?
Источники
правитьЛюбой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.