Эксперты по искусственному интеллекту объявили бойкот южнокорейским коллегам, работающим над созданием робота-убийцы
5 апреля 2018 года
Свыше 50 известных исследователей в сфере искусственного интеллекта (ИИ) и робототехники объявили бойкот коллегам из Корейского института передовых технологий (KAIST) в связи с участием южнокорейских ученых в проекте по созданию технологий ИИ для военных систем, пишет The Verge.
Поводом для бойкота, который был объявлен незадолго до намеченной на следующую неделю дискуссии под эгидой ООН о введении международных ограничений на создание так называемых роботов-убийц, послужило февральское сообщение KAIST о планах создать совместный исследовательский центр с южнокорейской компанией Hanwha Systems, занимающейся военными разработками. Как пишет The Korean Times, в рамках проекта партнеры намерены разработать технологии искусственного интеллекта для оружия, которые позволят уничтожать цели без участия человека.
Инициатором бойкота KAIST стал профессор Тоби Уолш из Университета Нового Южного Уэльса (Австралия). По его словам, гонка по созданию автономных вооружений уже началась, а прототипы подобных систем в настоящее время разрабатывает целый ряд стран, включая США, Китай, Россию и Великобританию. При этом действия KAIST способствуют ускорению этой гонки. В поддержку бойкота, который предусматривает запрет любых контактов и научного сотрудничества с KAIST, выступил целый ряд известных исследователей ИИ. Прекращение бойкота станет возможным, если представители института убедят сообщество, что разрабатываемые с их участием вооружения будут находиться под «значимым контролем человека».
Впрочем, не исключено, что Уолш и его сторонники несколько поспешили с объявлением бойкота, пишет Times Higher Education. Так, президент KAIST Сунг-Чхоль Шин заявил, что институт не занимается разработкой автономных вооружений.
«Как академическое учреждение мы высоко ценим права человека и этические стандарты. KAIST не будет проводить никаких исследований, противоречащих человеческому достоинству, включая разработку автономного оружия, без достаточного человеческого контроля», - сказал Шин.
В связи с этим Уолш сообщил, что теперь ему потребуется проконсультироваться с единомышленниками по поводу дальнейших действий. При этом он отметил, что Шин оставил некоторые вопросы к KAIST без ответа.
Напомним, что одним из самых известных противников неограниченного развития робототехники и систем искусственного интеллекта является основатель компаний SpaceX и Tesla Илон Маск, который регулярно предупреждает об угрозе восстания машин. Например, в августе прошлого года он вошел в число 116 экспертов, подписавших письмо в ООН с призывом ввести международный запрет на автономные системы летального оружия, также известные как «роботы-убийцы».
В июле 2017 года Маск призвал власти создать организацию для контроля за развитием технологий искусственного интеллекта. С таким предложением он выступил в ходе собрания Национальной ассоциации губернаторов США. Позднее идею Маска прокомментировал основатель и глава социальной сети Facebook Марк Цукерберг, который назвал предупреждения Маска и других предпринимателей «довольно безответственными».
Источники
правитьЛюбой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.