Ученые: люди не смогут контролировать искусственный интеллект
18 января 2021 года
Последние достижения в области искусственного интеллекта (ИИ) поставили несколько этических дилемм, одна из которых заключается в том, сможет ли человечество управлять автономными машинами.
Международная группа исследователей предупредила о потенциальных рисках создания слишком мощного и автономного программного обеспечения. Используя серию теоретических расчетов, ученые пришли к выводу, что полностью контролировать такой ИИ невозможно. Ученые экспериментировали с двумя способами управления искусственным интеллектом. Один из них — изолировать ИИ от Сети и других устройств, ограничив контакт с внешним миром. Проблема заключается в том, что данный способ значительно снизит способность ИИ выполнять функции, для которых он был создан.
Другой способ заключается в разработке «теоретического алгоритма сдерживания», гарантирующего, что искусственный интеллект «не сможет причинить вред людям ни при каких обстоятельствах». Однако анализ существующей компьютерной парадигмы показал, что такой алгоритм не может быть создан. Ни один алгоритм не может определить, нанесет ли ИИ вред миру. Как отметили исследователи, человечество может даже не знать, когда появятся сверхразумные системы, потому что решение о том, обладает ли устройство интеллектом, превосходящим человеческий, находится в той же сфере, что и проблема сдерживания.
Эксперты из компании Trend Micro провели опрос IT-руководителей о роли ИИ в ближайшем будущем. Как показали результаты исследования, 41% IT-директоров считают, что ИИ заменит их роль к 2030 году.
Только 9% респондентов были уверены, что искусственный интеллект точно не заменит их работу в течение следующего десятилетия. Фактически, почти треть опрошенных (32%) заявила, что технология на базе ИИ в конечном итоге будет работать для полной автоматизации всей кибербезопасности без вмешательства человека.
Среди всех респондентов 19% считает, что к 2025 году злоумышленники, использующие ИИ для расширения своего арсенала, станут обычным явлением.
Около четверти (24%) опрошенных ИТ-руководителей также заявили, что к 2030 году доступ к информации будет привязан к биометрическим данным или данным ДНК, что сделает невозможным несанкционированный доступ.
В более краткосрочной перспективе респонденты также прогнозировали, что к 2025 году большинство организаций значительно сократят инвестиции в недвижимость, поскольку удаленная работа станет нормой (22%). В общенациональном масштабе 5G будет представлять собой полностью трансформированную сеть с инфраструктурой безопасности (21%), а безопасность будет самоуправляемой и автоматизированной с использованием ИИ (15%).
Источники
правитьЭта статья содержит материалы из статьи «Ученые: люди не смогут контролировать искусственный интеллект», опубликованной на сайте SecurityLab.ru и распространяющейся на условиях лицензии Creative Commons Attribution 3.0 Unported (CC-BY 3.0 Unported). |
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.