Депутаты Европарламента призвали ЕС урегулировать использование ИИ

21 января 2021 года

Искусственный интеллект должен находиться под контролем человека, позволяя людям исправлять или отключать его в случае непредвиденного поведения, высказали мнение депутаты Европейского парламента.

В опубликованном депутатами отчете содержится призыв к ЕС по созданию правовой базы использования ИИ с определениями и этическими принципами, включая его использование в военных целях. Авторы документа также призывают ЕС и его государства-члены обеспечить гарантию того, что ИИ и связанные с ним технологии будут предназначены для служения человечеству и общему благу.

Как подчеркнули депутаты, человеческое достоинство и права должны уважаться во всей деятельности ЕС, связанной с обороной. Системы с поддержкой ИИ должны позволять людям осуществлять значимый контроль, предоставляя возможность брать на себя ответственность и подотчетность за их использование.

Использование автономных систем летального вооружения (lethal autonomous weapons systems — LAWS) поднимает фундаментальные этические и юридические вопросы по контролю над людьми. Решение выбрать цель и совершить летальное действие с использованием автономной системы вооружения всегда должно приниматься человеком, осуществляющим значимый контроль и суждение, в соответствии с принципами соразмерности и необходимости.

Депутаты призывают ЕС взять на себя ведущую роль в создании и продвижении глобальной структуры, регулирующей военное использование ИИ, наряду с ООН и международным сообществом.

Кроме того, более широкое использование систем искусственного интеллекта в государственных службах, особенно в здравоохранении и правосудии, не должно заменять человеческий контакт или вести к дискриминации. Людей всегда следует информировать, если в решении ситуации принимает участие ИИ, и предоставлять возможность обжаловать это.

Депутаты Европарламента также предупредили об угрозах фундаментальным правам человека и государственному суверенитету, возникающих в результате использования технологий искусственного интеллекта для массового гражданского и военного наблюдения. Они призывают к запрету государственным органам использовать «крайне навязчивые приложения социальной оценки». В отчете также высказываются опасения по поводу «дипфейк-технологий», которые могут «дестабилизировать страны, распространять дезинформацию и влиять на выборы». Создатели подобного контента должны маркировать такие материалы как «не оригинальные», и необходимо провести дополнительные исследования технологий, чтобы противодействовать этому явлению.

Источники

править
 
Эта статья загружена автоматически ботом NewsBots и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.