Комитет экспертов по правозащитным аспектам автоматизированной обработки данных и различных форм искусственного интеллекта (MSI-AUT) подготовил проект рекомендаций по защите прав человека от негативного влияния ИИ.
Консультации в подготовке документа оказывали фонд Викимедиа и международная правозащитная группа Access Now.
По словам авторов, созданию документа предшествовала общественная дискуссия о потенциальном негативном влиянии алгоритмических систем на демократию и самовыражение.
Рекомендации экспертов охватывают аспекты проектирования, разработки и развертывания алгоритмических систем: управление данными, моделирование, анализ, прозрачность, подотчетность, меры предосторожности, исследования и информирование общественности.
Например, субъекты частного сектора «должны осознавать риски, связанные с качеством, природой и происхождением данных, которые они используют для обучения своих алгоритмов, чтобы гарантировать, что ошибки, предвзятость и потенциальная дискриминация адекватно учтены в рамках конкретных контекстов».
В свою очередь государствам необходимо контролировать, чтобы «персонал, участвующий в закупках, разработке, внедрении и оценке алгоритмических систем, был компетентен в правах человека и недискриминации и осознавал свою обязанность обеспечивать не только тщательную техническую оценку, но и соблюдение прав человека».
Пока что документ проходит стадию утверждения в среде правозащитников. Ожидается, что дополнительные правки могут быть внесены в декабре, после рассмотрения отчета Комитетом по СМИ и информационному обществу.
Наряду с Европой Россия также изучает перспективы и риски использования искусственного интеллекта. В октябре президент РФ Владимир Путин утвердил национальную стратегию развития ИИ до 2030 года.
Источник: forklog.com