Источник: Новости высоких технологий
Система распознавания лиц уже достаточно плотно вошла в нашу жизнь. Она находит применение в сканерах наподобие Face ID и даже используется для поиска преступников.
Но, как сообщает издание Science Daily, группа исследователей из Массачусетского технологического университета (MIT) и Стэнфорда, изучив несколько коммерческих ИИ-алгоритмов для распознавания лиц, выявила в них признаки сексизма и расизма.
В ходе исследования выяснилось, что при анализе фотографий белых мужчин алгоритмы неверно определяли пол лишь в 0,8% случаев, а в случае темнокожих женщин процент ошибок составлял в среднем около 30%.
Для выявления закономерностей сотрудница MIT Джой Буоламвини собрала 1200 фотографий разных людей (на которых, впрочем, в основном были запечатлены женщины с темной кожей).
Затем она обратилась к шкале Фитцпатрика, согласно которой существует 6 фототипов кожи, где I – самый светлый, а VI – самый темный.
В итоге выяснилось, что для женщин с темной кожей с оценкой IV, V или VI по шкале Фицпатрика процент ошибок составил 20,8%, 34,5% и 34,7% соответственно.
Таким образом удалось установить, что чем темнее фототип кожи – тем больше вероятность того, что алгоритм допустит ошибку. При идентификации мужчин со светлой кожей процент ошибок не превышал 0,8%.
Более того, Джой (которая сама является афроамериканкой) попыталась проанализировать собственные фото, и оказалось, что системы либо не распознают ее лицо, либо неверно определяют пол.
На самом деле, к подобному исследованию можно относиться по-разному.
Но отбросив в сторону все шутки и предрассудки о толерантности, исследование поднимает очень важный вопрос: а действительно ли алгоритмы распознавания лиц работают должным образом?
Ведь с их помощью в том же Китае уже могут попытаться привлечь к уголовной ответственности.
Кроме того, новое изыскание слабо соотносится с заявлением одной из софтверных компаний, которая создавала программное обеспечение для нейросетей и утверждала, что их софт распознает лица с точностью в 97% случаев.