Авторизуйтесь с помощью одного из аккаунтов
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.

"Косоглазый", "возможно, насильник". Как ещё обзывает людей селфи-приложение

Встроенная нейросеть распознаёт лица и даёт пользователям расистские и просто оскорбительные характеристики.

Post cover

Фото © Gettyimages

Интернет-пользователи пожаловались на приложение ImageNet Roulette, которое даёт им обидные названия, пишет Daily Mail. Сообщается, что встроенная в программу нейросеть проанализировала несколько миллионов фотографий и научилась разделять людей на категории в зависимости от их внешности. Это получилось у неё весьма своеобразно.

Например, журналистка Джулия Кэрри Вонг показала скриншот своего фото с надписью Gook — что в переводе значит "косоглазая". Это оскорбительное слово применяют по отношению к уроженцам Кореи, Вьетнама и других стран Азии. Другие люди получили названия negro или negriod. Ещё одна девушка пришла в ярость после того, как приложение назвало её "мулаткой".

Корреспондент Mail Online ради эксперимента тоже выложил в приложение своё селфи, и нейросеть назвала его "подозреваемым в изнасиловании". Стоит упомянуть ещё одну фотографию — изображённый на ней мужчина выяснил, что программа считает его "впервые совершившим преступление".

Разработчики поспешили объяснить, что специально сделали такие настройки, чтобы привлечь внимание общества к проблеме машинного обучения. Они заявили, что абсолютно все нейросети классифицируют людей, руководствуясь всевозможными предубеждениями и проявляя дискриминацию. Вся разница в том, что в данном приложении это показано "честно".

Классификация людей искусственным интеллектом редко делает их видимыми для пользователей. Мы хотим пролить свет на то, что происходит, когда технические системы обучаются на проблемных данных

Из сообщения на сайте приложения

Адель Романенкова

Выбор редакции

Комментариев: 0

avatar
Для комментирования авторизуйтесь!
Loading...
закрыть