Авторизуйтесь с помощью одного из аккаунтов
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.
Посмотреть видео можно на основной версии сайта

Алгоритм, который вычисляет будущих преступников по фото, вызвал скандал в США

Создатели программы уверяют, что могут предсказать наклонности человека по одному снимку, а критики называют её расистской.

12286

Фото © Wikimedia Commons / Sylenius

Программу распознавания лиц, которая предсказывает криминальное будущее человека, разработали два профессора и аспирант Харрисбургского университета науки и технологий (США), сообщает Wired. Модель глубокой нейронной сети для прогнозирования преступности с использованием обработки изображений с "80-процентной точностью и без расовой предвзятости" вычисляет криминальные наклонности человека по его фото. Об этом говорится в пресс-релизе, который спустя какое-то время был удалён с сайта вуза из-за разразившегося скандала.

Изображение © Pixabay / Teguhjatipras

Преступность — одна из наиболее актуальных проблем общества. Разработка технологий, способных выявлять наклонности человека по изображению его лица, даст правоохранительным органам существенное преимущество в предотвращении преступлений

Джонатан В. Корн

Аспирант Харрисбургского университета науки и технологий

Научную статью с детальным описанием технологии должно было опубликовать авторитетное издательство Springer Nature. Однако после того, как более тысячи исследователей машинного обучения, социологов, историков и специалистов по этике выложили открытое письмо с осуждением представленной идеи, в Springer Nature сообщили, что издательство не будет в этом участвовать.

Фото © Wikimedia Commons / Sylenius

По мнению критиков ноу-хау Харрисбургского университета, исследование учёных "основано на ненадлежащих научных предпосылках и методах, которые были опровергнуты в последние годы". В открытом письме утверждается, что преступность невозможно предсказать без расовой предвзятости, так как "сама категория преступности основана на расистских предрассудках". Любой прогностический алгоритм, моделирующий преступность, будет воспроизводить только искажения, уже отражённые в системе правосудия, считают эксперты.

Изображение © Wikimedia Commons / Abyssus

Новая разработка — не первая попытка проанализировать личность человека по его лицу с помощью современных технологий. В 2016 году исследователи из Шанхайского университета Цзяо Тонг также заявляли, что их алгоритм может предсказывать преступность посредством физиогномики, однако инженеры из Станфорда и компании Google опровергли выводы китайских учёных. В 2017 году пара исследователей уже из самого Станфорда утверждала, что их искусственный интеллект может определить сексуальную ориентацию человека. С критикой программы выступили ЛГБТ-организации. А в прошлом году исследователи из Кильского университета (Англия) заявили, что их алгоритм может предсказывать аутизм.

Выбор редакции

Loading...