Нейросеть "ВКонтакте" изучает фотографии для борьбы с суицидом

Фото: © РИА Новости / Наталья Селиверстова
Как стало известно после недавнего сбоя, все фотографии в социальной сети изучает нейросеть.
За те минуты, когда пользователи получили доступ к правам модератора "ВКонтакте", они смогли оценить одну неожиданную особенность — под каждым фото стояла оценка, показывающая вероятность содержания порнографии на данном изображении. Представители компании прояснили ситуацию и рассказали "Известиям" о ещё одном полезном применении данного алгоритма: он не только защищает социальную сеть от пикантного содержания, но и скрывает суицидальные фотографии, если на них замечены подозрительные символы и призывы.
— Нейросеть имеет несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как "опасное", оно отправляется модераторам для проверки. Если же фото признано "умеренно опасным", оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет, — сообщили в компании.

Нейросеть изучает все фотографии "ВКонтакте", чтобы защитить детей от самоубийства
Фото: © РИА Новости / Наталья Селиверстова
Примечательно, что алгоритм также считывает с любой фотографии абсолютно все текстовые данные, так что отправка и хранение документов через социальную сеть могут быть крайне небезопасными. Руководитель направления Big Data и Machine Learning "ВКонтакте" отметил, что оцениваются только публичные фотографии, а отправленные в личном сообщении нейросеть не изучает.