YouTube предпочитает рекомендовать неприемлемые видео вместо полезных, выяснили исследователи

5e668e24ba313d395f8884e0c90627d8

Врeмeнaми YouTube спoсoбeн oтпрaвить пoльзoвaтeля в мнoгoчaсoвoe путeшeствиe oт oднoгo рeкoмeндoвaннoгo рoликa к другoму. Исслeдoвaниe Mozilla Foundation пoкaзывaeт, чтo aлгoритмы рeкoмeндaций видеосервиса чаще советуют к просмотру «вирусный» и дезинформационный контент, нежели интересные конкретному пользователю материалы.

В исследовании приняли участие более 37 000 добровольцев. Mozilla выяснила, что 71 % рекомендованных YouTube видео были отмечены респондентами как «нежелательные». Участники использовали специальное расширение для браузеров, отслеживавшее использование YouTube более 10 месяцев, и когда они помечали видео как «нежелательное», расширение регистрировало — нашли ли его пользователи самостоятельно или перешли из раздела рекомендаций.

В исследовании подобные материалы получили название YouTube Regrets (YouTube с сожалением), символизируя негативный опыт. В частности, речь идёт о видео, отстаивающих псевдонаучные концепции, теории заговора, видео жестокого обращения с животными и ролики, связанные с другими темами. Родители десятилетней девочки сообщили, что цепочка ссылок привела её к материалам об «экстремальных» диетах в то время, как она искала видео о танцах. В результате это привело к негативному изменению пищевых привычек ребёнка.

Оказалось (внезапно), что в рекомендации попадают видео, способные стать вирусными. Если потенциально вредоносный контент способен собрать тысячи или миллионы просмотров, очень высока вероятность того, что его будут рекомендовать пользователю вместо того, что ему действительно интересно.

Известно, что YouTube удалила 200 видео, отмеченных в ходе исследования как неприемлемые, а представитель сервиса сообщил, что «компания снизила в рекомендациях долю контента, считающегося вредоносным до одного и менее процентов». Кроме того, за последний год сервис внёс порядка 30 изменений в алгоритмы, чтобы справиться с упомянутой проблемой. Автоматизированная система выявляет и удаляет 94 % видео, нарушающих политику YouTube ещё до того, как ролики наберут 10 просмотров.

Хотя компании относительно легко фильтровать контент, связанный с насилием и расизмом, лженаучные и прочие неприемлемые ролики определить намного сложнее — авторы ссылаются на свободу слова или то, что размещают контент исключительно в развлекательных целях.

Кроме того, YouTube вполне ожидаемо отказывается раскрыть информацию о том, как именно работает алгоритм отбора рекомендованных видео. Из-за этого пользователям практически невозможно реально оценить, делает ли сервис всё возможное для борьбы с неприемлемым контентом.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.