Meta призвали усилить контроль за фейковыми видео, созданными с помощью ИИ
Компания Meta должна активнее бороться с распространением фальшивого контента, созданного с помощью инструментов искусственного интеллекта, на своих платформах. Об этом заявили члены её собственного консультативного органа — Совета по надзору.Совет, состоящий из 21 человека, выступил с критикой после того, как компания не пометила как искусственно созданное видео, в котором якобы показывались масштабные разрушения в израильском городе Хайфа в результате атаки иранских сил. Ролик был сгенерирован с помощью ИИ, однако на платформе он оставался без соответствующей отметки.
Эксперты призвали Meta пересмотреть свои правила работы с подобным контентом. По их мнению, рост числа фейковых видеороликов, связанных с военными конфликтами в мире, серьёзно осложняет способность пользователей отличать вымысел от реальности и может привести к общему недоверию к любой информации.
В ответ Meta заявила, что в течение семи дней добавит к спорному ролику соответствующую пометку.
Совет по надзору был создан компанией Meta в 2020 году как полу-независимый орган, который контролирует решения по модерации контента на платформах компании — включая Facebook, Instagram и WhatsApp.
Совет нередко не соглашается с решениями Meta. Тем не менее компания продолжает постепенно смягчать свою политику контроля контента, что вызывает вопросы о реальном влиянии этого органа.
По мнению членов совета, ситуация с видео о Хайфе вновь выявила проблемы, на которые они уже указывали ранее — недостаточную эффективность существующих механизмов модерации в условиях вооружённых конфликтов.
В настоящее время Meta в основном полагается на то, что пользователи сами будут указывать, если публикуемый ими контент создан с помощью ИИ. В противном случае компания ждёт жалоб от других пользователей, после чего команда модерации может принять решение о добавлении соответствующей метки.
Совет считает, что компания должна значительно чаще и активнее самостоятельно маркировать фейковый контент, созданный искусственным интеллектом.
Эксперты подчеркнули, что существующие методы Meta недостаточно надёжны и не способны справляться с масштабом и скоростью распространения ИИ-контента, особенно во время кризисов и военных конфликтов, когда активность пользователей резко возрастает.
Поводом для проверки стало видео, опубликованное в июне прошлого года аккаунтом Facebook из Филиппин, который позиционировал себя как новостной источник.
Этот ролик оказался частью волны фальшивых видео, появившихся в социальных сетях после начала конфликта. Такие материалы распространялись как в поддержку Израиля, так и Ирана, и, по данным анализа BBC, суммарно набрали не менее 100 миллионов просмотров.
Несмотря на то, что видео на Facebook было сгенерировано ИИ и содержало недостоверную информацию, а пользователи неоднократно жаловались на него, Meta не добавила к нему отметку о происхождении и не удалила его.
По данным совета, компания отреагировала на проблему только после того, как один из пользователей подал апелляцию напрямую в Совет по надзору.
После этого Meta заявила, что ролик, набравший почти один миллион просмотров, не требует маркировки и не должен удаляться, поскольку он якобы не создаёт непосредственной угрозы причинения физического вреда.
Совет посчитал такой критерий слишком высоким порогом для реагирования на подобный контент, особенно если речь идёт о военных конфликтах. Эксперты постановили, что видео должно было получить отметку «высокого риска» как материал, созданный ИИ.
«Meta должна предпринимать больше усилий для борьбы с распространением вводящего в заблуждение контента, созданного искусственным интеллектом, чтобы пользователи могли ясно отличать реальную информацию от фальшивой», — говорится в заявлении совета.
В свою очередь Meta сообщила, что учтёт рекомендации совета и применит их в будущем, если столкнётся с аналогичным контентом в схожем контексте.