Что нового?

Новости Meta призвали усилить контроль за фейковыми видео, созданными с помощью ИИ

Новости

Dendina

Помощник форума
Регистрация
13 Сен 2024
Сообщения
209
Реакции
4
Coin
10,890

Meta призвали усилить контроль за фейковыми видео, созданными с помощью ИИ

Компания Meta должна активнее бороться с распространением фальшивого контента, созданного с помощью инструментов искусственного интеллекта, на своих платформах. Об этом заявили члены её собственного консультативного органа — Совета по надзору.

Совет, состоящий из 21 человека, выступил с критикой после того, как компания не пометила как искусственно созданное видео, в котором якобы показывались масштабные разрушения в израильском городе Хайфа в результате атаки иранских сил. Ролик был сгенерирован с помощью ИИ, однако на платформе он оставался без соответствующей отметки.

Эксперты призвали Meta пересмотреть свои правила работы с подобным контентом. По их мнению, рост числа фейковых видеороликов, связанных с военными конфликтами в мире, серьёзно осложняет способность пользователей отличать вымысел от реальности и может привести к общему недоверию к любой информации.

В ответ Meta заявила, что в течение семи дней добавит к спорному ролику соответствующую пометку.

Совет по надзору был создан компанией Meta в 2020 году как полу-независимый орган, который контролирует решения по модерации контента на платформах компании — включая Facebook, Instagram и WhatsApp.

Совет нередко не соглашается с решениями Meta. Тем не менее компания продолжает постепенно смягчать свою политику контроля контента, что вызывает вопросы о реальном влиянии этого органа.

По мнению членов совета, ситуация с видео о Хайфе вновь выявила проблемы, на которые они уже указывали ранее — недостаточную эффективность существующих механизмов модерации в условиях вооружённых конфликтов.

В настоящее время Meta в основном полагается на то, что пользователи сами будут указывать, если публикуемый ими контент создан с помощью ИИ. В противном случае компания ждёт жалоб от других пользователей, после чего команда модерации может принять решение о добавлении соответствующей метки.

Совет считает, что компания должна значительно чаще и активнее самостоятельно маркировать фейковый контент, созданный искусственным интеллектом.

Эксперты подчеркнули, что существующие методы Meta недостаточно надёжны и не способны справляться с масштабом и скоростью распространения ИИ-контента, особенно во время кризисов и военных конфликтов, когда активность пользователей резко возрастает.

Поводом для проверки стало видео, опубликованное в июне прошлого года аккаунтом Facebook из Филиппин, который позиционировал себя как новостной источник.

Этот ролик оказался частью волны фальшивых видео, появившихся в социальных сетях после начала конфликта. Такие материалы распространялись как в поддержку Израиля, так и Ирана, и, по данным анализа BBC, суммарно набрали не менее 100 миллионов просмотров.

Несмотря на то, что видео на Facebook было сгенерировано ИИ и содержало недостоверную информацию, а пользователи неоднократно жаловались на него, Meta не добавила к нему отметку о происхождении и не удалила его.

По данным совета, компания отреагировала на проблему только после того, как один из пользователей подал апелляцию напрямую в Совет по надзору.

После этого Meta заявила, что ролик, набравший почти один миллион просмотров, не требует маркировки и не должен удаляться, поскольку он якобы не создаёт непосредственной угрозы причинения физического вреда.

Совет посчитал такой критерий слишком высоким порогом для реагирования на подобный контент, особенно если речь идёт о военных конфликтах. Эксперты постановили, что видео должно было получить отметку «высокого риска» как материал, созданный ИИ.

«Meta должна предпринимать больше усилий для борьбы с распространением вводящего в заблуждение контента, созданного искусственным интеллектом, чтобы пользователи могли ясно отличать реальную информацию от фальшивой», — говорится в заявлении совета.

В свою очередь Meta сообщила, что учтёт рекомендации совета и применит их в будущем, если столкнётся с аналогичным контентом в схожем контексте.
 
С ИИ контентом сейчас вообще жесть начинается, иногда реально уже не поймёшь где фейк, а где реальное видео. В ленте такие вбросы пролетают, что мозг просто зависает. Если не начнут нормально это маркировать, дальше будет ещё больше путаницы и доверие к инфе просто упадёт в ноль.
 
Давно пора. Сейчас ИИ рисует настолько фотореалистично, что без специальной пометки глаз просто не цепляется за подвох. Особенно в новостях про конфликты, это же прямой путь к дезинформации. Meta и не только, должна была внедрить автоматический сканер еще вчера
 
Давно пора было за них взяться, потому что в последнее время в ленте через один пост лезет какая-то дичь с ИИ-лицами знаменитостей, которые рекламируют сомнительные крипто-проекты. Самое плохое, что старшее поколение на это ведется в два счета, видя знакомые лица из телевизора. Мета со своими алгоритмами явно опаздывает, раз такие ролики проходят модерацию и крутятся в рекламе неделями. Интересно, смогут ли они вообще внедрить рабочую маркировку, которую нельзя будет затереть или обойти обычным фильтром, а то пока всё это выглядит как борьба с ветряными мельницами.
 
Я считаю, что Meta давно пора было прижать к стенке за их "лайтовую" модерацию. Эти ИИ–ролики сейчас используют как мощное оружие пропаганды, и обычный пользователь часто просто не может отличить правду от подделки.
 
Вообщем-то люди создающие с помощью программ фэйковые видео, не делают ничего плохого, если они не распространяют это как заведомо фейк. Это просто искусство. Человек в праве изменять или редактировать любые видео так, как он хочет. Но конечно пометки о фейке со стороны Мета будет вполне достаточно, чтобы дать людям ориентироваться.
 
Интересно, что даже внутренний совет указывает на проблемы, но при этом сама политика компании меняется довольно медленно. Возникает вопрос, насколько этот орган вообще влияет на реальные решения?)
 
Давно пора было за них взяться, потому что в последнее время в ленте через один пост лезет какая-то дичь с ИИ-лицами знаменитостей, которые рекламируют сомнительные крипто-проекты. Самое плохое, что старшее поколение на это ведется в два счета, видя знакомые лица из телевизора. Мета со своими алгоритмами явно опаздывает, раз такие ролики проходят модерацию и крутятся в рекламе неделями. Интересно, смогут ли они вообще внедрить рабочую маркировку, которую нельзя будет затереть или обойти обычным фильтром, а то пока всё это выглядит как борьба с ветряными мельницами.
Главная проблема в том что их системы изначально заточены под вовлечённость а не под проверку достоверности. Если ролик цепляет внимание он получает буст даже если внутри откровенный скам. А дипфейки сейчас стали настолько качественными что отличить их автоматически задача не из простых.
 
Ситуация довольно показательная. Когда даже очевидный ИИ-контент не помечается, это подрывает доверие к платформе в целом. Пользователь просто перестаёт понимать, где реальность, а где сгенерированная картинка
 
Здесь проблема не только в одном видео, а в масштабе. Если такие ролики собирают десятки миллионов просмотров, а система не успевает их маркировать, значит текущие механизмы явно не справляются
 
Сам подход, где ответственность частично перекладывается на пользователей, выглядит слабым. Не все могут определить, что контент создан ИИ, особенно если он сделан качественно
 
Кажется, что компании просто не успевают за развитием технологий. Генерация контента стала слишком быстрой, а системы модерации пока не готовы к такому объёму и скорости распространения
 
Вся история показывает, насколько размывается граница между реальностью и фейком. Если платформы вроде Meta не будут быстрее реагировать, пользователи просто начнут сомневаться вообще во всём контенте. И это уже не просто проблема модерации, а вопрос доверия к информации в целом
 
Если честно странно что такие вещи вообще остаются без пометок. Сейчас ИИ видео делают настолько правдоподобными что без маркировки люди реально могут принять это за правду.
 
Сверху Снизу