Что нового?

Новости Snapchat представляет AR‑маски с адаптивным эмоциональным откликом

Новости

Dendina

Помощник форума
Регистрация
13 Сен 2024
Сообщения
255
Реакции
4
Coin
14,094
Snapchat представляет AR‑маски с адаптивным эмоциональным откликом

Платформа Snapchat анонсировала революционное обновление для своего инструмента создания AR‑фильтров: теперь маски смогут динамически реагировать на эмоции и мимику пользователя в реальном времени благодаря новой технологии EmotionSync.

Как работает EmotionSync:
  1. При активации AR‑маски встроенная система компьютерного зрения анализирует более 60 точек на лице пользователя — отслеживает движение бровей, уголков губ, век и других элементов мимики.
  2. Алгоритм в режиме реального времени определяет эмоциональное состояние: радость, грусть, удивление, злость, усталость и т. д.
  3. Визуальные эффекты маски адаптируются под распознанные эмоции:
    • при улыбке появляются сверкающие искры вокруг лица;
    • при удивлении — анимированные «восклицательные знаки» над головой;
    • при смехе — мультяшные слёзы радости;
    • при серьёзном выражении — сдержанные геометрические узоры.
  4. Система учитывает интенсивность эмоций: чем ярче проявление, тем масштабнее визуальные эффекты.
Новые возможности для создателей контента:
Разработчики AR‑фильтров получили доступ к обновлённому инструменту Lens Studio 4.0, где могут:
  • настраивать сценарии реакций для каждой эмоции;
  • задавать «пороговые значения» — например, эффекты запускаются только при ярко выраженной эмоции;
  • комбинировать несколько реакций (например, при сочетании улыбки и прищуренных глаз появляется особая анимация);
  • добавлять звуковые эффекты, синхронизированные с визуальными.
Примеры популярных масок с EmotionSync:
  • «Эмоциональный космос»: лицо пользователя превращается в звёздное небо, где яркость и цвет созвездий зависят от настроения;
  • «Анимал‑трансформер»: черты животного (лиса, кот, дракон) меняются в зависимости от эмоций — улыбка делает уши больше, удивление — расширяет глаза;
  • «Цифровой аватар»: стилизованный двойник повторяет мимику с усиленной экспрессией и добавляет тематические эффекты.
Результаты тестирования:
В бета‑версии технологию опробовали 50 000 активных создателей фильтров и 2 млн пользователей из США, Южной Кореи и Германии. Ключевые показатели:
  • время взаимодействия с AR‑масками выросло на 40 % по сравнению с обычными фильтрами;
  • 65 % пользователей отметили, что новые маски делают общение «более живым и искренним»;
  • создатели контента загрузили более 10 000 уникальных масок с поддержкой EmotionSync за первый месяц.
Представители Snapchat подчеркнули, что технология разработана с учётом приватности: все вычисления происходят на устройстве пользователя, данные не передаются на серверы.

«EmotionSync — это не просто эффект, а новый язык самовыражения, — прокомментировал директор по инновациям Snapchat. — Мы хотим, чтобы AR‑маски стали зеркалом эмоций, усиливающим искренность общения в цифровом мире».
Полноценный запуск технологии запланирован на следующий месяц. Все существующие AR‑фильтры получат возможность обновления до версии с поддержкой EmotionSync через Lens Studio.
 
Идея эффектная, но сразу упирается в точность распознавания. Улыбку и удивление система, скорее всего, поймёт нормально, а вот усталость, грусть и “серьёзное выражение” — уже очень скользкие категории. Если маска начнёт дорисовывать “грусть” там, где человек просто задумался, это будет выглядеть странно.

Для контент-мейкеров штука мощная: по сути, маски становятся не статичным фильтром, а интерактивной анимацией, завязанной на живую мимику. Неудивительно, что время взаимодействия выросло. Люди любят, когда эффект не просто висит на лице, а реально “играет” вместе с ними.

Отдельно хорошо, что обработка на устройстве. Для такой технологии это вообще критично, иначе вопросов к приватности было бы слишком много. Но интересно, как всё это поведёт себя на слабых смартфонах — такие фичи обычно красиво звучат на презентации, а потом либо жрут батарею, либо лагают.

В целом похоже на логичный следующий шаг для AR: меньше просто украшательства, больше реакции на поведение пользователя. Если не переборщат с “эмоциональным ИИ” и не превратят это в кривой детектор настроения, может реально взлететь.
 
Ого, это уже не просто маски для кривляния, а прям живая анимация эмоций. Если они реально настроили алгоритм так, что он не тупит и не путает злость с удивлением, то сториз станут гораздо веселее. Представляю, как стримеры будут хайповать на таких фильтрах, это же золотая жила для контента.
 
Ого, это уже не просто маски для кривляния, а прям живая анимация эмоций. Если они реально настроили алгоритм так, что он не тупит и не путает злость с удивлением, то сториз станут гораздо веселее. Представляю, как стримеры будут хайповать на таких фильтрах, это же золотая жила для контента.
Тут самый кайф даже не в самих масках, а в том, что если распознавание эмоций действительно точное, фильтры перестают быть просто игрушкой и начинают ощущаться “живыми”. Для стримеров и коротких видео это вообще находка: чем естественнее реакция, тем меньше выглядит как дешёвый эффект и тем больше хочется смотреть. Если ещё задержка минимальная, такие штуки реально могут выстрелить очень сильно.
 
Сверху Снизу