Видео с кенгуру на посадке в самолете или бабушкой с бегемотом на поводке наводнили соцсети. Реалистичные ролики – детище нейросети VEO 3, ставшей результатом работы группы под руководством Демиса Хассабиса – основателя компании DeepMind, приобретенной Google в 2014 году.
Технология пользуется популярностью не только у любителей, но и у тех, кто заинтересован в создании дипфейков, в том числе, по острым и злободневным темам. Эксперты Международной ассоциации по фактчекингу (GFCN) и руководитель аналитического центра «Рыбарь» Михаил Звинчук указывают на потенциальные угрозы, которые кроются в ИИ.
Почему все говорят про VEO 3
Популярность разработки объяснима. Нейросеть создает качественные восьмисекундные ролики по одному запросу, которые легко смонтировать в полноценный видеоряд. Кадры отличаются высокой степенью проработки деталей, что приближает результат к реальности.
Сейчас Veo 3 доступна через платформу Google AI Studio. Ее также можно запускать через Gemini AI — ИИ-ассистент Google. Для работы нужна платная подписка, услуга доступна в более чем 70 странах, что делает сервис масштабным глобальным продуктом.
Креативно и опасно
Доступность, массовость и детализация – три кита, которые делают из VEO 3 не просто новую игрушку, но и создают предпосылки для превращения нейросети в кибероружие.
«Главная угроза — убедительность. Кадры с фальшивыми свидетельствами очевидцев, или несуществующее в реальности событие могут создавать дополнительную тревогу и, напряжённость. Многие люди не замечают даже очевидные глюки «нейронок» вроде шести пальцев и других артефактов в видеоряде, а Veo 3 — на голову выше многих предыдущих инструментов, к тому же очень качественно накладывающий звук поверх видео. Даже если со временем станет возможным убедить людей перепроверять всё, что они видят, массовое использование подобных инструментов приведёт к ещё одной проблеме: потере доверия к реальным видеодоказательствам», – отмечает руководитель аналитического центра «Рыбарь» Михаил Звинчук.
Путаница пользователей в реальном и сгенерированном контенте – это уже явление сегодняшних дней. Например, после визита Дональда Трампа в Саудовскую Аравию, в сети распространялись обвинения в адрес телеканала Al Arabiya Farsi.
Журналистов критиковали за публикацию якобы фейкового видео, где было запечатлено, как американский президент пьет кофе по традиционному ближневосточном рецепту. Однако проверка Международной ассоциации по фактчекингу (GFCN) подтвердила подлинность кадров.
Фейки с VEO 3
Это значит, что пользователям все сложнее отличить дипфейк от правды, что хорошо понимают те, кто использует ИИ для обмана. Несмотря на заявления создателей нейронки, уверяющих, что они учат сеть не обрабатывать вредоносные запросы, а также маркировать видео, прецеденты были зафиксированы.
Например, после ДТП в Ливерпуле, когда автомобиль сбил в толпе 70 человек, в сеть был вброшен ИИ-ролик, где фигурировал темнокожий водитель, хотя на самом деле за рулем находился белый человек.
Случай – демонстрация того, как может быть использована VEO 3 для создания информационного фона, а также какую опасность сеть представляет для разжигания розни.
«Особую угрозу Veo 3 представляет для Индонезии из-за нашего религиозного и этнического многообразия. Наше плюралистическое общество уже доказало свою уязвимость перед дезинформацией, разжигающей межрелигиозную и межэтническую напряжённость», – подчеркивает участник GFCN Фаузан Аль-Рашид.
Впрочем, бороться с новыми технологиями не нужно. Та же VEO 3 – это ресурс. В правильных руках он может стать инструментом для создания качественных образовательных видео, направленных, в том числе, для популяризации критического мышления, которое лежит в основе распознавания фейков.
Второй необходимый базис информационной безопасности – правовое регулирование использования ИИ. Область должна стать полем сотрудничества для тех государств, которые заинтересованы в том, чтобы нейросети стали ступенью для развития, а не инструментами мошенничества.
Подписаться на Войну с фейками
Поддержать редакцию