Новое поколение фейков

15.07.17 18:25

Информационные пузыри

Распространение фальшивых новостей — это лишь первая волна фейкового контента, нашествие которого стоит ожидать в ближайшие годы. Генеративные нейросети (GAN) уже позволяют создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Журнал The Economist объясняет, как устроен новый мультимедийный мир, в котором ничему нельзя доверять.

The Economist приводит в пример видеоролик Alternative Face v1.1, созданный немецким художником Марио Клингеманном. На видео певица Франсуаза Арди в возрасте 20 с небольшим лет (ей сейчас 73 года) воспроизводит речь Келлиэнн Конуэй — советницы президента США Дональда Трампа. Конуэй получила известность после использования парадоксального термина "альтернативные факты". Видеоролик как раз представляет собой "альтернативный факт" и медийное явление совершенно нового порядка. Alternative Face v1.1 создала генеративная нейросеть — система на основе машинного обучения. Проанализировав старые видеозаписи с Арди, программа генерировала уникальный видеоконтент, которого на самом деле не было, а поверх наложила аудиодорожку с комментариями Конуэй.

Генеративные нейросети могут вывести фальшивые новости на новый уровень, в котором фейковые видеоролики и аудиодорожки нельзя будет отличить от настоящих. Принцип работы GAN-систем прост. Нейросети изучают статистические характеристики аудиозаписи, а затем воспроизводят их в другом контексте. При этом они улавливают изменения в речи с точностью до миллисекунды. Достаточно ввести текст, который нейросеть должна воспроизвести, и получится правдоподобное выступление, например, Трампа или другого политика. Хотя на самом деле никакого выступления не было.

В апреле канадский стартап Lyrebird опубликовал набор алгоритмов, которые могут сымитировать голос любого человека. Для обучения системе достаточно прослушать звуковой файл длиной не больше 1 минуты. Алгоритм не только имитирует голос, но и может добавлять нужную эмоциональную окраску. "Фотошоп" для речи также представила компания Adobe. Аудиоредактор вырезает произнесенные слова и вставляет на их место новые.

Генерирование изображений пока дается нейросетям сложнее. Даже после просмотра сотен картинок с собаками и кошками, нейросеть не может нарисовать убедительное вымышленное животное. Созданные ученым Яном Гудфеллоу GAN-системы изменили ситуацию. При запуске GAN одна нейросеть пытается обмануть другую, имитируя реальное изображение. Вторая нейросеть при этом контролирует процесс и сопоставляет генерированный контент с реальной базой изображений.

GAN уже удается по описанию составить довольно точный "фоторобот" птицы, хоть и небольшого размера. К тому же системы постоянно совершенствуются. По прогнозам Гудфеллоу, через три года YouTube заполнят фейковые ролики. Другие эксперты считают, что на налаживание процессов медиафальсификации уйдет больше времени, но рано или поздно это точно произойдет.

Программа Face2Face уже позволяет переносить движения, мимику и фразы любого пользователя на видеоролик с другим человеком. Разработчики, например, показали, как можно удаленно поменять выражение лица Трампа на видео с помощью ПО.

Со временем в арсенале каждого интернет-пользователя окажется устройство для верификации контента. Это может быть программа для изучения метаданных или система, которая исследует задний план фото или видео, сопоставляя местность с данными на Google Earth. Защититься от нашествия фейков поможет и шифрование.

Источник: "Хайтек"

Редактор: Фыва


TOP

15.07.17 19:33

> rabdrafi
Чё то я затупил. И что? Типа без людей штаамповаться новости будут? Дык и люди многие сейчас клавиатуры не умнее.
Раньше можно было поверить фотографии и видео, сейчас уже только видео, а завтра, чтобы чему-то верить - нужно будет присутсвовать на месте событий.


rabdrafi

15.07.17 19:49

Ну видео и сейчас монтируется только в путь. А достоверные источники- дык и сnn вон новости само придумывало. Просто количество видео возрасте в YouTube.

Клаузевиц

15.07.17 20:01

Кстати, по идее, так можно скомпрометировать любого неугодного человека. ЛЮБОГО. Просто подделать разговор с кем-либо, где речь якобы идёт о взятках. И всё. Пусть доказывает, что это фейк.

Cкептик

15.07.17 20:45

Да. Подделать можно всё легко и беззаботно.
И если это принять как факт - тогда на первый план выходит тот, кому принадлежат более могущественные каналы распространения информации на свою и на чужую аудиторию.
-
Если это считать войной (ну, пусть гибридной войной) будущего -- то наше оружие, нашу Russia today мы начали ковать гораздо позднее чем наши враги выковали свой CNN.
Вывод: СиЭнЭн клевать -- наши каналы поддерживать, развивать и укреплять.


rabdrafi

16.07.17 02:03

RT в Англии смотрят не многие. Но те, кто смотрят - обычно из среднего класса или верхнего слоя низшего. Люди думающие и критично оценивающие. А CNN, как и ВВС - уже пожелтели давно. Прямо СПИД - инфо 90х. Пара фактов и куча лапши для жвачных перед зомбоящиком. А вот рт- молодцы. Интерпретация тонка и не заметна, а фактажа - до фига. Даже запретить очень хотелось, но не получилось. А про фейки - Ну и сейчас их клепают, если надо. Вон жертвы атак вкс - посмотрите да посмейтесь. А англики верят.

zizmo

16.07.17 06:57

Поспешили. 23.09 новость пошла бы с особым шармом. "The Running Man", 1987, 1-2я и 35 минуты.
PS Шварц, Пола Абдул.... эх...


Alanv

19.07.17 23:53

Полу Абдул я там вроде только в титрах помню (вроде постановщица хореографии), так что "эх" мне как-то неясно...

Размещение комментариев доступно только зарегистрированным пользователям