Вы потеряли лицо? Deepfake: казнить нельзя помиловать!

Пусть ложь сердец прикроют ложью лица

- Уильям Шекспир

“Но это же не я, верите?!” - такие фразы будут периодически звучать в ближайшем будущем при просмотре видеороликов в соцсетях. Возможно...

Продолжая темы, связанные с развитием технологий искусственного интеллекта (ИИ), поднятые в прошлом монологе,  предлагаю сегодня поговорить о дипфейке (англ. deepfake). Слово на слуху, тема достаточно скандальна, чтобы появилось желание посмотреть на нее под разными углами зрения. А заодно выясним, можно ли использовать данную технологию в образовании, все же именно эту тематику я веду в Журнале.

Но начнем мы не с дипфейка. А с проблем общения и получения информации в современном обществе. Множественные исследования в области механизмов социального взаимодействия уже более десяти лет назад выявили глобальную проблему - в гиперинформационной среде происходит утрата навыков социального взаимодействия, “живое” взаимодействие между людьми все больше смещается в область виртуальную, обеспечиваемую электронными средствами.

Посмотрите на графики, опубликованные в издании Biologist еще в 2009 году (Volume 56 Number 1, February 2009). По годам показано соотношение социального взаимодействия и времени использования электронных медиа-средств. Примерно в 1997 году это время сравнялось, а уже к 2007-му время, проводимое с гаджетами, в 4 раза превысило время общения в реальном мире.

 

С тех пор кривые разошлись еще дальше.

Можно возразить, что это исследование проводилось не в России, но результаты оказались близки в разных странах, а последние исследования времени нахождения детей и подростков в соцсетях вообще не в нашу пользу. Об этом мы еще поговорим в последующих статьях, там много интересной и важной информации.

Пока по теме особенностей современного потребления информации и возникающих в связи с этим проблем рекомендую посмотреть выступление президента Высшей школы методологии, руководителя лаборатории нейронаук и поведения человека Сбербанка, основателя интеллектуального кластера «Игры разума» Андрея Курпатова.

 

Мы же возьмем за основу тот факт, что сейчас значительную часть информации человек получает из сети. При этом заметно явное смещение интереса от текстовых материалов в сторону видеоконтента и интернет-мемов, как правило игрового, комического характера. Налицо и еще одно веяние времени: пользователи Интернет склонны больше доверять информации, распространяемой в сети, чем официальным СМИ, особенно телевидению.

А теперь представьте, что появилась доступная технология, позволяющая заменять часть контента фейковым, поддельным, при этом практически неотличимым от реального. И как вам мир, в котором нельзя доверять своим глазам? Добавлю, что и ушам тоже, так как эксперименты с подменой голоса начались гораздо раньше. И что нас ждет дальше с доверием к новостям и возможностям манипуляции с информационными событиями?

Главная проблема именно в доступности данной технологии. Мы же нормально воспринимаем тот факт, что профессионалы на киностудиях создают целые фантастические миры, "настоящие" до ощущения реализма происходящего. В принципе, не особо взволновали общество и первые эксперименты по замене лица одного человека на лицо другого в демонстрационных роликах крупных IT компаний, т.к. подобными технологиями владели лишь эксперты по искусственному интеллекту и компьютерным спецэффектам, да и вычислительные мощности для таких манипуляций требовались колоссальные.

Но время шло, нейросети плотно вошли в нашу жизнь, предоставляя обычным пользователям все больше возможностей. Вот и процесс создания фальшивого видеоконтента значительно упростился с распространением технологий машинного обучения и выходом на рынок пользовательских приложений нового поколения. Мы вступили в эру дипфейка и теперь надо как-то с этим жить.

Само слово deepfake появилось всего несколько лет назад. Оно соединило в себе два понятия: глубокое обучение (англ. Deep Learning), то есть обучение нейросетей, и подделку (англ. Fake). Создал технологию в 2014 году студент Стэнфордского университета Ян Гудфеллоу, который в настоящее время работает в Apple Inc. в качестве директора по машинному обучению в группе специальных проектов. По сути, это основанная на искусственном интеллекте технология синтеза изображений. Используется для замены элементов изображения на заданные образы. В основе  данной технологии обычно лежат генеративно-состязательные нейросети (GAN). Если коротко: программа обучается на фотографиях объекта и создает изображение, которое сравнивается с оригиналом, пока результат не выйдет на заданный уровень. Во время обучения анализируется большое количество снимков и ИИ обучается тому, как может двигаться и выглядеть в разных ситуациях заданный объект. А далее объединяет эти данные, создавая видео с “участием” данного объекта, или накладывая его подвижное изображение на другое видео. Можно сказать и еще проще - нейросеть по пикселям собирает ролик на основе предварительного анализа готовых изображений. Сказать-то “проще” можно, но только представьте себе, какие фантастические технологии оказались в распоряжении рядовых пользователей с выходом удобных приложений для подобных трансформаций.

В настоящее время дипфейк-видео можно заказать у специализированных студий, таких как Dowell и Reface.

Цена работы по преображению героя присланного вами ролика начинается от $1000.

Но создать такой ролик можно и самостоятельно, множество компаний во всем мире работает над удобными приложениями. Одна из них, Synthesia. недавно выпустила сервис Synthesia Create, в котором, как в конструкторе, можно выбирать виртуальных персонажей, фон, язык, вводить текст и создавать готовый ролик.

Это гениальные разработки, позволяющие обычному пользователю прикоснуться к миру высоких технологий, освоить азы машинного обучения (для создания по-настоящему правдоподобного видео-ролика с подменой персонажа придется долго "учить" систему производить нужные замены). Но готовы ли к этому миллионы и миллиарды пользователей? Может быть они начали создавать веселые и умные мультфильмы с интересными персонажами? Ну да, сейчас…

Так уж получается, что самые современные технологии не делают человека лучше, умнее, честнее. Вот и с дипфейком так произошло. Как только технология стала более-менее доступна, в сеть начали поступать ролики, дискредитирующие публичных личностей, изображений которых множество в открытом доступе. Вы без труда найдете информацию о таких случаях, не хочу здесь их описывать.

Появились и YouTube- каналы c дипфейк-роликами. И здесь можно увидеть примеры по-настоящему интересных материалов, как технологически, так и содержательно. Например, ролик "Malaria must die", созданный нейросетью на основе фотографий Дэвида Бекхэма. Спортсмен призывает людей бороться с малярией.

 

Очень жаль, что столь совершенные технологии не всегда попадают в хорошие руки. К сожалению, желание пользователей "хайпануть" в соцсетях чрезмерно велико. А выделиться можно, в основном, на негативном контенте. Вот и распространяется по сети вирус дипфейкового видео низкоуровневого содержания. Хуже этого только тот факт, что технологию стали использовать и для сведения межличностных счетов, дискредитации конкурентов по бизнесу и прочих, столь же значимых задач.

Одну из последних нашумевших историй опубликовала The Inquirer от 12 марта 2021 года.

Раффаэла Спон (Пенсильвания, США) пыталась убрать соперниц дочери по чирлидинг-команде с помощью дипфейков. Она анонимно отправила тренерам дипфейк-фотографии и видео, на которых девушки пили, курили или были обнажены.

 

Такие же материалы Спон отправляла и самим девушкам, призывая покончить с собой в анонимных сообщениях. Пострадали, как минимум, три девушки. История закончилась более-менее "благополучно", в суде была доказана поддельность материалов, для этого привлекались специалисты IT компании, Спон понесет наказание.

Но нанесенный моральный ущерб фигурантам дела? Его не покроет свершившееся правосудие, психологические травмы лечатся долго, а материалы, попавшие в сеть, так просто не вычистишь. А теперь перенесите подобное дело в наши российские реалии? Многие ли смогут позволить себе судебные издержки и IT компанию в качестве экспертов?

Согласно данным компании по кибербезопасности Sensity, количество дипфейков растет в геометрической прогрессии, удваиваясь каждые полгода. 

При этом из 85 тысяч видео, которые можно найти в сети, 90 процентов — порнография.

Просто сделайте вывод о возможности вашего попадания в дипфейк, а заодно прикиньте, сколько своих изображений, которые можно использовать для обучения нейросетей, вы публикуете в соцсетях… Да, технология еще мало используется в российском сегменте сети, но отставание стремительно сокращается.

 

В этом вопросе надо очень быстро искать юридические решения, так как на текущий момент жертвы дипфейка практически беззащитны.

И вроде даже были примеры реакции соцсетей на общественное недовольство, так в 2018 году Фейсбук начал (по крайней мере объявил) блокировку дипфейков. Но законодательная система отстает, а возросшие в период пандемии ряды потребителей контента стимулируют быстрый рост дипфейк-индустрии. На текущий момент  все же разработано несколько законодательных актов, например "Закон о цифровых услугах" в Евросоюзе. В России подписан президентом закон о лишении свободы за клевету в интернете. Но непосредственно дипфейков эти законодательные рамки не касаются, или затрагивают опосредованно.

И вот эта юридическая пустота очень настораживает. В новом информационном мире на подобные угрозы надо научиться реагировать быстро и эффективно. Скажем, вводить обязательность специальных меток, "цифрового следа" на всех материалах, создаваемых с использованием технологии дипфейк. А за выпуск в сеть приложения или контента без таких меток предусматривать юридическую ответственность. При современных компьютерных возможностях создание таких меток вполне реализуемый вариант. И тогда уже на стадии публикации в соцсетях подобные материалы будут иметь соответствующие теги и подвергаться дополнительной проверке. Это как минимум.

Грустно, что при обсуждении столь выдающейся новой технологии пришлось начать с негативных аспектов ее применения. Но слишком уж на виду эта сторона, заслоняет позитивные и весьма перспективные сценарии использования. А таких множество уже сейчас.

Например, нейросеть GauGAN от компания NVIDIA, способна превращать наброски-скетчи в реальные изображения. Геймдизайнеры могут использовать программу для создания локаций для игр, архитекторы - собирать из чертежей проекты зданий и инженерных сооружений.

Посмотреть на процесс работы с приложением можно в видеоролике

 

Множество сценариев использования дипфейк в рекламной индустрии, например – локализация роликов со знаменитостями.  Записав один ролик на языке оригинала, можно затем сделать так, что в разных странах знаменитость будет обращаться к зрителям на их родном языке, при этом будет правильная артикуляция и смысловое содержание.

Ожидается и массовое использование технологии в кинопроизводстве, что сократит затраты на съемочный процесс и монтаж материала.

Возможности создания виртуального "аватара" на основе изображений реального человека уже используются в индустрии моды. Существуют виртуальные модели, демонстрирующие новые коллекции модных домов. Если расширить тему, можно ожидать, что в скором времени мы сможем примерять одежду, обувь, прически в виртуальных примерочных.

Возникает и тренд на использование дипфейк в образовании.

Рекламный холдинг WPP обучает сотрудников при помощи нейросети. Виртуальный наставник ведет обучение на английском, испанском и китайском языках, обращаясь к каждому сотруднику лично по имени. Учитывая, что порядка 70% сотрудников мировых компаний предпочитают в качестве обучающих материалов именно учебные видеокурсы (исследование компании Wyzowl), можно представить огромные перспективы технологии именно в этой отрасли. И здесь не только удобная и быстрая локализация учебных материалов и возможность использовать единый контент в разных странах расположения офисов компании. В перспективе виртуальные помощники в обучении смогут адаптироваться к каждому студенту, изменяя темп, а иногда и варьируя содержательную часть в соответствии с каждым типом восприятия. Добавьте к этому возможность легкого изменения содержательной части, ведь при использовании данной технологии не потребуется переснимать лекции с изменениями, достаточно будет просто изменить текст в сценарии.

Да, это будет новая эпоха в создании образовательного контента. Хотя и возникают сразу мысли о возможностях манипуляции сознанием, о грядущем уходе пользователей из реальной жизни в виртуальное общение с использованием продвинутых аватар… Но тут, как обычно, все в наших, человеческих руках. И как будем использовать новый инструментальный "молоток" – создавать новые конструкции или бить по голове соседа, определяем мы сами.

 

 

Автор: Юрий Винницкий, кпн

Подпишитесь на нас в соцсетях

VK



Комментарии

ОтменитьДобавить комментарий

Поиск по сайту

Тэги по теме