Как устроены дипфейки, зачем они нужны и есть ли от них польза? На эти и другие вопросы ответил ведущий YouTube-канала «Индустрия 4.0» Николай Дубинин
Введение
Новая цифровая реальность последних лет, в большинстве технологических решений которой ядром выступает искусственный интеллект (ИИ), существенно исказила восприятие человеком разницы между реальностью и вымыслом. Один из главных «стирателей» такой грани — дипфейк-технологии, которые можно охарактеризовать как методику автоматизированного, т.е. машинного синтезирования аудиовизуального цифрового контента (изображений, аудио, видео и даже текста) с целью создания видоизмененного и при этом максимально реалистичного контента. Сфера применения дипфейков обширна и ограничивается, по сути, лишь периметром самой «цифровой вселенной», а в некоторых случаях даже выходит за ее пределы (например, распространенная практика автоматизированных колл-центров использовать в разговорах с людьми «очеловеченный» искусственный голос или озвучка «роботом» рекламных объявлений на радио). В свете постоянно ускоряющейся цифровой трансформации общества, посягающей на все большее количество ранее сугубо «аналоговых» сфер жизни, поле для возможного произрастания «семян» дипфейка также стремительно расширяется. Параллельно с этим процессом множатся и риски как на уровне отдельно взятого человека, так и в масштабе государства.
Сегодня технологии искусственного интеллекта не просто выводят повседневность на новый уровень, а делают парадоксальное реальным. Преподаватель образовательной платформы Moscow Digital School и ведущий юрисконсульт практики интеллектуальной собственности юридической компании ЭБР Спартак Хулхачиев объясняет, как меняется наша обыденная жизнь после появления AI-технологий.
На днях услышал, как Виктор Цой поет песню Кипелова «Я свободен». В подписи к этому видеоматериалу было указано «AI-cover». После этого остановиться уже было сложно, и я переслушал все: от Freddie Mercury, исполнившего легендарную «My Heart Will Go On» Селин Дион, до кавера Кар-Карыча на RHCP.
К сожалению, подобные технологии используются не только в развлекательных целях. И если фраза «AI-cover» не несет в себе негативных ассоциаций, то сказать того же про слово «дипфейк» нельзя. Хотя суть технологии сходная. Именно поэтому будет интересно порассуждать об этом феномене с юридической точки зрения.
Линию размышления можно выстроить в двух направлениях. Первое – регулирование дипфейков как объектов интеллектуальных прав. Второе – отношение законодательных органов и регуляторов на то, как дипфейки влияют на жизнь общества. Первое направление более сложное и заслуживает целой отдельной статьи, поэтому пока предлагаю остановиться на отношении государственных органов к проблеме дипфейков – этот аспект проблемы легче воспринимается, да и поводы для обсуждения имеются.
Стремительное развитие дипфейк–технологий в последние годы существенно упростило и расширило возможности различных манипуляций с аудиовизуальным контентом. В ряде стран уже зафиксированы случаи использования модифицированного контента в судопроизводстве в качестве вещественного доказательства. Однако любые технологические прорывы, и дипфейки здесь не исключение, ставят под сомнение истинность или достоверность таких доказательств. Видоизмененные (синтетические) изображения/видео стали настолько достоверны и убедительны, что их все сложнее разделять на, собственно, фейк, т.е. подделку и на реально имевший место факт. Сегодня дипфейки — это инструмент шантажа, информационных и политических диверсий, способ «легендирования» недостоверных событий и новостей, диффамации и искусственной дестабилизации политической обстановки в отдельно взятой стране или обществе. Тем не менее у дипфейков есть и оборотная сторона — значительный положительный потенциал для образовательных, культурологических или развлекательных целей.
Дипфейк-технологии не нужно бояться, их нужно знать. Информированность — ключ к минимизации рисков и угроз, игнорирование — прямая дорога на «минное поле» многочисленных дипфейк-ловушек. Так или иначе цифровизация нашей жизни будет продолжаться. В идеальном сценарии каждый новый технологический виток будет происходить после нивелирования негативных проявлений предыдущего. Однако на практике так происходит все реже. Повышение собственной цифровой грамотности позволит избежать подавляющего большинства технологических «мышеловок», поскольку практически весь деструктивный контент, в котором все большее значение отводится дипфейкам, ориентирован на неискушенного пользователя. Любой массовый синтетический контент только хочет казаться неотличимым от настоящего. На самом деле он имеет множество технологических и контекстных (логических) изъянов, увидеть которые не так сложно. Как в современном кинематографе мы с легкостью различаем реальных и «нарисованных» героев, какие бы совершенные технологии нам ни показывали, так и в жизни любой человек способен распознать абсолютное большинство дипфейков. Пока на технологическом и государственном уровнях не будет выстроен надежный периметр безопасности в сфере дипфейк-технологий, наша защита будет во многом зависеть от нас самих.
Что такое дипфейк и с чем его едят?
Дипфейк (от англ. deep fake) — комбинация двух терминов: «глубинное обучение» (от англ. deep learning) и «подделка, ложь» (от англ. fake). Необходимо отметить, что количество одних только видео-дипфейков, циркулирующих в Интернете, стабильно увеличивается вдвое каждые полгода. Их общее число вряд ли поддается подсчету. По данным некоторых иностранных экспертов, всего за два года существования в относительном доступе инструментов по производству дипфейков только «очевидного» вредоносного видеоконтента выявлено свыше 85 тыс. единиц. При этом уместно предположить, что синтетический контент всех видов (видео, аудио, изображения и текст) может исчисляться сотнями миллионов единиц, одномоментно находящихся в цифровом пространстве.
Для ответа на вопрос, что же такое дипфейк с технологической стороны вопроса, рассмотрим два самых распространенных его вида: видео и аудио. В основе процесса создания дипфейк-видео лежит работа генеративно-состязательных нейросетей (от англ. generative adversarial networks — GANs), анализирующих колоссальную по объему для человека, но не машины, выборку данных с целью изучения выражений лица «объекта», его характерных черт и мимики в целях дальнейшей имитации вышеперечисленных признаков. Процесс имитации состоит в том, что два человеческих образа «погружаются» в алгоритм глубокого обучения, который изучает их по множеству различных параметров (используется метод картографии лица) с целью максимально естественной замены одного лица на другое. Как правило, есть прямая взаимосвязь: чем больше анализируется разнообразного исходного видеоматериала, тем выше итоговое качество подделки.
С аудио-дипфейками процесс создания в целом аналогичен. Необходимо иметь аудиозаписи человека (чей голос планируется «клонировать») в различных ситуациях: интервью, публичные выступления, телефонные голосовые сообщения, реплики из бытовых разговоров и т.д. Они разбиваются на микрофрагменты и направляются на изучение алгоритмам глубоко обучения. Сейчас для создания подделки среднего качества достаточно 10–15 минут исходных данных. Однако, чтобы синтетический голос правильно или в характерном для «оригинала» ключе делал ударения, паузы, использовал междометья и пр. потребуется несколько часов разнообразных аудиозаписей. В этом случае происходит самое натуральное клонирование или синтез голоса. Его практически невозможно отличить от настоящего, не имея специализированных программ и технологий, выявляющих подделку по мельчайшим звуковым аномалиям.
Сегодня дипфейки являются одной из самых популярных разновидностей генеративного контента. Причем если раньше для их создания требовалось профессионально владеть средствами монтажа и языками программирования, то сейчас порог входа в использовании различных ИИ-инструментов значительно снизился. Об этом участникам III Молодежного форума по управлению интернетом рассказал руководитель отдела стратегических направлений АНО «Диалог» Тимофей Ви.
Эксперт считает, что блокировка генеративного контента подобна борьбе с ветряными мельницами, и убежден, что дипфейки нужно не запрещать, а маркировать.
По словам Тимофея Ви, нет никакой проблемы в том, что появляется тот или иной инструмент создания контента. Угроза возникает тогда, когда значительно возрастает масштаб использования этого инструмента.
«Это касается и дипфейков: мы прошли ту точку, когда они из предмета узкого научного интереса превратились в реально действующую технологию, которая может быть использована в неблаговидных целях. Сегодня любой школьник и студент может задействовать генеративные алгоритмы в том числе для производства фейкового контента, преследующего своей целью сознательный обман людей», — подчеркнул эксперт.
Однако, как отметил Тимофей Ви, простая блокировка механизмов для создания дипфейков неэффективна. Наработанная за годы деятельности «Диалога» практика в сфере противодействия дезинформации убедительно показывает: систематически бороться с любым недостоверным контентом позволяет исключительно повышение уровня цифровой грамотности населения.
«Наш опыт демонстрирует, что вдолгую работает только просвещение людей об опасности тех или иных инструментов в цифровой среде, иллюстрация положительных и негативных кейсов. Пока мы не поднимем уровень цифровой грамотности широких масс, все инструменты, вводящие пользователей в обман, будут достаточно эффективны», — заявил эксперт.
Помимо цифровой грамотности, решением проблемы регулирования дипфейков может стать маркировка контента, созданного не человеком. По мнению Тимофея Ви, любой пользователь сети, сталкивающимся с подобным контентом, должен иметь право знать, что он создан искусственным интеллектом. В первую очередь действие таких регуляторных механизмов должно распространяться на цифровые платформы.
«Возможность предоставления человеку права выбора, смотреть или нет контент с использованием дипфейков, является здравой идеей», — подчеркнул эксперт.
III Молодежный форум по управлению интернетом организован Центром глобальной ИТ-кооперации и Центром международного продвижения при поддержке Фонда президентских грантов. « Диалог» выступил официальным партнером форума.
В «Лаборатории Касперского» рассказали, как вычислить дипфейк
. Эксперты призвали обращать внимание на качество звука
«Лаборатория Касперского»: голосовой дипфейк выдает неестественная монотонность речи
Обновлено 11 июля 2023, 09:40
Голосовой дипфейк выдает неестественная монотонность речи. Именно эта особенность может помочь распознать звонок или сообщение от мошенников, рассказали эксперты «Лаборатории Касперского».
Технология искусственного интеллекта под названием deepfake (от deep learning, «глубинное обучение», + fake, «подделка») позволяет с использованием машинного обучения создавать подделки изображений, видео- или аудиоданных.
Также маркером, на который стоит обратить внимание, может стать качество звучания. Если во время звонка или голосового сообщения пользователь заметил неразборчивость речи или странные шумы, следует насторожиться.
«Риск столкнуться с подобным мошенничеством мал, но есть, поэтому про подобные виды обмана стоит знать и помнить. Если вам поступает необычный звонок, обращайте внимание на качество звучания, неестественную монотонность голоса, неразборчивость речи, шумы. Помните, что эффект неожиданности — это оружие злоумышленников, которые рассчитывают вызвать у вас панику», — отметили эксперты.
Технология дипфейков безвредна, однако в руках мошенников она может стать опасным инструментом для обмана и дезинформации, отмечают специалисты. В «Лаборатории Касперского» привели в пример случай, который произошел в 2019 году. Тогда мошенники при помощи голосового дипфейка ограбили британскую энергетическую компанию.
«В телефонном разговоре злоумышленник притворился генеральным директором головного немецкого подразделения компании и потребовал срочно перевести €220 000 ($243 000) на счета некоей компании-поставщика. После того как платеж был отправлен, мошенник звонил еще дважды: первый раз — чтобы усыпить бдительность сотрудников британского офиса и сообщить, что головной офис уже отправил возмещение этой суммы, а второй — чтобы затребовать еще один перевод», — рассказали специалисты.
Эксперты посоветовали не доверять подозрительным звонкам, не сообщать личную информацию. Для серьезных случаев можно придумать кодовые слова, которые помогут понять, кто находится на другом конце провода — дипфейк или знакомый человек.
Ранее в «Лаборатории Касперского» сообщили, что мошенники стали активнее использовать в своих схемах ChatGPT. При помощи нейросети они создают в том числе голосовые дипфейки. Специалисты объяснили, что использование искусственного интеллекта позволяет злоумышленникам упростить и ускорить их «работу». Популярны также видеодипфейки. Чаще всего используют лица знаменитостей, которые предлагают пользователям вложиться в «выгодные» инвестиционные схемы.
Краткая история дипфейка
Феномен популярности дипфейков
Две главные причины бешеной популярности дипфейков у интернет-пользователей, политтехнологов, а также мошенников и экстремистов различного толка — относительная легкость создания и сильнейший воздействующий эффект. Фантастические блокбастеры в кинотеатрах с легкостью собирают кассу в сотни миллионов долларов как раз по причине зрелищности, хотя люди прекрасно понимают, что им по большей части показывают сплошные комбинированные съемки и дипфейки, а не реальные «живые» кадры. Пока создание правдоподобной видео-картинки было возможно лишь на крупных киностудиях, эти технологии, с «заклепочной» точки зрения, мало кого волновали, интересен был лишь итоговый развлекательный эффект в кинозале. Что-то похожее можно наблюдать и в контексте аудио-дипфейков. Когда в 1985 г. известный британский астрофизик С. Хокинг окончательно лишился возможности говорить, ему на помощь пришла корпорация «Intel» со своим синтезатором речи Speech Plus CallText 5010 (робот «с американским акцентом» читал набранный ученым текст). Этот «металлический» голос, который даже не умел делать ударения и выдерживать паузы, стал визитной карточкой С. Хокинга: десятки лет с его помощью читались лекции и озвучивались научно-популярные фильмы. Ученый отказывался его менять до самой смерти в 2018 г., несмотря на уже имевшиеся многочисленные улучшенные варианты. Таков был упомянутый воздействующий эффект как на самого С. Хокинга, так и на его многомиллионную аудиторию по всему миру. Однако, как и в случае с киноиндустрией, общественный интерес к технологиям синтеза голоса оставался на уровне бытового любопытства, поскольку не было доступного инструментария для личного творчества.
Все изменилось с ускорением цифровизации в последние 5–7 лет. Появились достаточные вычислительные мощности с соответствующим программным обеспечением, доступные для приобретения и использования огромному числу людей во всем мире, а также высокоскоростной Интернет. Еще на заре современных «гражданских» дипфейк-технологий, в январе 2018 г., на упоминавшемся сайте «Reddit» к популярному приложению fakeApp давалась пошаговая инструкцию создания собственных дипфейк-видео. Тогда же появились коммерческие приложения и программное обеспечение для генерации любых синтетических аудио.
Две стороны дипфейк-медали
Возможно, на первый взгляд покажется неочевидным, но в ряде случаев дипфейки могут принести существенную пользу обществу. Взять, к примеру, сферу образования, которая в последние годы существенно наращивает интерактивно-цифровую составляющую. Если уж что-то и нужно оцифровывать в учебном процессе, так это то, что невозможно воспроизвести или показать учащимся традиционным «аналоговым» способом. Многим школьникам уроки истории показались бы намного интереснее, если бы они иллюстрировались качественными дипфейками великих людей прошлого: правителей, военачальников, деятелей науки и культуры. Они могли бы рассказать часть школьной программы как свою личную историю. Этот же пример уместно спроецировать и на уроки литературы. Представьте, насколько увлекательным станет знакомство с классикой русской литературы, если поэты «золотого века» смогут «лично» декламировать свои только что сочиненные стихи.
Другая сфера применения аудиовизуальных дипфейков, доказавшая свой положительный эффект, — это упоминавшаяся ранее киноиндустрия. Обитатели исчезнувших миров прошлого, воображаемого будущего или далеких просторов галактики оживают на экране во многом благодаря возможности создания синтетических образов. Дипфейки дешевле в производстве и качественнее ранее активно использовавшихся SFX, VFX и CGI технологий. Кроме того, они позволяют омолаживать или даже воскрешать на экране уже умерших актеров.
Даже в индустрии моды и дизайна есть место дипфейкам. Различные узоры, рисунки, орнаменты играют важную роль в создании шаблона. С помощью технологии синтезирования образов модельеры и дизайнеры могут использовать комбинацию старого дизайна и орнамента для создания, к примеру, новой линии сумок (как раз в русле изначальной задумки Й. Гудфеллоу — синтезировать новое на базе известного старого). В итоге в процессе поиска свежих идей применение современных цифровых методов позволяет сэкономить время и деньги.
На этом радужном фоне риски и угрозы бесконтрольного применения дипфейк-технологий выглядят намного внушительнее. Поскольку стержневая идея любых дипфейков — максимальная реалистичность и правдоподобность, то уже сегодня мы наблюдаем лавинообразный рост модифицированного контента, созданного с целью манипуляции сознанием как отдельно взятого человека, так и общества в целом. Один из самых распространенных и при этом легких дипфейк-способов изъятия денежных средств у населения — запись мошенниками голоса жертвы (главная задача состоит в том, чтобы добиться произнесения ключевых слов, таких как «да»), на основе которой генерируется типовая звуковая дорожка для «общения» с роботом службы поддержки банка. Грамотно синтезированная на базе ключевых фрагментов запись позволяет «достоверно» ответить на все вопросы робота для перевода средств на нужный мошенникам счет. Кроме того, известны случаи, вернее попытки, использовать синтетические аудиозаписи в качестве вещественных доказательств в суде. В 2019 г. в Великобритании состоялись слушания по делу об опеке над детьми, в ходе которых в качестве доказательства мать представила в суд поддельную аудиозапись с угрозами отца. К счастью, после экспертизы такое доказательство не было приобщено к материалам дела, однако это не означает, что в других случаях подобные «факты» будут также тщательно изучаться. Следует понимать, что возникающая необходимость серьезной экспертизы любых аудиовизуальных доказательств неминуемо будет затягивать ход судопроизводства, увеличивая соответствующие расходы и нагрузку на работников судебных и правоохранительных органов. Помимо этого, постепенно сформируется эффект «недоверия по умолчанию» к любым цифровым доказательствам. В недалекой перспективе это будет означать в буквальном смысле необходимость представлять в суд и другие уполномоченные инстанции верификацию или дополнительные гарантии реальности всех цифровых доказательств.
Если подняться еще выше, на наднациональный уровень, то можно легко представить себе ситуацию применения дипфейк-технологий с целью хаотизации целых регионов. В качестве наглядной иллюстрации можно привести весьма чувствительное к любому воздействию и традиционно взрывоопасное духовно-конфессиональное пространство. В странах Евросоюза до сих пор вспоминают события января 2015 г., когда в редакцию французского сатирического журнала «Charlie Hebdo» ворвались исламские радикалы, убив 12 и ранив еще 20 человек. Поводом для кровавой бойни послужила опубликованная журналом очередная карикатура на пророка Мухамеда. Всего лишь. Представьте, каковы могут быть последствия, если дипфейк-технологии начнут массово применяться в целях разжигания межконфессиональной вражды? Эскалация и всплеск насилия, возможно даже религиозные войны — это все более чем реально.
Не верь глазам своим
Дипфейк — это технология, основанная на ИИ, которая позволяет подделывать изображения людей. Нейросеть способна воспроизвести полную цифровую копию человека, воссоздавая не только его лицо, мимику, одежду, но и голос. Поэтому отличить подделку от оригинала практически невозможно.
В этом убедился глава компании по информационной безопасности CyberArk Software Ltd Уди Мокади. Во время видеоконференции с коллегами он увидел дипфейк с собственным изображением. Двойник сидел в его кабинете, одетый в толстовку с капюшоном.
***
Уже несколько лет дипфейк-технологии в том или ином виде вошли в нашу жизнь. Их не нужно бояться, их нужно знать. Информированность — ключ к минимизации рисков и угроз, игнорирование — прямая дорога на «минное поле» многочисленных дипфейк-ловушек. Так или иначе цифровизация нашей жизни будет продолжаться. В идеальном сценарии каждый новый технологический виток будет происходить после нивелирования негативных проявлений предыдущего. Однако на практике так происходит все реже. Повышение собственной цифровой грамотности позволит избежать подавляющего большинства технологических «мышеловок», поскольку практически весь деструктивный контент, в котором все большее значение отводится дипфейкам, ориентирован на неискушенного пользователя. Любой массовый синтетический контент только хочет казаться неотличимым от настоящего. На самом деле он имеет множество технологических и контекстных (логических) изъянов, увидеть которые не так сложно. Как в современном кинематографе мы с легкостью различаем реальных и «нарисованных» героев, какие бы совершенные технологии нам ни показывали, так и в жизни любой человек способен распознать абсолютное большинство дипфейков. Пока на технологическом и государственном уровнях не будет выстроен надежный периметр безопасности в сфере дипфейк-технологий, наша защита будет во многом зависеть от нас самих.
1. R. Chawla, Deepfakes: How a pervert shook the world, International Journal of Advance Research and Development, Vol 4, 2019
2. Машинное обучение — подмножество ИИ, связанное с созданием алгоритмов, которые могут изменять себя без вмешательства человека для получения желаемого результата путем подачи себя через структурированные данные. Глубокое обучение — подмножество машинного обучения, где алгоритмы создаются и функционируют аналогично машинному обучению, но существует множество уровней этих алгоритмов, каждый из которых обеспечивает различную интерпретацию данных, которые он передает. Такая сеть алгоритмов называется искусственными нейронными сетями.
3. N. Gardiner, Facial re-enactment, speech synthesis and the rise of the Deepfake. Edith Cowan University, Theses 2019.
4. Meta признана экстремистской организацией в России.
5. Данная технология имеет сходство с видеорегистраторами в автомобилях, а также с портативными камерами, которые носят на себе представители правоохранительных органов.
Доверяй, но проверяй
Если с методами противодействия вредоносным дипфейкам в технологической и юридической плоскости все более-менее понятно, то что может предпринять рядовой гражданин для того, чтобы не стать объектом сторонней манипуляции? В контексте цифрового контента прежде всего следует обратить внимание на следующие принципиальные моменты:
Следует обращать внимание, на каком ресурсе размещено видео, не стоит доверять сомнительным и непроверенным источникам. Рекомендуется скептически относиться к любым неожиданно щедрым предложениям, исходящим от известных личностей. По мнению некоторых экспертов, неестественность в поведении человека на видео может вызывать у зрителей эффект «зловещей долины» (от англ. uncanny valley), выражающийся в появлении тревоги и неприязни к происходящему. Наше тело, в отличие от разума, нас редко обманывает и к его сигналам тоже имеет смысл прислушиваться.
В контексте вредоносных голосовых дипфейков общение с жертвой, как правило, строится вокруг денег (кредиты, долги, лотерея, инвестиции и пр.), что должно наталкивать человека на мысль о желании втянуть его в сомнительные схемы. Необходимо ясно и четко понимать, что именно от вас хотят, пытаясь задержать в разговоре эмоциональными или псевдонаучными репликами. Осознанность запускает наш внутренний механизм критического мышления, увеличивающий шанс выйти из-под любого манипуляционного воздействия.
Помните, каждый интернет-пользователь оставляет «цифровые следы», в том числе на форумах, сайтах различных сервисов и услуг, соцсетях. По возможности минимизируйте обнародование своих установочных данных (личных документов, почтовых адресов, телефонов, никнеймов, подписок, договорных и иных отношений с другими людьми, участие в группах по интересам и пр.). Это усложнит злоумышленникам сбор и анализ информации. Любому таргетированному воздействию с применением дипфейков и связанных передовых технологий, как правило, предшествует работа по изучению потенциальной жертвы.
Технологическое и юридическое регулирование дипфейк-технологий
Исходя из обозначенных выше угроз очевидно, что на текущем временном срезе дипфейк-технологии представляют серьезную угрозу не только для рядового человека, но и для архитектуры международной безопасности как таковой. По этой причине имеет смысл заострить внимание на мерах возможного регулирования дипфейков в целях минимизации урона от их применения. К счастью, на экспертном уровне уже разработан ряд технологических и правовых подходов.
Первый из них касается развития и внедрения «цифровой криминалистики», подразумевающей обнаружение дипфейков с помощью технических средств. К слову, в 2021 г. ученые из Университета Буффало разработали алгоритм, который с точностью в 94% вычисляет дипфейки по глазам человека на фотографии. И И-система умело определяет естественным ли образом свет отражается на роговице. Однако следует понимать, что даже при условии взрывного развития и внедрения алгоритмов по обнаружению дипфейков, загруженный пусть и на ограниченное время в сеть синтетический контент вполне способен нанести непоправимый ущерб, так как скорость распространения информации в Интернете сделает свое дело, охватив целевую или как минимум значительную часть аудитории.
С точки зрения классического права, создание или распространение значительной части дипфейков может классифицироваться как диффамация, мошенничество или незаконное присвоение образа (личности) человека, что предполагает административную, гражданско-правовую или даже уголовную ответственность. В теории можно криминализировать дипфейки, добавив соответствующие положения в гражданское, административное и уголовное законодательство. Однако в плоскости привлечения нарушителя к ответственности ситуация выглядит не столь однозначной, поскольку киберпреступник, как это часто бывает, в целях личной безопасности публикует вредоносный контент в чужой (иностранной) юрисдикции или через сеть анонимных посредников. В связи с этим актуальные тренды нормативно-правового регулирования в мире дрейфуют в сторону самоцензуры или саморегулирования со стороны цифровых платформ. В идеале они самостоятельно должны предпринимать достаточно усилий в целях идентификации и удаления дипфейков, а также любого иного потенциально вредоносного контента. Тем не менее на практике дело обстоит иначе. В глобальных экосистемах (например, под брендом «Alphabet») вместо законов, этнокультурных или религиозных традиций, за фактическое регулирование информпотоков, в том числе дипфейков, отвечают многостраничные «корпоративные нормы», «правила сообщества», а также некие «этические принципы». К их появлению ни государства, ни пользователи отношения не имеют, но обязаны соблюдать, если хотят иметь доступ и пользоваться полным спектром благ экосистем. В этом смысле мерилом «качества» и «приемлемости» любого синтетического контента предстает некий свод правил и политик конкретной цифровой платформы, который, в зависимости от ситуации, трактуется как заблагорассудится владельцами и операторами экосистемы. Таким образом, постановка цифровых платформ под плотный контроль в странах операционной деятельности — единственная на сегодняшний день мера воздействия в целях защиты общества от вредоносного контента, включая дипфейки. Государство в лице регулятора определяет критерии «правильного» и «неправильного» контента, а цифровая платформа принимает их к руководству и исполнению. В противном случае — крупный штраф или прекращение деятельности в национальной юрисдикции.
Как далеко заведут преступников технологии
Еще недавно в ходу было такое мошенничество: позвонить от имени «сына», попавшего в беду, и попросить денег. Сегодня цифровой арсенал для подобного обмана продвинулся. С помощью технологий можно имитировать голос и воссоздать внешность для видеозвонка
Этот материал входит в раздел «Технологии», в котором мы каждую неделю разбираем актуальные технологические тренды и публикуем прогнозы и рекомендации бизнесменов, IT-евангелистов и футурологов. Вы также найдете экспертные материалы о том, как стать продуктивнее, вывести бизнес на новый уровень и улучшить качество жизни с помощью технологий.
В 2022 году только в США компании и простые граждане потеряли почти $8,8 млрд от действий кибермошенников. Это на 44% больше, чем в 2021 году. В 2023-м глобальные потери от хакеров могут достичь рекордных $8 трлн.
Методы преступников совершенствуются по мере развития искусственного интеллекта. Одной из самых больших угроз кибербезопасности сегодня становится поддельный медиаконтент — дипфейки. Понять, что перед ним именно он, порой не может даже эксперт. А обычному человеку распознать обман практически невозможно.
Первые реакции органов публичной власти
Недавно в СМИ появилась новость, что российский парламент уже в ближайшей перспективе планирует ввести нормативное понятие дипфейка. Какая у этого причина? Как я уже говорил, истории про веселые музыкальные композиции – это только одна сторона медали. Обратная связана с тем, что дипфейк технологии используются для противоправных действий, таких как мошенничество или шантаж.
Дипфейк-технологии — инструмент ведения информационного противоборства в «гибридных войнах»
Цифровые сервисы, нанизанные на глобальную сеть Интернет, в последние годы превратились в мощный инструмент воздействия на сознание человека с целью формирования определенных поведенческих паттернов, политических, религиозных и идеологических воззрений. Социальные сети, мессенджеры и другие цифровые платформы, помимо декларируемых возможностей быстрого и удобного обмена информацией и организации взаимодействия людей на расстоянии, стали также неотъемлемой частью современных «гибридных войн». Согласно концепции последних, достижение геополитических целей (читай победы над врагом) связано уже не только с непосредственными боевыми действиями, но и с культивированием внутреннего протеста, социальной напряженности в фокусном государстве, а также взращиванием идеологически «правильного» поколения людей — опоры нового режима. Иными словами, речь идет о ведении прокси-войны руками и человеческими ресурсами противника на его же территории. В таких войнах дипфейки начинают играть одну из ведущих ролей за счет своего уже доказанного серьезного эффекта по формированию общественного мнения.
Весьма острой и пока еще нерешенной остается проблема распространения модифицированного аудиовизуального контента в СМИ и Интернете, порождающего феномен постправды. В контексте инициированного против России странами «коллективного Запада» информпротивоборства, в том числе с задействованием самых современных технологий на базе ИИ, особую актуальность приобретают средства внутренней защиты от таргетированного воздействия и обработки сознания граждан через имеющие огромную популярность в российской цифровой среде новостные сервисы, киноиндустрию, соцсети, маркетплейсы, видеоигры и интерактивный контент. В связи с этим возрастает значение отечественных ИИ-технологий, способных выявлять и ограничивать циркуляцию дипфейков. В случае интеграции защитных ИИ-алгоритмов в контур администрирования внутреннего информпространства появится реальная возможность содействовать поддержанию не декларативного, а реального баланса между правом человека на доступ к информации, в том числе иностранного происхождения, и правом государства на ее фильтрацию и удаление из национального «эфира» в интересах общества. Однако говорить о практических шагах на данном направлении пока еще преждевременно.
Зарубежный опыт
Проблема дипфейков обсуждается давно, и каждое государство вырабатывает свой подход к ее решению.
Избирательный кодекс штата Калифорния запрещает распространение обманчивых аудио- или видеоматериалов о кандидате, которые причиняют вред его репутации или могут ввести избирателей в заблуждение относительно голосования за или против кандидата. Такой запрет действует в течение 60 дней до момента выборов, на которых кандидат будет включен в избирательную бюллетень.
Если такие материалы все же попали в интернет, то кандидат получает право требовать судебного запрета на их дальнейшее распространение. Этот способ защиты реализуется не по правилам Избирательного кодекса, а по процедуре, предусмотренной Гражданским процессуальным кодексом штата Калифорния.
Этот запрет появился еще в 2019 году, когда в сети распространялись и были популярны видео с кандидатами на политические должности. Отметим, что термина «дипфейк» в Избирательном кодексе нет, но распространение таких роликов стало одним из поводов для внесения поправок в закон.
Суд в провинции Квебек рассматривал уголовное дело (R v Larouche, 2022 QCCQ 6917), связанное с хранением и созданием порнографических дипфейков с участием детей. Как указано в решении суда, обвиняемый создал более 86 000 таких видео.
Любопытно, что в этом примере суд составил собственное определение понятия «дипфейк». Согласно судебному решению, это «процесс манипулирования аудиовизуальными данными, использующий алгоритмы глубокого обучения для создания сверхреалистичных образов. Эта технология может быть использована, например, для встраивания лица человека в тело другого человека в видеоряд. Такая визуальная манипуляция может сочетаться с компьютерным голосом, который звучит идентично голосу персонифицированного человека».
В этом деле технология использовалась больше как способ совершения противоправного действия, поскольку предметом судебного исследования стала норма уголовного закона о запрете создания определенных порнографических материалов, а не какая-либо норма о запрете дипфейков.
Если приводить ситуацию к наименьшему общему знаменателю, то в мировой практике в большинстве случаев отсутствуют нормативно закрепленные понятия термина «дипфейк». Тем не менее общественность и органы власти время от времени обсуждают необходимость регулирования.
Например, в Южной Корее достаточно много людей подписали онлайн-петицию с требованием принять меры против дипфейк-порнографии. Корейские кей-поп айдолы нередко становились жертвами дипфейков, поэтому реакция общественности весьма закономерна. В Англии же были известны случаи применения дипфейков для шантажа.
Другая сторона дипфейков
С помощью генеративных нейронных сетей можно создавать контент, используя минимальное количество данных. С этой точки зрения технология связана совсем не с «пересадкой» лиц для веселья, а с практической целью. Сейчас по одной фотографии и тексту возможно генерировать видео. Текст синтезируется в аудио, по аудио анимируются фотографии — в итоге мы получаем говорящего спикера. С помощью этого комплекса алгоритмов можно очень быстро создавать видеоконтент.
Дипфейки могут «воскрешать» любимых актеров. Например, Филип Сеймур Хоффман и Пол Уокер, умершие во время съемок фильмов с их участием («Голодные игры: Сойка-пересмешница» и «Форсаж 7» соответственно), были воссозданы в цифровом виде. А Кэрри Фишер «воскресили» для съемок в девятом эпизоде «Звездных войн».
Мария Чмир, гендиректор Deepcake.io, утверждает, что скоро появится инструмент, который полностью изменит интерактивность. Сегодня все, что дают зрителям, — это выбрать концовку сериала. В будущем с помощью дипфейков мы сможем оказаться внутри киновселенной вместе со своими друзьями. Будет возможность и менять надоевших актеров. Ведь генеративные нейросети позволяют существенным образом редактировать, видоизменять и трансформировать контент.
Именно поэтому дипфейки — это не только манипуляция и дезинформация. С помощью них можно будет снимать фильмы со спецэффектами, оживлять персонажей и в целом добавить новый опыт потребления контента.
Можно ли вычислить дипфейки
Сложность в борьбе с нечестным использованием технологии заключается в том, что подделки будут становиться только качественнее.
Дипфейк — это генеративно-состязательная сеть. В ней есть генератор и дискриминатор. Генератор создает подделку, а дискриминатор критикует и указывает на ее недостатки. После этих замечаний генератор снова приступает к работе. В итоге появляется очень точный фейк.
Выпуск YouTube-канала «Индустрия 4.0», посвященный дипфейкам
Некоторые страны приняли решение регулировать дипфейки законом.
В 2020 году Калифорнийский и Стэндфордский университеты смогли повысить точность выявления дипфейков до 97%. Ученые исследовали виземы и фонемы.
Виземы — визуальное выражение того, как произносится тот или иной звук. Условно — мы говорим что-то и наш рот как-то движется. Филологи пытаются сравнить виземы в дипфейках и в оригинальных видео. Действительно, виземы в дипфейках выглядят немного иначе. Если обучить алгоритмы на таком поле данных, точность распознавания подделки будет достаточно высокая.
Другой способ вычисления обмана — изучение того, как шумит реальное и поддельное видео. Шум в дипфейках немного другой, и часто это удается услышать.
Можно ли распознать дипфейк?
Так ли опасны дипфейки?
Все зависит от того, для чего используется технология. Это может быть, как создание цифрового двойника погибшего сына или дочери для облегчения горя матери, так и кража денег, шантаж и распространение запрещенных порнографических материалов. Именно поэтому задача по формированию законодательного регулирования для дипфейков априори не может решаться быстро и просто.
Если вспомнить пример из канадской судебной практики, то суд применил более общую норму о запрете распространения детской порнографии, а не искал в законе определения дипфейка. Последнее – лишь инструмент для действия. В этом смысле не всегда целесообразно создать определение термина, если правоприменитель может использовать его из уже устоявшихся правовых конструкций.
Возьмем простой пример – диспозицию российского уголовного закона о мошенничестве: «Мошенничество – это хищение чужого имущества или приобретение права на чужое имущество путем обмана или злоупотребления доверием». Обман или злоупотребление доверием может фактически совершаться разными способами и, вероятно, дипфейк является неким способом совершения противоправного действия, что не требует особого термина.
Этот вопрос может быть сугубо в плоскости правоприменения и процессуальных правил. В таком случае задача стороны обвинения – доказать, что дипфейк был способом совершения преступления. Необходимость корректировки закона здесь кажется излишней, и такая логика может быть распространена на многие составы уголовного закона.
Ни в коем случае не упуская из виду явные проблемы, стоит отметить, что излишнее регулирование технологий дипфейков может тормозить технологическое развитие. Перед законодательством всегда стоит задача соблюсти баланс публичных и частных интересов, и дипфейки исключением не являются.
Фейки на выборах и «воскрешение» из мертвых
Совсем недавно, на рубеже XX и XXI веков, сверхпопулярной была программа Photoshop. Теперь на смену ей пришли нейросети, а именно дипфейки (Deepfake). Эта технология куда опаснее, но также перспективнее прежней возможности грубо вырезать лица людей с фотографий и приклеивать их на другие снимки.
Технология дипфейков способна объединить фотографии человека и, например, сделать из них видео. Дипфейки давно проникли в политику. Например, в Мексике в 2017 году наркомафия убила журналиста Хавьера Вальдеса Карденаса, который писал о преступности и торговле наркотиками. Его «воскресили» с помощью дипфейка, и он смог обратиться к президенту страны с такими словами: «Сегодня, господин президент, у вас появилась возможность выделиться из толпы своих предшественников и наконец произвести настоящие перемены — дать нам правосудие и справедливость. Страна без правды — это страна без демократии. Несмотря на то, что они хотят заткнуть нам рты, — мы продолжаем говорить!»
Дипфейк журналиста Хавьера Вальдеса Карденаса обращается к президенту Мексики
Другая история произошла в 2020 году на выборах в Индии. В Дели лидер одной из оппозиционных партий Маноджа Тивари сделал заявление на хинди и на диалекте хариани. При этом говорить на этом языке он не умел. Пойти на обман Маноджа Тивари решился скорее всего из-за желания завоевать голоса рабочих-мигрантов в Дели. Они как раз говорят на диалекте хариани.
И подобных случаев уже много. В истории с лидером индийской оппозиции интересно то, что он так и не признался в использовании технологии: доказать это довольно сложно, вот и признаваться необязательно.
Еще один пример — фильм «Би-би-си» «Добро пожаловать в Чечню» про активистов, критикующих власть. Создатели картины не стали «замазывать» лица оппозиционеров, а наложили на них дипфейки активистов, живущих в Нью-Йорке.
Документальный фильм «Би-би-си» «Добро пожаловать в Чечню»