В рамките на кампанията ни „Проект 48“ всяка седмица споделяме с вас полезни материали, които разглеждат ключови елементи на медийната грамотност. Днес продължаваме с темата за фалшивите новини и различните способи за създаване на фалшиво съдържание. Вече ви разказахме за манипулирането на видеа чрез добавяне на субтитри, които изкривяват информацията и правят лъжливи внушения, а сега статията на Милена Златарова ще ви запознае с явлението дийпфейк (“deepfake” – англ.), чрез което се симулират видеоизказвания на публични личности, които всъщност никога не са се случили.

Кралица Елизабет танцува тик-ток танц по време на традиционното си коледно обръщение към британската нация, Барак Обама нарича Доналд Тръмп „пълно лайно“, Илън Мъск изпълнява популярната руска естрадна песен „Земля в иллюминаторе“, а Марк Зукърбърг се хвали с „тотален контрол над милиони присвоени лични данни“. Ако се замислим каква е вероятността тези събития да са се случили реално, ще се съгласим, че тя е нищожна, дори нулева. Но когато попаднем на подобно видео, споделено многократно в социалните мрежи, със сигурност поне в първите няколко минути ще изпитаме безпокойство или недоумение. Причината за това е, че макар и с абсурдно съдържание, тези видеа са с високо качество на изпълнение, което ги прави технически трудно различими от истинските.

Дийпфейк = „фотошоп“ в 21. век

Изправени пред плашещите възможности на новите технологии да подменят реалността, си спомняме едва ли не с умиление 90-те години. Тогава тепърва откривахме, че снимките на известни личности и фотомодели често са подложени на допълнителна обработка с цел да се прикрият недостатъци на фигурата или признаци на остаряване. Не само това – чрез най-популярния софтуер за редакция на цифрови изображения Adobe Photoshop, който навлезе разговорно в езика като „фотошоп“, можеха да се произвеждат сензации относно лица, които реално никога не са присъствали или участвали в ситуациите, в които уж са „заснети“.

 

„Изучаване“ на лицевите движения (снимка: towardsdatascience.com)

 

Дийпфейк представляват ново поколение манипулации, при които с помощта на изкуствен интелект се комбинират кадри от реални събития и към тях се добавя ново съдържание. Най-често използваният метод е чрез размяна на лицата. Специализиран софтуер сравнява и изучава хиляди изображения на човека от реални видеа и неговия фалшив двойник, създава модели на лицата им и след това „блендира“ двата модела, като наслагва израженията и мимиките на лицето „А“ върху лицето „Б“. Този процес се основава на deep learning – част от методите на машинно самообучение, а fake (англ.) означава „фалшификат“, затова явлението получава названието deepfake.

За първа употреба на дийпфейк се смятат порнографските видеоклипове, публикувани от потребител на мрежата Reddit през 2017 г., на които лицата на порно изпълнителите са заменени с тези на известни актриси.

Всеки ли може да произведе дийпфейк?

За да бъде манипулираното видео достатъчно убедително и заблуждаващо, то трябва да е с много добро качество. За постигането му са необходими професионални умения и мощни компютърни конфигурации от висок клас. Дийпфейк видеата с по-лошо качество се разкриват лесно чрез детайли като синхронизирането на устните, цвета на кожата, трептенето около очертанията на лицето. Но deepfake стават все по-достъпни чрез предлагането на такива услуги и дори приложения за обикновения потребител.

Отвъд видеоклиповете

Технологията на дийпфейк може да бъде използвана за подправяне на аудио чрез създаване на гласови „скинове“ или гласови „клонинги“ на публични личности. Чрез нея също могат да бъдат създавани убедителни, но напълно измислени „документални“ снимки като част от портфолиото на несъществуващи журналисти.

Друг начин за създаване на дийпфейк изображения е чрез т.нар. генеративна състезателна мрежа (generative adversarial network), или съкратено GAN. Чрез нея първоначално се създава „празно“ изображение, което се „захранва“ със стотици снимки на знаменитости, докато накрая след многократна обработка на моделите на техните лица се произвежда изключително реалистично „синтетично“ лице на несъществуваща знаменитост.

„Алтернативното“ Коледно обръщение на кралица Елизабет II:

Каква вреда могат да нанесат дийпфейк видеата?

Най-коварното последствие от разпространението на дийпфейк съдържание наред с фалшивите новини и други форми на синтетична медия е подкопаването на доверието на хората и изграждането на отровна медийна среда, в която вече трудно може да се различи истината от лъжата. В такова общество става лесно да се разпространяват всякакви слухове или да се повдигнат съмнения за неща, които реално са се случили.

Това размиване на границите между истината и лъжата дава удобна защита в ръцете на политиците. До неотдавна американският президент Доналд Тръмп наричаше всяка критика или нелицеприятна новина относно неговото управление „fake news“, съответно „fake media“ за телевизионния канал или вестник. Премиерът Бойко Борисов също прибягна до това оправдание, когато през юни 2020 г. в публичното пространство изтече запис на негов телефонен разговор.

Има ли дийпфейк технологията полезно приложение и какво е бъдещето й в медиите?

Продължете да четете на сайта „Аз чета“.

Ако през 2021 г. искате да четете повече такива текстове, можете да подпомогнете усилията ни, като подкрепите  „Проект 48“ с дарение в platformata.bg.