Ексклузивно в интернет! Американският президент в директна видеовръзка обявява война на Китай!
Виждате гръмкото заглавие и, естествено, веднага пускате видеото. От екрана наистина, с драматичен тон лидерът на най-голямата световна сила казва, че Третата световна война е започнала. Нереално! Ами сега?! Ето, за нула време всички онлайн пишат за видяното и шокът преминава в инстинкт за самосъхранение…
Deepfake. „Дийпфейк“(с извинение), все още нямаме превод на български за технологията. Така или иначе, по-важното е да знаем на какво е способна и защо може да бъде опасна. Вече е напълно възможно да се създаде видео, в което особено убедително изглежда, че някой казва неща, които е решил авторът на клипчето.
Ето един пример:
Това видео се появи преди 3 години, а оттогава технологията се усъвършенства доста сериозно.
Днес спокойно можете да „сложите в устата“ на когото искате, каквото решите. И ако е изпипано по стандартите, фалшификатът става на практика неразличим от истината.
В дълбоки води
Няма съмнение, животът ни вече е зависим от изкуствения интелект. И от всички онези технологии, които се крият зад почти мистичния и същевременно изтъркан от употреба термин.
Днешният свят е буре с барут, само че дигитално. Всяка дума може да се превърне във фитил, особено ако е изречена от достатъчно важен човек. Дори собствениците на глобалните социални мрежи не са способни с алгоритмите си да спрат това, а понякога, логично е да го помислим, биха го провокирали сами.
„Е, как да не го е казал, като го видях?“
Това е следващата, по-опасна версия версия на „Пише го в интернет“. Няма значение, че в интернет нищо не пише, а е важно що за сайт е приютил даденото твърдение, що за автор го е написал и какви източници е използвал.
Да, онлайн продължават да се споделят какви ли не фалшиви новини, нелепи цитати, които очевидно не са изречени от човека, който се споменава. Но наистина, ако видите президента на велика държава да обявява на видео началото на следващата световна война, това не е ли доста по-убедително?
По заповед на кралицата
По традиция на 15 декември всяка година британската кралица се обръща към сънародниците си, подобно на обичайните у нас президентски речи за Нова година. В края на 2020-а обаче за първи път имаше не една, а две речи… на една и съща кралица. Поне донякъде. Защото от „Ченъл фор“ направиха тематично алтернативно приветствие с напълно измислени думи и дийпфейк версия на Елизабет II в главната роля:
„Толкова много от нашия свят днес идва при нас през тези телефонни екрани. Което ме връща към въпроса за доверието. Дали това, което виждаме и чуваме, е винаги такова, каквото изглежда?“
Това попита виртуалната кралица. Идеята отново беше да се привлече вниманието към опасността, която идва с напредъка на тази технология. Доста впечатляващо всъщност… Гарнирано със здравословна доза от добрия стар британски хумор за финал:
Стана ли добре? Мога ли вече да си сипя чаша чай?
Фалшименто
Всички си спомняме добре как бавно, но необратимо технологиите за обработка на изображения, обобщени като „Фотошоп“, промениха завинаги отношението ни към картинките. Сега ни остава да се шегуваме не особено доброжелателно онлайн с някоя фолкпевица, който се е престарала дотолкова с намесите, че е останала с по-малко пръсти или без пъп например. Заради това отдавна, виждайки едно изображение, имаме едно наум, че то невинаги показва истината. До такава степен, че после направо не можем да познаем, видим ли на живо някоя „префотошопена“ знаменитост.
С видеото обаче нещата стояха по друг начин. Да, голяма част от филмовите ефекти се създават изцяло изкуствено, но така и не изглеждаше възможно актьорът да бъде претворен с помощта на технологиите. Вече има игри, които дават по-реалистичен поглед от прозореца на самолета, дори от реалния, но все още човешките персонажи изглеждат доста сложни за реалистично възпроизвеждане.
Или поне изглеждаха, преди да се появи дийпфейк.
Бог високо, фейк дълбоко
Може би грубият превод на технологията е нещо като „дълбок, задълбочен фалшификат“. За първи път се заговори за нея през 2018 г. Макар че винаги я асоциираме с видеото, като цяло това е принцип, който използва изкуствения интелект в обработването на видео, аудио или снимки така, че да наподобява истинския човек.
Всъщност именно дийпфейк направи възможна появата на дигиталните хора. Основното ѝ предназначение е да създава визуални продукти, които не могат да бъдат отличени от човека. Тя е доста успешна конкретно във видеата, защото там като цяло резолюцията е по-ниска, детайлите са по-груби и е по-лесно да бъдат „замазани“ дребните несъвършенства. Това с досегашните технологии не беше особен плюс, защото те не успяваха с по-сериозното предизвикателство – убедителното претворяване на човешките черти, мимиките, плавните движения.
И така, можете да си създавате клипче, в което човек особено реалистично да прави това, което искате от него. Опитайте се да познаете в коя област по данни от 2019-а, са създадени 96% от видеата с тази технология?
Да, точно така. Става дума за по…
По-надълбоко
Не, не политиката. Порното. Да, това е следващото ниво на силиконовите кукли, сега можете с помощта на технологиите да видите и чуете любимата си звезда да казва колко ви желае. Но това е друга, не по-малко интересна тема, която заслужава отделно внимание, особено в психологическите ѝ аспекти.
Псе пак, докато сме на тази тема… Ако пък тази технология се окаже толкова добра, че дори за всеки политик, знаменитост, бизнес личност може да се създаде компрометиращ клип?
За момента дийпфейк се справя добре, когато става дума конкретно за лица и мимики. И това е заложено в технологичните принципи, по които работи.
Дълбоко погрешно
Името си технологията дължи на направлението deep learning или „дълбоко обучение“. Тя използва генеративно-състезателни невронни мрежи (на галено GAN). Това са алгоритми за машинно самообучение, които получават набор от информация и я обработват така, че да създават изцяло ново съдържание, спазвайки принципите, които са „уловили“. Те са в основата на много проекти, с които изкуственият интелект заплашва да остави без хляб журналистите, на тях се разчита и в опитите компютрите да създават изкуство.
При GAN паралелно работят два сегмента от софтуера, които обработват информацията. Първият се опитва да създава съдържание, максимално подобно на зададеното, а вторият – своеобразен зъл редактор, проверява дали може да открие разликите с реалните проекти и в повечето случаи „връща“ продукта обратно на „колегата“ си за доработка. Така до потребителя стигат само обработени кратки откъси, която са минали през доста строг филтър.
Очевидно тя все още има несъвършенства, които обаче могат да бъдат изглаждани. Всички мимики се генерират от невронната мрежа, така че нерядко те са неестествени. Създаденият глас е монотонен, липсва му емоция. Компютрите обаче имат и друг плюс – за разлика от актьорите, не се уморяват, а могат да генерират безкрай нови предложения, да се усъвършенстват и да дават още жокери на програмистите как да им помагат в това направление. Тоест, с повечко работа вече е напълно възможно да се създават наистина неотличими дийпфейк видеа.
Работата е дълбока
GAN е създаден през 2014 г. от Йън Гудфелоу, по това време студент в Станфордският университет. През следващите години той няколко пъти ще сменя работните си позиции между „Гугъл“ и проектите на Елън Мъск в областта на изкуствения интелект.
Не той обаче измисля дийпфейк като конкретното приложение на този тип технологии. През споменатата 2018-а в мрежата за споделяне на съдържание Reddit един потребител успява да събере огромна популярност. Създавайки порноклипове, в които особено реалистично заменя лицата на актрисите с тези на различни знаменитости.
За съжаление, профилът му бързо е закрит, но прякорът му оцелява. Да, точно така, той бил решил да се назове „Дийпфейк“.
После технологията става доста популярна за шегички, остроумни клипчета и друго (…май вече стана ясно какво).
Има немалко приложения, прилагащи дийпфейк, някои от тях са безплатни. Пробивът в тази посока направи отново през 2018-а FakeApp. Именно FakeApp и Adobe After Effects са използвани и за прословутото клипче на Барак Обама, с което започнахме.
А после… дийпфейк някак поизчезна като тема, други остроумия вървяха повече по време на сварилата по бели гащи всички ни изминала година. Примерът с британската кралица като че ли беше единственото по-интересно събитие по темата напоследък.
Дълбоката държава
Днес начело е DeepFaceLab, с който (по думите на създателите) се създават повече от 95% от дийпфейк видеата по света.
Както всяка друга технология, дийпфейк може да се използва за рязане или за порязване. Тя още е в началото на своята крива на развитие. Все още не е толкова позната, така и не се превърна в тренд, защото на пръв поглед не променя животи. Но на втори… приложенията ѝ далеч не се изчерпват с това да вземе хляба на треньорите от „Като две капки вода“.
Искате да видите отново Кларк Гейбъл, който обаче да играе в „Титаник“? Или Апостол Карамитев? Изкуството наистина може да бъде различно, когато GAN налучка съвършенството в имитацията. Или пък ви е писнало от истински актьори, можете да си „сглобите“ сами един по-съвършен, точно както си го представяте…
А после… се налага да се върнем на най-големите опасностите (не, не че Кларк Гейбъл няма как да потъне толкова зрелищно с мокър мустак).
В електронното буре с барут, каквото е днешната световна политика, наистина е нужно прекалено малко, за да избухне пожар, който да помете всичко. Напрежението – на междудържавно, етническо и какво ли не друго поле, може бързо да ескалира от една малка искра. До момента за такава най-често бихме заподозрели добрите стари фалшиви новини. И това вече се е случвало.
Но какво ще стане, когато към арсенала за манипулации се добави и достатъчно съвършената дийпфейк технология? Примера, с който започнахме, е само един, но всеки може да го допълни с въображението си. После идват възможностите за изнудване, манипулиране на хората. Ето защо е важно да сме подготвени.
Око да види
И да знаем на какво са способни вече невронните мрежи, които се крият зад изкуствения интелект. По време на американските избори за сенат миналата година дори се заговори за закони, контролиращи конкретно дийпфейк.
Интересното е, че заради всичко изброено в битката с фалшификатите могат да ни помогнат същите тези технологии, които ги създават.
„Гугъл“ например разработва проект, при който отново невронните мрежи са използвани за това да улавят разликите. „Аз съм те родил, аз ще те убия!“, казва добрият стар Тарас Булба. Заради принципа, на който работят GAN обаче, това има опасност да се превърне в едно безкрайно състезание. Тъй като втората част от невронната им мрежа е създадена така, че да „улавя“ несъвършенствата, преди те да стигнат до зрителя, то тя е в пряка конкуренция със софтуера, който би ги забелязал. Заформя се битка, в която победителят лесно ще се променя.
От своя страна Amazon организираха конкурс с внушителен награден фонд за технологии, които „ловят“ дийпфейк. Едно от изследователските звена Пентагона пък публикува алгоритъм, при който намесите във видеото се разпознават благодарение на… неестествените мигания.
Тази дигитална история може да доведе много аналогови проблеми. В наше време е много трудно да различиш фалшификата, независимо за какво става дума, абстрактното и виртуалното размиват границите. Но и реалността още е тук, за да ги задържа.