Манипулирането на фотографии и видео е практика откакто има фотографии и видео. До степен, в която обществото вече е развило здравословен скептицизъм към всяка фотография, която изглежда съмнителна. Но в последните години новите технологии позволиха неподозирана досега убедителност във фалшифицирани материали.
Става дума за т.нар. deepfake - дълбоки фалшификации, термин, който всъщност идва от "deep learning" - методът на машинно учене на изкуствен интелект с помощта на изкуствени неврални мрежи.
Тези технологии позволяват създаването на видеоматериали, които имат потенциала да бъдат напълно неразличими от реални - далеч повече, отколкото дори най-добрите студиа по компютърна графика могат да постигнат, и далеч по-лесно.
От 2017 г. насам deepfake-ове са ползвани за създаване на фалшиви новини, фалшива порнография с известни личности, и изключително убедителни и ефективни измами.
Каква е разликата между deepfake и класическата видеоманипулация?
Преди десетилетие поставянето на лицето на един човек върху главата на друг бе напълно възможно - и дори лесно, когато става дума за обикновена снимка. Няколко часа обучение с популярен софтуер като Adobe Photoshop, и всеки може да се научи как да създаде убедителна фалшива снимка. Това се постига с множество инструменти, които просто променят пикселите, от които е съставена снимката.
Подобни фалшификации обаче имат ограничения - трудно е да се докарат същите тонове на кожата, да съвпаднат сенките и отраженията от оригиналното изображение и добавеното. Специалисти могат да прегледат внимателно една снимка и да открият дали тя е манипулирана и в каква степен.
При видеоматериалите подходът за редакция и манипулация е същият - само че трябва вместо една снимка, да се преработват над 24 за всяка секунда видеоматериал. Неслучайно първите компютърно генерирани филми бяха трудоемки, скъпи и не особено качествени. И дори със съвременните компютри и много по-добър софтуер, този метод все още е бавен, сложен и изисква сериозни ресурси.
С развиването на изкуствения интелект обаче дойде нова епоха в компютърния софтуер - вместо човекът да създаде инструменти, с които да манипулира образа, машинното обучение позволява просто да се дадат на програмата нужните ресурси, да й се зададе задача и тя ще се заеме с манипулацията практически сама.
И ако здравословният скептицизъм на хората към снимките е налице, малцина очакват видеоматериал, в който виждаш лицето на човека и чуваш гласа му, да бъде фалшификация.
Софтуер от този тип вече е достъпен за всеки - да, изисква голяма памет за работа, свободно място, и много материал на лицето, което искаш да бъде фалшифицирано. Но не трябва и да се забравя, че един евтин смартфон днес има няколко хиляди пъти паметта и изчислителната мощ на компютъра, който приземи човек на Луната.
Жертвите на deepfake досега
Както се случва често, първата употреба на deepfake бе взимането на лицата на известни жени - Дейзи Ридли, Гал Гадот, Ема Уотсън, Кейти Пери, Скарлет Йохансон - и поставянето им на телата на порноактриси. Йохансон например смело обяви, че няма да се опитва да сваля видеоматериалите с нейното лице, защото това няма да нанесе реална вреда на репутацията й, но изказа притеснения за това как подобна технология може да се ползва срещу обикновени хора.
Стъпката от порното към политиката беше кратка, и скоро започнаха да се появяват клипове с лицето на Тръмп върху тялото на Меркел. През май тази година говорителката на демократите в Конгреса Нанси Пелоси също стана жертва на deepfake, в който тя уж заваля думите си, а видеото бе споделено от… Тръмп, разбира се.
И американският президент стана жертва на deepfake скоро след това, като лицето му бе сложено върху Алек Болдуин, който го имитира в скечовете по американското шоу Saturday Night Live:
Комици пък създадоха deepfake на Обама, който предупреждава за опасността от "дълбоките измами".
Стана популярна практика и лицето на изразителния американски актьор Никълъс Кейдж да се слага върху главите на всякакви други хора, обикновено с хумористичен ефект.
Преди броени дни Уолстрийт Джърнъл съобщи за deepfake на гласа на изпълнителен директор на компанията, с който киберпрестъпници успешно са убедили негов подчинен да преведе 243 хил. долара в тяхната банкова сметка.
А вчера едно от най-споделяните видеа в мрежата беше deepfake на Уил Смит, в който чернокожият актьор замества Киану Рийвс в кадри от "Матрицата".
А сега накъде?
Изкуственият интелект и deepfake методите, като всяка технология, могат да бъдат ползвани и за добро, и за лошо - по детски казано. Както и при фалшивите новини, отговорността за това какво вярваме и какво не е винаги изцяло наша - и скептицизмът ни към "фотошопирани" снимки трябва вече да се пренесе и върху всякакви видеоматериали.
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни