Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Как стана възможен коледният тик-ток на Елизабет Втора?

Кралица Елизабет танцува тик-ток танц, Илън Мъск изпълнява „Земля в иллюминаторе“, а Марк Зукърбърг се хвали с „тотален контрол над милиони присвоени лични данни. Ако се замислим каква е вероятността тези събития да са се случили реално, ще се съгласим, че тя е нищожна, дори нулева. Но когато попаднем на подобно видео, споделено многократно в социалните мрежи, със сигурност поне в първите няколко минути ще изпитаме безпокойство или недоумение. Причината за това е, че макар и с абсурдно съдържание, тези видеа са с високо качество на изпълнение, което ги прави технически трудно различими от истинските. Това твърди Милена Златарова – председател на Народно читалище „Читалище.то”, което е партньор по „Проект 48” на сайта „Аз чета”. С нея разговаря Светлана Вълкова.

Ново явление ли е deepfake? Наричате го фотошопа на 21 век.

Да, това е едно явление, което не е достатъчно добре познато. Това е ново поколение манипулация от 2017-та година. Тогава бяха пуснати порнографски видеоклипове, в които лицата на изпълнителите са заменени с лица на известни актриси. Целта е злепоставяне на популярните лица. За три години тези технологии вече активно се разпространяват, но все още са непознати на масовия потребител на социални мрежи. Това са манипулирани видеа, в които с помощта на изкуствен интелект към кадри на реални събития се прибавя ново съдържание. Най-често се използва високоспециализиран софтуер за подмяна на лицата. Той сравнява лица от реални видеа на известни личности и видеа на фалшивия двойник, който трябва да замени оригинала. Смесва двата модела, като наслагва израженията и мимиките, и по този начин една известна личност може да се появи във видео, в което с голяма достоверност, неразличима на пръв поглед, да прави неща или изказвания, които са шокиращи или смущаващи.

Вие давате някои много популярни примера за това?

Да, видеото на Барак Обама, който нарича с обидни епитети Доналд Тръмп. Човек ако се замисли, това едва ли съвпада с представата за Барак Обама, а и с неговата публична позиция той едва ли би си позволил да използва подобни реплики, независимо от негативното си отношение към Тръмп. Създателят на Фейсбук, който също се хвали с тотален контрол над милиони лични данни. Тук просто трябва да се замислим дали Зукърбърг би могъл да направи подобно изявление. И в сферата на по-шеговитите изпълнения или политическа сатира с цел насочване на вниманието към този проблем – фалшивото коледно изявление на британската кралица по една съвсем истинска медия. Целта в този случай беше да се насочи вниманието на зрителите към фалшивите новини.

Лесно ли е да се направи deepfake? Вие пробвахте ли?

Не. Не съм пробвала. Но тази услуга е все по-леснодостъпна. Самите технологии са доста високоспециализирани и е необходим професионален опит и умения, за да бъдат изготвени. По-ниското качество ги прави по-разпознаваеми. Напоследък има все по-голямо предлагане на такива услуги. Всеки, ако пожелае, може да си поръча, и това прави deep fake-а по-опасен.

И понеже сме в радио - да поговорим и за манипулацията на звука.

Това става чрез клонинги на публични личности. Такива фалшиви изказвания например могат да повлияят негативно. Трябва да се отбележи обаче, че тези технологии по отношение на гласовете могат да бъдат използвани с положителни цели в документални филми например или когато искаме да възстановим гласовете на любими актьори. Т.е тези технологии не са само отрицателно явление.

Как да разпознаваме deepfake?

Можем да приложим всички известни правила за справяне с фалшивите новини и разпознаване на подобен тип съдържание. Трябва да се предпазим от публикации и видеа, които имат провокативни заглавия и ни приканват да ги отворим. Трябва да подхождаме с голямо внимание и да използваме критичното си мислене, да проверяваме личностите в сериозните сайтове, защото обикновено тези видеа са свързани с известни хора. Повечето разчитат на нашата емоционална реакция и да споделим това, което сме видели. Така ние неволно ставаме разпространители на фалшиво съдържание.

Да кажем още няколко думи за положителните страни на deepfake.

Като всяка технология може да има и полза от него. За мен беше интересен този аспект, защото в него можем да видим ниша за бъдещо развитие на медиите. Нашата цел и задача би трябвало да бъде да ограничим негативните последствия и да посрещнем положително използването им за добри цели. Една такава положителна употреба е политическа сатира в сериозните медии, както и с образователна цел. Например с коледното обръщение кралицата недвусмислено се показва на зрителя, че лесно може да бъде манипулирани.

Другото приложение е при използването в секретни операции на разузнаването, в документални филми, в рекламната индустрия. Нашите усилия трябва да са насочени към това да се промотира колкото се може повече необходимостта от критично мислене, да бъдем отговорни към собственото си поведение като разпространители на тези новини, да се пазим да споделяме твърде шокиращи текстове или и видеа.

Цялото интервю с Милена Златарова можете да чуете тук:

* Дийпфейк представляват ново поколение манипулации, при които с помощта на изкуствен интелект се комбинират кадри от реални събития и към тях се добавя ново съдържание. Този процес се основава на deep learning – част от методите на машинно самообучение, а fake (англ.) означава „фалшификат“, затова явлението получава названието deepfake.


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.