Eмисия новини
от часа
Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Как да се предпазим от измами, свързани с AI?

Снимка: Радио София

Идентичност (deep fake, AI-powered voice synthesis) - как може да се автоматизира изкуствения интелект, как може да се ползва и как да се предпазим от евентуални измами. По темата говори Красимир Коцев.

Той e основател и управител на SoCyber Ltd. Голяма част от професионалния си опит придобива в индустрията за информационна сигурност. Започва като кибер ентусиаст, когато е на 14, прекарвайки дните си в учене как да прониква в мрежи и системи. През годините работи като анализатор по мрежова и системна сигурност. През 2018 г. стартира компанията за киберсигурност SoCyber, специализирана във Vulnerability Assessment, Penetration Testing, Red Teaming & Social engineering и други дисциплини за тестване на сигурността. Коцев е отличен в топ 100 на най-влиятелните IT личности в България за 2023, получава награда от Forbes 30 under 30 за създаването на платформата за управление на уязвимости – Kikimora.io, отделен софтуерен продукт на SoCyber. Таргет за Kikimora са компании от финансовата сфера, сферата на критичната инфраструктура и здравеопазването.

"Ние сме "етични хакери". Ние сме хората, които проверяват сигурността в една организация и казват къде са пробойните. Откъде някой може да източи данните на служителите, или пък на клиентите на дадена организация и по какъв начин може да се злоупотреби с тях. Представете си една критична инфраструктура, например енергийна компания, чиято работа е саботирана в следствие на кибер атака. Това е нещото, което ние правим като дейност. Оттам нататък се роди идеята за един инструмент, който чрез изкуствен интелект да може да помага на такива организации, а и не само. Също така и на финансови организации и такива в сферата на здравеопазването да управляват риска от тези кибер уязвимости по много по-добър начин", отбеляза Коцев.

Той сподели, че в международен мащаб има доста случаи в сферата на здравеопазването на кражба на пациентски данни и клинична информация, а и не само. Всяко едно устройство, включително и оборудването в болниците вече е свързано с интернет и с една кибер атака то може лесно да бъде саботирано. Известни са и смъртни случаи в следствие на кибер атаки.


"С навлизането на изкуствения интелект имаме добри и лоши новини. Лошите са, че хакерите са една стъпка напред. Тоест, чрез AI могат вече да адаптират зловредния си код. Традиционната защита работи на база на т. нар. "сигнатури". Всеки зловреден код има изграден модел на поведение и защитата засича този модел на поведение и конкретно този софтуерен код. Представете си обаче един вирус, който и при хората, който постоянно може да се адаптира и да сменя формата и облика си. Това нещо е възможно именно чрез AI. Когато кодът се модифицира в реално време в движение той се опитва да заобиколи защитната система, било то защитна стена или крайна работна станция. Когато този вирус започне да придобива различни форми, той може да се репликира в хиляди различни варианти и да заобиколи защитата. Добрите новини са, че компаниите, които се занимават с кибер сигурност, в това число и ние, разработват системи, които също така се базират на AI или на машинно обучение, за да засичат аномалии в поведението и такъв нестандартен тип подход и поведение от зловредния софтуер", поясни Коцев.

Относно уязвимостта на българските институции той посочи, че в последните години се наблюдава подобрение в сигурността, но те още са една стъпка назад пред частните компании. Това е така, защото липсва достатъчно голям бюджет и експерти.

Какво е deep fake?

По думите на Коцев от 2021 година в европейското законодателство се работи по правна рамка, която да регламентира използването на ИИ във видеа, снимки, звукови материали и т. н. През месец декември 2023 г. тази рамка официално е била финализирана, но оттук нататък за да стане тя факт може да отнеме и до няколко години. В Китай е въведена най-строгата забрана за употребата на AI със злонамерени цели.

Коцев отбеляза, че кражбата на глас се случва все по-често, тъй като все по-често са достъпни публични инструменти, които позволяват на всеки да натренира свой собствен модел с предварително избрано лице и глас на някоя потенциална жертва, след което да разработи идентично копие.

"От друга страна за да разработим един добре пресъздаден модел е необходимо да разполагаме с доста данни. Например, ако искаме да копираме изображението на даден човек са необходими като минимум около 1500 кадъра, за да имаме негово прилично копие. От гледна точка на гласово копиране също е необходим чист аудио запис, от който ние да извлечем гласа и интонацията на лицето, което се опитваме да копираме. Аз смятам, че потенциална жертва на първо време по-скоро са политически и публично известни личности, които имат сериозно медийно присъствие и присъствие в социалните мрежи.

Какви са инструментите, които засичат фалшиво видео съдържание?

"По отношение на порнографското съдържание има хора, които чрез AI създават перфектната си половинка, която не могат да срещнат никъде в реалния живот. Това е спорно колко е проблем, или е в полза на обществото. Инструменти вече има и всъщност има няколко метода, по които можем да разпознаем едно съдържание дали е фалшиво, или не. Когато имаме копирано изображение на даден човек с гласови показатели първото нещо, по което можем евентуално да се ориентираме дали този образ е фалшив е по мигането на очите и по говора, спрямо местенето на устните на този образ. Това много често е индикация, че образът е фалшив, когато има разминаване между устните и това, което се казва. От друга страна трябва да отбележим, че AI копира много добре фронталната част на лицето на един човек, но ако ние помолим този човек да се завърти в профил, в доста голяма част от случаите това ще е ясна индикация и ще видим, че образът е фалшив и не отговаря на реалната ситуация. Когато обаче говорим за видеа, там вече съществуват инструменти, които също се базират на AI и на машинно обучение. Тези инструменти могат да разпознаят дали едно видео е фалшиво", каза Коцев.  

По думите му третият метод за разпознаване е, когато задаваме въпроси на човека. Ако ние задаваме странни въпроси, които обикновено това лице трябва да знае, отговорът няма да е толкова добър и ще разпознаем фалшивия образ. На 16 януари 2024 година от 20:00 ч. ще се проведе събитието "Изкуствен интелект и истински измами", на което Красимир Коцев ще бъде лектор и ще обясни как хората да се предпазят от вредите от AI. Ще има и демонстрации на копиране на образ и глас от предварително набелязана жертва.

Подробности можете да чуете в звуковия файл.

По публикацията работи: Никола Стоянов

БНР подкасти:

Новините на БНР – във Facebook, Instagram, Viber, YouTube и Telegram.


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!

Горещи теми

Войната в Украйна