Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

"Изображенията в днешно време може да са силно подвеждащи"

Проф. Ирина Гуревич: Образователните институции носят отговорност за дигиталната грамотност

"Технологията не е в степен на такава зрялост, която да вземе решението сама"

| Интервю
Снимка: Pixabay

Възможно ли е изкуственият интелект да прави проверка на фактите. За сега учените правят само проучвания по въпроса. Добромир Видев разговаря по темата с проф. Ирина Гуревич - един от водещите учени в сферата на обработката на естествен език. Тя е директор на Лабораторията за обработка на знания (UKP) в Техническия университет (TU) в Дармщат, Германия и президент на Асоциацията за компютърна лингвистика, както и съдиректор на програма в рамките на ELLIS -  европейската лаборатория за обучение и интелигентни системи. Проф. Ирина Гуревич беше лектор на програмата ИНСАЙТ в София.  

Наистина ли е възможно да се автоматизира процесът на проверка на фактите? 

Мисля, че пълна автоматизацията в момента е невъзможна. Въпреки това можем да автоматизираме отделни стъпки, като например извличането на подходящи документи и търсенето на подходящ пасаж в документите. Дори и процеса на класифициране като подкрепящи или опровергаващи твърдението или може би неутрални. Постижимо е да са автоматизират подобни стъпки. 

Тези задачи са сравнително лесни за машината. А и имаме търсачки с висока точност например за извличане на информация. Въпреки това, разсъжденията върху извлечените доказателства са много трудна задача дори за хората. А също така е много трудна за машините.  

Това е доста трудно и за самите журналисти. 

Вие всъщност извършвате много проверки на фактите в работата си. И това е подобно на работата, която извършват и алгоритмите при проверката на фактите. 

Може ли да ми дадете примери как развивате тази автоматизация на процесите?

Разбира се, че използваме изкуствен интелект. Моята област е естествената обработка на машинен език. Така както за търсачките, има известно сходството между измерванията на твърдението, което е „на входа“ и документите, или изречението е в рамките на документите. Така че, ако изреченията са подобни, те се считат за подходящи. И тогава има втора стъпка на класификация. И тук обикновено използваме контролирано машинно обучение. Ние създаваме данни за обучение, където имаме случаи, които са обозначени от хората като подкрепящи или опровергаващи твърдението. И след това използваме тези данни за обучение, за да извлечем статистически характеристики, които ни позволяват класифицира нови данни, които пристигат. И така работи….. 

А до каква степен може да бъде развита тази технология за автоматична проверка на фактите? 

В днешно време всички говорят за големите езикови модели. Така че технологията напредва много, много бързо. Мисля, че тази технология може да улесни проверката на фактите по много начини. Технологията обаче има и огромен недостатък, тъй като знаем, че големите езикови модели са перфектни за генериране на фалшиви новини. И ние ги наричаме халюцинации. Освен това е голямо изследователско предизвикателство как да не позволяват на езиковите модели да халюцинират факти. Например по време на пандемията от КОВИД имахме твърдения, че хидрокси-хлоро-хин-а може да лекува. Това беше разпространено в социални мрежи. И някои хора възприемат тези твърдения за верни. Имаше случаи, в които това вещество е боло приемано. А хората са починали от него. Другият тип фалшиви новини всички знаем, че е например пропаганда относно войната, която се случва в Близкия изток. Така че в такива много емоционални настройки, тази дезинформация може да доведе до ескалация на конфликта и може да доведе до огромен брой убити. Или както беше със съобщенията за ударите по болницата в Газа. 

Ние не знаем кое е истина или не. Обикновено в такива случаи моделът прави извод в рамките на най-простия случай - вярно невярно, или не знам. В по-напредналите модели те биха извели и вероятността това да е правилно или грешно, плюс обяснение защо. И това обяснение ще включва доказателствата. Така че потребителят може разбере как машината прави своя извод. 

Така че крайната преценка зависи от потребителя. Без значение кой прави проверката на фактите – машина или човек, или група хора, или журналист.  

Смятам, че технологията не е в степен на такава зрялост, която да вземе решението сама. Мисля, че крайното решение трябва да бъде на човека. И човекът, който дълго време би използва тази технология, може и да я персонализира, така че машината да може да учи от обратната връзка на потребителя. Например ако потребителят се доверява на определени източници, моделът може да го възприеме като доверен. 

Проф. Гуревич, а как стои въпросът със изображенията? 

Да. Изображенията в днешно време може да са силно подвеждащи, защото могат да бъдат заснети в един контекст и представени за достоверни в друг. И това ги прави много трудни за разпознаване от потребителя. След това има всички тези фалшиви изображения, които могат много лесно да бъдат генерирани в наши дни от технологията. Или изображения, които не са напълно ефектни, но които са модифицирани, за да представят неверни факти. За тяхното разпознаване има технологии, които се разработват. Но не мога сега да ви споделя. Но най- просото, което всеки потребител може да направи, е да постави изображението в търсачката на Google за изображения и по този начин можете да донякъде реконструира историята зад изображението. Можете да видите подобни изображения. И по този начин става по-лесно за да направите заключение дали изображението може да е истинско или не. 

По какви проекти работите сега?  

Първият проект е за твърдения в социалните медии. Твърдения, които са придружени от научна статия, която подкрепя твърдението. Обикновено, ако видим „научна статия“, смятаме, че щом науката е достоверна, няма да се наложи да отваряме статията. Ние смятаме, че твърдението е вярно, но всъщност твърдението е невярно. Има логическа заблуда, неправилно аргументиране, което свързва твърдението със съдържането на статията. Тези неправилни аргументи са описани в статии, посветени на проверка на фактите. И ние ги анализираме, за да разкрием тези заблуди. Това е нашето тренировъчно поле, за да изградим автоматичен инструмент, който може да намери тези заблуди в нови с известни такива случаи. Така че това е първият проект. Такива случаи има много в социалните медии. Аз не съм голям потребител на социални медии, просто ги ползвам от време на време. Но именно тези логически заблуди се използван доста често, за да се разпространява дезинформация. 

Като учен това не ви ли плаши? 

Да. Плаши ме до някаква степен. Особено сега, когато знам, че това се случва в света. Това е много, много смущаващо и пропагандата е изключително силна. Така че дори високо професионални потребители на информация не могат да оценят точно информацията. Така че това е много трудна задача. 

Вторият проект е в мултимодална проверка на факти. Това е всъщност проучването ни за проверка на изображения. Макар че моята основната област на работа е обработката на естествен език и много често изображенията биха имали придружаващ текст, който може да използваме, за да разсъждаваме за изображението; но изображенията стават изключително широко разпространени. Много е лесно да направите снимка, за да генерирате снимка. А изображения може да предизвикат много емоции у хората, нали? Много бързо, защото не е необходимо прочетете дълга статия. Можете просто да погледнете изображението и ако видите ранени деца. Това веднага вашите емоциите експлодират. И резултатът от този продукт би трябвало да бъде инструмент, който помага за проверката на фактите, за да отговори на пет въпроса: за произхода, датата, съдържанието на изображението, за да се оцени достоверността и истинността зад изображението. 

Проф. Гуревич, като учен можете ли да ми кажете вие лично, какво бихте посъветвали хората, които са доста по-чести потребители на социалните медии от вас? 

Бих ги посъветвала да бъдат изключително внимателни с информацията, която те четат в социалните медии. Бих ги посъветвал да се постараят да получат известна цифрова грамотност. Как да оценяват съдържание, за да не бъдат подведени от някои кампании. За тази дигиталната грамотност мисля, че образователните институции носят отговорност. В германските училища децата получават обучение как да използват Уикипедия, как да ползват интернет. Това е добра практика. 
По публикацията работи: Мария Сивкова - Илиева


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Германският министър на отбраната Борис Писториус

Борис Писториус отхвърли възможността да бъде кандидат за канцлер на Германия

Министърът на отбраната на Германия Борис Писториус отхъврли възможността той да бъде кандидатът на Социалдемократическата партия за канцлер на предстоящите през февруари предсрочни парламентарни избори. Писториус съобщи в специално видеообръщение, публикувано в каналите на партията му в социалните мрежи, че това е негово "суверенно и изцяло лично..

публикувано на 21.11.24 в 22:04

24 деца със специални образователни потребности в Брезник ще получат подаръци за Коледа

24 деца и младежи със специални образователни потребности от Средно училище "Васил Левски“ в Брезник ще получат на коледното тържество в училище подаръци, осигурени от дарители. Подаръкът за всяко едно дете е такъв, какъвто то само си е пожелало, каза инициаторът на кампанията Снежана Лазарова. От 12 години Снежана Лазарова е ресурсен учител в..

публикувано на 21.11.24 в 20:33
Президентът на Русия Владимир Путин

Путин обяви, че Русия е изпитала ракета със среден обсег с удар срещу Украйна

Руският президент Владимир Путин заяви, че страната му е изпитала нова ракета със среден обсег при днешния удар по Украйна и предупреди, че Москва може да я използва срещу страни, позволили на Киев да изстрелва техните ракети по руска територия, предадоха световните агенции, цитирани от БТА. Киев съобщи за руска атака с междуконтинентална..

публикувано на 21.11.24 в 20:09
Дългогодишни преподаватели в Техническия университет, заедно със скулптора Адриан Новаков, изваял барелефа (третият от ляво на дясно)

Габровският технически университет чества 60 години от създаването си

В сградата на Техническия университет в Габрово беше открит барелеф на първия ректор проф. Весел Савов. Висшето училище днес отбелязва 60-ата годишнина от основаването си. Идеята за създаване на висше училище в Габрово датира от 40-те години на ХІХ век и е формулирана от възрожденския просветител Васил Априлов и неговия съратник Николай..

публикувано на 21.11.24 в 19:42

КС образува дело по искането на президента Радев за три текста от Конституцията

Конституционният съд образува дело по искането на президента Румен Радев за това три текста от Конституцията да бъдат отменени, съобщава БГНЕС. Президентът сезира повторно КС за двойното гражданство и служебното правителство Става дума за новия ред за назначаване на служебен премиер, за парламент, действащ и при служебно правителство и..

публикувано на 21.11.24 в 19:30
Митрополит Арсений

Сливенският митрополит Арсений освети храм в ямболското село Гълъбинци

Сливенският митрополит Арсений освети обновения църковен храм "Св. Архангел Михаил" в ямболското село Гълъбинци.  В Деня на християнското семейство дядо владика кръсти 40 жители на селото на възраст от една до 73 години. В близо 120-годишния храм бяха кръстени 17 деца и 23-ма възрастни. За днешния празник сливенският..

публикувано на 21.11.24 в 19:20

"Каритас" започва ежегодната си кампания "Защото сме хора"

На 25-и ноември "Каритас България" започва ежегодната си кампания "Защото сме хора" "Целта на кампанията е да подкрепим възрастните хора в България", обясни пред БНР  Емануил Паташев, главен секретар на организацията. Благодарение на даренията от кампанията около 500 души годишно получават медицински и социални грижи. Може да изразите..

публикувано на 21.11.24 в 19:19