Размер на шрифта
Българско национално радио © 2025 Всички права са запазени

"Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео"

Мелъни Мичъл: Има малка вероятност машините да станат съзнателни, по-притеснително е как хората използват изкуствения интелект

Снимка: Pixabay



Кои са реалните опасности от впечатляващото развитие на изкуствения интелект - че ще унищожи човечеството, че ще ни отнеме контрола върху цивилизацията, или че само ще започне да ни измества от работните места и ще ни залее с фалшиви видеа? Не спират новините около развитието на големите езикови модели, като ChatGPT и другите видове генеративен изкуствен интелект. Не секват и предупрежденията относно видимите огромни технологични скокове, а вече все повече са и политическите заявки за избягване на опасностите чрез регулация.


Константин Мравов потърси мнението на един особено значим специалист в сферата - професорът от Института в Санта Фе Мелъни Мичъл. Тя изследва развитието на изкуствения интелект през последните 40 години. Книгата й "Изкуствен интелект - наръчник за мислещи хора" е смятана за едно от най-добрите и достъпни обобщения по широката тема. Издадена в далечната за тази сфера 2019 година, тя обръща сериозно внимание на големите етични въпроси, които ни занимават днес.

- Новините в сферата на изкуствения интелект и големите езикови модели, като GPT, не спират и някои значими изказвания правят силно впечатление. Преди 2 седмици професор Джефри Хинтън, един от учените, наричани "Кръстници на Изкуствения интелект", напусна високия си пост в Google. По собствените му думи - за да говори за рисковете от бързото развитие на технологията. Според Хинтън, технологичната надпревара между Microsoft и Google в това поле ще доведе до толкова много "фалшиви изображения и текст, че повече никой няма да може да разпознае истината." Съгласна ли сте с тази оценка?

Съгласна съм, че има огромна опасност от използването на изкуствения интелект за генериране на фалшиви изображения и текстова информация. Системите стават все по-добри и вече е трудно да разбереш какво е реално. Проф. Хинтън е един от най-познатите в това технологично поле, но е важно да се каже, че много хора отправят същите предупреждения от години. Google имаше силен екип за AI-етика, ръководен от Тимнът Гебру и Маргарет Мичъл, които бяха уволнени преди повече от 2 години заради доклад с подобни предупреждения. Чудесно е, че проф. Хинтън сега се присъединява към притесненията им.

Случаят с Гебру и Мичъл ни показa още през 2020, че големите корпорации явно смятат етичните въпроси за вторични спрямо финансовите и други ползи от светкавичното развитие на изкуствения интелект в различните му приложения. Достигнахме обаче момента, в който езиковите модели са интегрирани в търсачките на Google и Microsoft - тоест, те формулират отговори на въпросите на милиарди хора по света, въпреки многото проблеми с компилираната от тях информация и липсата на прозрачност как всъщност биват обучавани.


Големите компаниите имат за цел да разработват продукти и да постигат финансови резултати, защото отговарят пред акционерите си. Етичната част не е приоритет, защото не  дава предимство пред конкуренцията. Публикуването на големите езикови модели, като ChatGPT и Bard на Google, ни показа сериозни етични проблеми, тъй като могат да се ползват за съчиняване на реалистично звучаща фалшива информация. Други приложения като DALL-E и Stable Difusion създават реалистични изображения. Има малко регулация и етични спирачки, което се дължи и на огромната конкуренция - Google и Microsoft не искат да изостават една от друга.

- Но по-голямата регулация изглежда неизбежна, като такива решения се подготвят и в диалог със самите компании. Белия дом наскоро събра големите AI-шефове и поиска "етично развитие" на технологията. Преди това ресорните министри на страните от Г-7 приеха план за регулация върху AI-разработките, основана на риска. По подобен начин в планиран европейски закон се въвежда дефиниция за "високо рискова" употреба на изкуствения интелект. С надежда ли трябва да гледаме към плановете за регулация поне в Западния свят?

- Има проблем с това, че тази технология е глобален феномен, а отделните страни могат да наложат регулации само на своя територия. Другият проблем е, че самата технология се развива изключително бързо и е трудно регулаторните органи да спазват темпото, особено когато ръководителите на правителствата са хора, които не я разбират. Пример за това е т.нар. "право да бъдеш забравен" в европейския регламент за защита на данните GDPR. То означава, че можете да поискате ваши лични данни да бъдат изтрити от интернет база данни, в която са попаднали. В момента обаче е технологично невъзможно да накараш някой от големите езикови модели като GPT да забрави напълно, тоест да изтрие вече придобита подобна информация. Ето защо регулациите трябва да бъдат съобразени с възможностите на тези модели. Или последващите технологични разработки да са съобразени с изискването да могат да забравят лични данни.

- Да се върнем към друго изказване на Джефри Хинтън, което ни насочва към популярно предупреждение. Той смята, че моментът, в който изкуственият интелект ще стане по-интелигентен от човека, вече не е толкова далеч. И на обикновените хора това не изглежда странно, предвид поемите на езиковите модели и красивите картини на генераторите на изображения. Що се отнася само до изчисления, отдавна човекът не може да смята по-бързо от калкулатор, нито да спечели срещу компютър на шах.

От друга страна, току-що помолих ChatGPT да напише три изречения, в които третата дума е "ябълка" и програмата не успя да се справи със задача, която е по възможностите на всеки от нас. Други тестове показват как езиковите модели понякога изпитват затруднения с проста математика.  

И въпреки това изказването на Хинтън не е единственото предупреждение относно скорошното достигане на т.нар. Общ изкуствен интелект - компютърен ум на човешко ниво, но с невъобразимо по-голяма изчислителна мощ. И вие ли смятате, че се приближаваме към този момент?

AGI или Общият изкуствен интелект се дефинира по различен начин от различни хора. Чувала съм го като "машина, която е по-умела от хората във всички когинитивни задачи". Тук не говорим за физически умения, като да изкопаеш дупка. Не е лесно обаче да отделим физическите си умения от когнтивните способности. Също така, можете ли да направите списък на всички аспекти на човешкото познание, които използваме в живота си? Хората не осъзнават сложността на собствената си интелигентност, защото много от продиктуваните от нея действия извършваме подсъзнателно.

Нивото на човешкия интелект, доколкото можем да го дефинираме, все още е далеч от възможностите на машините. Системи като GPT-4 правят невероятни неща, но все още допускат немислими за човека грешки. Не знам дали и как може да се пророкува кога изкуственият интелект ще има човешка интелигентност, но във всичките десетилетия на неговото разработване някой повтаря, че този момент е близо. А той все не идва и аз все още мисля, че е далеч.  

- Тоест - трябва да сме по-притеснени от начина, по който хората ползват сегашните възможности на технологиите, отколкото от възможността машините да станат съзнателни?

Има малка вероятност машините да станат съзнателни подобно на живите същества и да придобият собствени желания и мотивация. Поне в близкото бъдеще не виждам такава възможност. Много по-притеснително е как хората използват тези системи в политическата сфера, рекламата и в общия смисъл за манипулация.

Защото генераторите на изображения и видео вече ви предлагат реалистично изглеждащ бой между Кейт Мидълтън и Мегън Маркъл, или пък привидно истински Владимир Путин и Доналд Тръмп по халати, седнали в едно легло. Компилирайки текст по ваша заявка, езиковите модели, също като хората, могат да включат лъжлива информация, прочетена от тях в интернет. Към момента няма прозрачност на какви бази данни и по какъв начин големите дигитални компании тренират изкуствения интелект.


- Как да ограничим рисковете? Някои специалисти предлагат разработките  да се извършват в затворена среда, тоест без достъп на системите до интернет. Други поглеждат към междуправителствени споразумения и примера на ЦЕРН - Европейския център за ядрени изследвания - съвместен за 23 държави. Едно припомняне - световната мрежа е родена именно в ЦЕРН, най-напред като средство за обмяна на научна информация. Трябва ли да се насочим към подобни модели на научно сътрудничество в сферата на изкуствения интелект?

- Да оставим разработването на изкуствения интелект на големите търговски компании е опасно. Причината са по-рано споменатите проблеми и липсата на прозрачност при разработките. Ако ЦЕРН е позитивен пример, то е защото научните му разработки са в обща полза, предвид правителственото финансиране, а не в такава на голяма компания. Това е ценна възможност и в полето на изкуствения интелект.

В момента в Съединените щати се работи по създаването на институти за AI-разработки, които се финансират от Националната научна фондация. Това е държавна институция. Има такива проекти и в Европа, а междуправителствен модел като този на ЦЕРН ще позволи на учени извън големите компании да разработват, изследват и разберат по-добре изкуствения интелект, но при прозрачност на научната им работа. Това дава и по-добра възможност за справянето със заплахи като разпространяването на дезинформация чрез изкуствен интелект.

- На бъдещето оставяме въпроса как работата на такива центрове с публично финансиране, образно казано, ще съжителства с тази на търговските компании. В настоящето сме впечатлени от човешки звучащите отговори на ChatGPT. Но на кои други приложения на генеративния изкуствен интелект следва да обърнем най-голямо внимание?

Освен върху човешки език, тези системи се тренират на компютърен код и са много успешни в генерирането на код по заявка. Мога да поискам на английски от голям езиков модел да създаде определена компютърна програма и той ще ми даде програмен код, който често е много добър. Това е важно за цялата софтуерна индустрия. От определена гледна точка, тези системи показват по-добри възможности в програмирането, отколкото в човешката комуникация.

Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео. Такива мултимодални генеративни системи ще могат например да изгледат видеоклип и да задават въпроси по съдържанието или пък да го обобщят. Ще могат да опишат някакво изображение на незрящи хора. И в следващите години ще има голям интерес към тези мултимодални системи, които съчетават възможността за езиково общуване с разбирането на аудио и видео съдържание.

По публикацията работи: Мария Сивкова - Илиева

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Нарисувани от съдебен художник скици на обвинените в шпионаж във Великобритания български граждани. От ляво надясно : Катрин Иванова, Ваня Габерова, Орлин Русев, Иван Стоянов и Бисер Джамбазов, 26 септември 2023 година.

Процесът срещу българите, обвинени в шпионаж във Великобритания, продължава

Козметичката Вана Габерова, която е част от българската клетка, шпионирала в полза на Русия, заяви днес в Централния наказателен съд в Лондон, че не е знаела нищо за дейността на "чаровния" й приятел Бисер Джамбазов, докато са пътували заедно в Австрия и Испания. Давайки показания в рамките на вървящия процес срещу българските шпиони,..

публикувано на 30.01.25 в 22:03
Президентът на САЩ Доналд Тръмп говори в Белия дом за трагичния инцидент в небето над Вашингтон, 30 януари 2025 г.

Тръмп потвърди, че няма оцелели при авиокатастрофата във Вашингтон

Президентът на САЩ Доналд Тръмп потвърди, че няма оцелели при сблъсъка на пътнически самолет и военен хеликоптер над Вашингтон вчера, предаде Ройтерс. Президентът даде пресконференция след авиокатастрофата, при кояо.то самолет на "Америкън еърлайнс" (American Airlines) се сблъска с хеликоптер "Блек хок" (Black Hawk) на американската армия и се разби..

публикувано на 30.01.25 в 20:54

Израел е освободил 110 палестински затвориници

След кратко задържане израелските власти са освободили 110 палестински затворници, след като днес "Хамас" предаде трима израелски заложници и петима граждани на Тайланд, които също са били отвлечени при терористичния рейд в Южен Израел на 7 октомври 2023 година. Заложничката Агам Бергер беше освободена от "Хамас" Кореспондент на "Франс прес"..

публикувано на 30.01.25 в 20:39

Учениците в Нова Загора, Котел и Твърдица минават в онлайн обучение

Област Сливен е в грипна епидемия от 3 до 11 февруари. Това обяви за БНР д-р Николина Иванова, директор на РЗИ – Сливен, след съгласуване с Главния държавен здравен инспектор. От понеделник учениците от общините Нова Загора, Котел и Твърдица минават в електронно обучение, а тези в община Сливен излизат във двудневна ваканция. Заболяемостта е..

публикувано на 30.01.25 в 20:21
Димитър Стоянов (в средата) и Георги Георгиев (вдясно) на пресконференцията, на която показаха документи -  30 януари 2025 г.

Журналисти представиха документи, които смятат, че уличават Петьо Петров-Еврото

От гражданско сдружение БОЕЦ и разследващите сайтове BIRD.bg и "Биволъ" представиха документи, за които се твърди, че са от личния архив на бившия следовател Петьо Петров, по прякор Еврото, обвиняем по т.нар. дело "Осемте джуджета" и обявен за издирване. Според журналистите в предполагаемия архив има достатъчно данни, по които институциите да се..

публикувано на 30.01.25 в 20:20

Общинският съвет в Ловеч не избра нов председател

Общинският съвет в Ловеч не избра нов председател на днешното си заседание заради липсата на кандидати. До избора се стигна след като досегашният председател на съвета Стефан Тихолов подаде оставка. Изборът  на председател на общинския съвет беше оставен като последна точка в дневния ред на заседанието, за да може да се разгледат и..

публикувано на 30.01.25 в 19:54
Софийския университет „Св. Климент Охридски

Софийският университет признава оценките от матури за кандидатстване в 122 бакалавърски програми

За учебната 2025/2026 година Софийският университет "Св. Климент Охридски" ще признава оценките от държавен зрелостен изпит като конкурсни за кандидатстване в 122 от общо 124 свои бакалавърски програми.    Как ще става кандидатстването  Приемът на заявления за явяване на изпит ще става само по електронен път и започва на четвърти март...

публикувано на 30.01.25 в 19:42