Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

"Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео"

Мелъни Мичъл: Има малка вероятност машините да станат съзнателни, по-притеснително е как хората използват изкуствения интелект

Снимка: Pixabay



Кои са реалните опасности от впечатляващото развитие на изкуствения интелект - че ще унищожи човечеството, че ще ни отнеме контрола върху цивилизацията, или че само ще започне да ни измества от работните места и ще ни залее с фалшиви видеа? Не спират новините около развитието на големите езикови модели, като ChatGPT и другите видове генеративен изкуствен интелект. Не секват и предупрежденията относно видимите огромни технологични скокове, а вече все повече са и политическите заявки за избягване на опасностите чрез регулация.


Константин Мравов потърси мнението на един особено значим специалист в сферата - професорът от Института в Санта Фе Мелъни Мичъл. Тя изследва развитието на изкуствения интелект през последните 40 години. Книгата й "Изкуствен интелект - наръчник за мислещи хора" е смятана за едно от най-добрите и достъпни обобщения по широката тема. Издадена в далечната за тази сфера 2019 година, тя обръща сериозно внимание на големите етични въпроси, които ни занимават днес.

- Новините в сферата на изкуствения интелект и големите езикови модели, като GPT, не спират и някои значими изказвания правят силно впечатление. Преди 2 седмици професор Джефри Хинтън, един от учените, наричани "Кръстници на Изкуствения интелект", напусна високия си пост в Google. По собствените му думи - за да говори за рисковете от бързото развитие на технологията. Според Хинтън, технологичната надпревара между Microsoft и Google в това поле ще доведе до толкова много "фалшиви изображения и текст, че повече никой няма да може да разпознае истината." Съгласна ли сте с тази оценка?

Съгласна съм, че има огромна опасност от използването на изкуствения интелект за генериране на фалшиви изображения и текстова информация. Системите стават все по-добри и вече е трудно да разбереш какво е реално. Проф. Хинтън е един от най-познатите в това технологично поле, но е важно да се каже, че много хора отправят същите предупреждения от години. Google имаше силен екип за AI-етика, ръководен от Тимнът Гебру и Маргарет Мичъл, които бяха уволнени преди повече от 2 години заради доклад с подобни предупреждения. Чудесно е, че проф. Хинтън сега се присъединява към притесненията им.

Случаят с Гебру и Мичъл ни показa още през 2020, че големите корпорации явно смятат етичните въпроси за вторични спрямо финансовите и други ползи от светкавичното развитие на изкуствения интелект в различните му приложения. Достигнахме обаче момента, в който езиковите модели са интегрирани в търсачките на Google и Microsoft - тоест, те формулират отговори на въпросите на милиарди хора по света, въпреки многото проблеми с компилираната от тях информация и липсата на прозрачност как всъщност биват обучавани.


Големите компаниите имат за цел да разработват продукти и да постигат финансови резултати, защото отговарят пред акционерите си. Етичната част не е приоритет, защото не  дава предимство пред конкуренцията. Публикуването на големите езикови модели, като ChatGPT и Bard на Google, ни показа сериозни етични проблеми, тъй като могат да се ползват за съчиняване на реалистично звучаща фалшива информация. Други приложения като DALL-E и Stable Difusion създават реалистични изображения. Има малко регулация и етични спирачки, което се дължи и на огромната конкуренция - Google и Microsoft не искат да изостават една от друга.

- Но по-голямата регулация изглежда неизбежна, като такива решения се подготвят и в диалог със самите компании. Белия дом наскоро събра големите AI-шефове и поиска "етично развитие" на технологията. Преди това ресорните министри на страните от Г-7 приеха план за регулация върху AI-разработките, основана на риска. По подобен начин в планиран европейски закон се въвежда дефиниция за "високо рискова" употреба на изкуствения интелект. С надежда ли трябва да гледаме към плановете за регулация поне в Западния свят?

- Има проблем с това, че тази технология е глобален феномен, а отделните страни могат да наложат регулации само на своя територия. Другият проблем е, че самата технология се развива изключително бързо и е трудно регулаторните органи да спазват темпото, особено когато ръководителите на правителствата са хора, които не я разбират. Пример за това е т.нар. "право да бъдеш забравен" в европейския регламент за защита на данните GDPR. То означава, че можете да поискате ваши лични данни да бъдат изтрити от интернет база данни, в която са попаднали. В момента обаче е технологично невъзможно да накараш някой от големите езикови модели като GPT да забрави напълно, тоест да изтрие вече придобита подобна информация. Ето защо регулациите трябва да бъдат съобразени с възможностите на тези модели. Или последващите технологични разработки да са съобразени с изискването да могат да забравят лични данни.

- Да се върнем към друго изказване на Джефри Хинтън, което ни насочва към популярно предупреждение. Той смята, че моментът, в който изкуственият интелект ще стане по-интелигентен от човека, вече не е толкова далеч. И на обикновените хора това не изглежда странно, предвид поемите на езиковите модели и красивите картини на генераторите на изображения. Що се отнася само до изчисления, отдавна човекът не може да смята по-бързо от калкулатор, нито да спечели срещу компютър на шах.

От друга страна, току-що помолих ChatGPT да напише три изречения, в които третата дума е "ябълка" и програмата не успя да се справи със задача, която е по възможностите на всеки от нас. Други тестове показват как езиковите модели понякога изпитват затруднения с проста математика.  

И въпреки това изказването на Хинтън не е единственото предупреждение относно скорошното достигане на т.нар. Общ изкуствен интелект - компютърен ум на човешко ниво, но с невъобразимо по-голяма изчислителна мощ. И вие ли смятате, че се приближаваме към този момент?

AGI или Общият изкуствен интелект се дефинира по различен начин от различни хора. Чувала съм го като "машина, която е по-умела от хората във всички когинитивни задачи". Тук не говорим за физически умения, като да изкопаеш дупка. Не е лесно обаче да отделим физическите си умения от когнтивните способности. Също така, можете ли да направите списък на всички аспекти на човешкото познание, които използваме в живота си? Хората не осъзнават сложността на собствената си интелигентност, защото много от продиктуваните от нея действия извършваме подсъзнателно.

Нивото на човешкия интелект, доколкото можем да го дефинираме, все още е далеч от възможностите на машините. Системи като GPT-4 правят невероятни неща, но все още допускат немислими за човека грешки. Не знам дали и как може да се пророкува кога изкуственият интелект ще има човешка интелигентност, но във всичките десетилетия на неговото разработване някой повтаря, че този момент е близо. А той все не идва и аз все още мисля, че е далеч.  

- Тоест - трябва да сме по-притеснени от начина, по който хората ползват сегашните възможности на технологиите, отколкото от възможността машините да станат съзнателни?

Има малка вероятност машините да станат съзнателни подобно на живите същества и да придобият собствени желания и мотивация. Поне в близкото бъдеще не виждам такава възможност. Много по-притеснително е как хората използват тези системи в политическата сфера, рекламата и в общия смисъл за манипулация.

Защото генераторите на изображения и видео вече ви предлагат реалистично изглеждащ бой между Кейт Мидълтън и Мегън Маркъл, или пък привидно истински Владимир Путин и Доналд Тръмп по халати, седнали в едно легло. Компилирайки текст по ваша заявка, езиковите модели, също като хората, могат да включат лъжлива информация, прочетена от тях в интернет. Към момента няма прозрачност на какви бази данни и по какъв начин големите дигитални компании тренират изкуствения интелект.


- Как да ограничим рисковете? Някои специалисти предлагат разработките  да се извършват в затворена среда, тоест без достъп на системите до интернет. Други поглеждат към междуправителствени споразумения и примера на ЦЕРН - Европейския център за ядрени изследвания - съвместен за 23 държави. Едно припомняне - световната мрежа е родена именно в ЦЕРН, най-напред като средство за обмяна на научна информация. Трябва ли да се насочим към подобни модели на научно сътрудничество в сферата на изкуствения интелект?

- Да оставим разработването на изкуствения интелект на големите търговски компании е опасно. Причината са по-рано споменатите проблеми и липсата на прозрачност при разработките. Ако ЦЕРН е позитивен пример, то е защото научните му разработки са в обща полза, предвид правителственото финансиране, а не в такава на голяма компания. Това е ценна възможност и в полето на изкуствения интелект.

В момента в Съединените щати се работи по създаването на институти за AI-разработки, които се финансират от Националната научна фондация. Това е държавна институция. Има такива проекти и в Европа, а междуправителствен модел като този на ЦЕРН ще позволи на учени извън големите компании да разработват, изследват и разберат по-добре изкуствения интелект, но при прозрачност на научната им работа. Това дава и по-добра възможност за справянето със заплахи като разпространяването на дезинформация чрез изкуствен интелект.

- На бъдещето оставяме въпроса как работата на такива центрове с публично финансиране, образно казано, ще съжителства с тази на търговските компании. В настоящето сме впечатлени от човешки звучащите отговори на ChatGPT. Но на кои други приложения на генеративния изкуствен интелект следва да обърнем най-голямо внимание?

Освен върху човешки език, тези системи се тренират на компютърен код и са много успешни в генерирането на код по заявка. Мога да поискам на английски от голям езиков модел да създаде определена компютърна програма и той ще ми даде програмен код, който често е много добър. Това е важно за цялата софтуерна индустрия. От определена гледна точка, тези системи показват по-добри възможности в програмирането, отколкото в човешката комуникация.

Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео. Такива мултимодални генеративни системи ще могат например да изгледат видеоклип и да задават въпроси по съдържанието или пък да го обобщят. Ще могат да опишат някакво изображение на незрящи хора. И в следващите години ще има голям интерес към тези мултимодални системи, които съчетават възможността за езиково общуване с разбирането на аудио и видео съдържание.

По публикацията работи: Мария Сивкова - Илиева

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ

Огнян Дъскарев: Шансовете на Тръмп да стане президент се увеличиха след покушението

Твърдението на левицата е, че Доналд Тръмп сам е виновен, че за малко не беше убит. Този език на омразата и тази страшна омраза, която изпитва американската левица към Тръмп логично доведе до това, което се случи. Това коментира в интервю пред БНР журналистът Огнян Дъскарев след покушението срещу кандидата за президент на САЩ Доналд Тръмп...

публикувано на 15.07.24 в 14:25

В Сирия се провеждат парламентарни избори

В Сирия се провеждат парламентарни избори. Това е четвъртият подобен вот след масовите антиправителствени протести през 2011 г., преминали в гражданска война, която продължава и до днес, предава "Асошиейтед Прес". Изключени от изборите са северозападната част на Сирия, която е под контрола на бунтовниците, и североизточната част, където..

публикувано на 15.07.24 в 14:10

Иван Христанов: Сега е моментът за бързи избори, докато ДПС е отслабено

Сега е моментът да се ходи на бързи избори, за да можем да ги проведем в едно отслабено за ДПС политическо пространство.  Това мнение изказа пред БНР Иван Христанов, лидер на партия "Единение". В предаването "12+4" той коментира искането на ПП-ДБ президентът да отложи с 2 месеца връчването на мандата с идеята през това време парламентът да..

публикувано на 15.07.24 в 14:08

Десетки ниви и овощни градини са изгорели в землището на село Мененкьово край Белово

Десетки ниви и овощни градини са изгорели в землището на село Мененкьово край Белово. В овладяването   на огъня са участвали пожарникари от Септември и Белово, но гасенето е продължило с часове. Към този момент пожарът е напълно потушен, но остава под наблюдение. Причините за пожара се изясняват. Предполага се, че в основата е човешка..

публикувано на 15.07.24 в 14:00

Трети ден септемврийските села Варвара и Ветрен дол са с нарушено водоподаване

Трети ден жителите на септемврийските села Варвара и Ветрен дол са с нарушено водоподаване заради авария на  основния водопровод. Екипи на ВиК-Септември са на терен, но работата бе затруднена, тъй като повредата бе скрита. От кметството във Варвара съобщиха, че има напредък и до няколко часа проблемът ще бъде напълно отстранен...

публикувано на 15.07.24 в 13:58
Адина Вълян

Двама комисари напускат ЕК, за да станат евродепутати

Еврокомисарката по транспорта Адина Вълян и колегата ѝ, отговарящ за околната среда, океаните и рибарството, Виргиниюс Синкявичус са информирали председателката на Комисията Урсула фон дер Лайен за решението си да подадат оставки, за да заемат местата си на евродепутати в новия Европарламент. За да се осигури приемственост в работата на Комисията, Фон..

публикувано на 15.07.24 в 13:44
Ръководителите на НАП Румен Спецов (вдясно) и на Агенция

НАП и Агенция "Митници" сливат кампаниите си, насочени към подрастващите

Националната агенция за приходите и Агенция "Митници" обединяват усилията си за превенция и противодействие на хазартната и наркотичн ата  зависимост, съобщиха от НАП. Двете приходни агенции сливат кампаниите си , насочени към подрастващите, като общата инициатива остава под надслов " Не сте сами" . Кампанията "Не сте сами" е с ъздадена..

публикувано на 15.07.24 в 13:44