Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Би било проблем, ако хората започват да вярват, че системата има "личност" и "чувства", изтъква световноизвестният експерт по изкуствен интелект

Проф. Армандо Солар-Лезама: Много сме далече от това машините да "мислят" като хората

Опасността при ИИ произтича не толкова от самата технология, а от културологичния аспект - как я използваме, категоричен е специалистът

проф. Армандо Солар-Лезама
Снимка: Добромир Видев

Ще се самопрограмира ли изкуственият интелект в бъдеще? И защо учените го карат да пише програми, вместо да дава директни отговори? Това бяха само част от въпросите, които световноизвестният експерт по изкуствен интелект проф. Армандо Солар-Лезама обсъди с български IT специалисти. Армандо Солар-Лезама беше в София за лекция по покана на Института за компютърни науки, изкуствен интелект и технологии (INSAIT). Той е един от ръководителите на лабораторията по информатика и изкуствен интелект в Масачузетски технологичен институт. Проф. Лезама даде специално интервю за БНР.

Защо карате изкуствения интелект да пише програми? 

"Целта ни е да накараме изкуственият интелект да се научи да пише програми и да помага със задачите на софтуерните инженери. От друга страна това е начинът да подобрим обучението и да го направим по-мощно. Имаме много приложения, в които използваме изкуствен интелект. Например, областите, в които работи моята научна група, са свързани с научните открития. Една от областите е в процеса на т.нар. РНК сплайсинг. Искаме да разберем как клетките се опитват да манипулират РНК-то, за да може да произвеждат протеини. В този процес използваме изкуствения интелект. Работата е там, че ако вземем всичко, което нашите биолози знаят за този процес на манипулация на РНК веригите, можем да обясним само част от това, което се случва всъщност. В същото време за този механизъм имаме много, много информация. И това, което се опитваме да направим, е да използваме тези данни, да ги дадем на изкуствения интелект, за да ги обясним и разберем. С това ни си иска да имаме едно много лесно четимо показване на този механизъм. За да може на базата на резултатите да развиваме нови лечения за заболявания, например. По един друг проект имаме сътрудничество с група програмисти. И се опитваме да направим по-добри управления за роботите. За да може да бъдат по-сигурни и да разчитаме на тях при работа." 

Вие казвате, че трябва да имаме програми, които да бъдат произвеждани от изкуствения интелект. А не той да дава директни отговори. Защо?  

"Проблемът със съществуващите невронни мрежи е, че е много трудно да предвидим как те биха могли да работят. Към този момент те са много непрозрачни, трудно можем да разберем тяхното вътрешно функциониране. Минавайки през това да ги караме да програмират, ние минаваме през всички онези инструменти, които вече са били създадени през последните няколко години. Това ни позволява да развием и надграждаме нашата собствена възможност да четем и да разбираме код. И да разбираме по този начин какво системата научава, как ще се държи в нови ситуации, които не са дори предвидени и не са виждани. Това ни дава някакво ниво на предвидимост на невронните мрежи."  

Имате ли някакъв успех? 

"В много от секторите и областите го правим по този начин, по който не бихме могли, използвайки чисто машинно обучение. В много от случаите успяваме да създадем контролери, които могат да бъдат потвърдени и да докажем, че те ще се държат по очаквания начин при всичките възможни ситуации, които те срещат." 

Това звучи все едно учените казвате "Спокойно, хора, ние, учените знаем какво правим с изкуствения интелект. Той е под наш контрол, не толкова опасен“? 

"Изучаването на изкуствения интелект определено все още е в изследователската си област, в изследователския си етап и дори ние се учим как много от нещата се правят. Но това е изключително важен аспект от дневния ни ред. Да можем да създаваме системи с изкуствен интелект, които разбираме и е възможно да изградим със знанието, с което разполагаме. Вместо да се опитваме да преоткриваме от нулата нещата. Така можем да гарантираме, че можем да предвидим и как тези невронни мрежи ще се държат в различни ситуации. За да може да имаме и ние някаква полза от тези обучаеми системи. И в същото време наистина да успеем да минимизираме рисковете." 

Забелязахте, че досега не съм ви питал за Chat GPT и неговата роля, която всъщност се оказа, че е доста комерсиална към този момент. Скоро неговите изследователи от Microsoft и Open AI написаха, че той си имал зачатъци на общ изкуствен интелект. Термин, който се употребява по-скоро, доколкото разбирам, за това, че става самостоятелен? 

"Обикновено използваме този термин за система на изкуствен интелект, която сама себе си може да адаптира към новите ситуации. Успява да реши зададени проблеми от различни области, успява да създаде собствена база от вече научени знания." 

Създава и собствено мнение за нещо? 

"Е, мога да кажа единствено, че към момента можем само да мечтаем за такъв изкуствен интелект, който да е поне близък до това, което може да има у хората. Противно на всичките превъзбудени изказвания и надежди, които съществуват, направо сме си много далече от това машините да мислят като хората. Доста път трябва да извървим дотам. До постигането на това има много път и той е изпълнен с много проблеми и фундаментални проблеми, които трябва да бъдат решени, за да може да достигнат нивото на човека."  

Да, но аз не ви карам и не ви моля да правите предсказване кога една невронна мрежа би достигнала нивото на тази на човешкото съзнание. Самите изследователи май си поставят някакви крайни цели и крайни срокове. Това го видяхме дори и с Chat GPT, когато в края на 2022-ра се появи изненадващо.  

"В момента съществува такъв модел на невронна мрежа, който ние наричаме трансформърс. Нещото, което хората откриха с този така наречен трансформърс е, че колкото по-големи ги правите тези невронни мрежи, колкото повече ги тренирате с много повече информация, започвате да виждате, че тези невронни мрежи в някакъв момент започват да проявяват признаци на определени абстрактни обосновки. Това като създатели не сме очаквали, че ще се случи. Но то се случва. Заради начина, по който тези невронни мрежи ги тренираме. Затова казваме, че невронните мрежи започват да правят тези абстрактни обосновки. Това е вече наистина интересно и изключително мощно."  

Дори опасно. Белгиец се самоуби след общуване с чатбот.

"Да, да…. Мисля че опасността при тези неща произтича не толкова от самата технология, а от културологичния аспект - как тези технологии се използват, какви системи допълват. В някакъв момент това би се превърнало в порочен кръг, ако хората започнат да вярват наистина, че тази система има възможности, които не би трябвало да притежава. Ако хората започват да вярват, че системата има някаква персоналност, има личност, че системата е интелигентна, има чувства. Въпреки че това изобщо не е така. Много хората вярват на това, самата система може да започне да отговаря по същия начин - като приятел, като партньор. Но това съвсем не означава че системата притежава тези качества."  

По тази тема вие, учените, какво казвате? 

"Че сме много много далече от момента, в който можем да кажем, че невронните мрежи притежават този т.нар. общ изкуствен интелект. Ако някой ви казва, че ние сме в момента, в който аха да започнем да имаме подобно нещо, вероятно се опитват да ви продадат нещо. И това е нещо, което вероятно не си струва и не би трябвало да купувате."  

Снимка: Pixabay

Такава ли е ситуацията с Chat GPT? 

"Със сигурност. Даже е и интересно какво казва и Сам Алтман, шефът на Open AI. Той се опитва да понамали силата на подобни твърдения, казвайки, че не, ние не сме там, все още. Разбира се, във всичко това има известно екзалтиране, защото самите системи имат възможност да правят… и правят някакви на изключително интересни неща." 

Като учен от Масачузетския институт, говорили ли сте със Сам Алтман? 

"Не. Не съм."

Питам ви, защото част от академичната общност се подписва наскоро под едно писмо на Илън Мъск и Стийв Возняк за това да се спре за малко обучаването на изкуствения интелект. Вие какво мислите по  този въпрос? 

"Не сам съгласен с това писмо. С много от нещата не съм съгласен. От една страна, че писането на писма не води до действия. И затова публикуването на писмото ми се струва чисто символичен акт. Разбирайте, технологията е вече факт. Много хора правят проучвания, тренировки на модели. И учените се чувстват все по-уверени."  

Казвате, че е безсмислено да се иска спирането на образоването на подобни системи с изкуствен интелект? 

"Аз като учен се чувствам много по-удобно, ако това обучение на изкуствен интелект става по открит начин. Ние можем да използваме тези модели, можем да опознаваме тези модели, които служат за тренировка на изкуствения интелект. Има изключително много хора, които го правят. И по този начин те разбират на какво са способни тези модели на изкуствен интелект."  

Добре, обаче допустимо ли е научната общност например да изисква от бизнеса да разкрива моделите, върху които тренира изкуствен интелект. Доколкото ми е известно, това е проблемът с Open AIи Chat GPT?  

"Има детайли. Има доста инженерство в тренирането на тези модели. Но в самата си основа най-вълнуващото е, че се използват основополагащи алгоритми в тренировката. Те не са такава новост. Нашата общност ги познава и цялата работа е в това, че много от нещата, които излизат от изкуствения интелект, не са в резултат на тези познати за нас алгоритми. А от факта, че тези модели, които тренираме с тези алгоритми произлизат от тренировката върху изключително огромни количества параметри, огромни количества данни, които те разглеждат, за да се тренират. Аз все пак мисля, че наистина, ако имаме повече отвореност, било чудесно." 

В този случай кое е най-важното за вас?  

"За научната общност би било важно наистина да има възможност да изучава тези процеси в тяхната цялост. Да предоставя обективност към въпроса. Такава обективност няма да намерите от частните компании, в стартъпите, защото те искат да прилагат моделите на изкуствени интелект комерсиално. Тяхната цел са продажбите на продуктите. Затова няма да чуете нищо обективно нито от стартъпите, нито от големите корпорации. Смятам, че ролята на отговорността е за научната общност, защото тя се опитва да разбере къде и на какво ниво са тези модели, кои са техните слабости, кои са техните силни страни. Аз всъщност си мисля, че най-големият риск, който имаме в този момент, е именно точно този стремеж на по-малки компании, които се опитват да създадат продукт, подпомогнати от изкуствения интелект. В някакъв момент тези продукти просто няма да могат да работят. Разбирате ли, тези нови продукти ще са просто един боклук. Обаче я има тази "позлата", която ни кара да реагираме така: „О, Chat GPTе изумителен! О, изкуственият интелект е толкова могъщ.“ Така на практика ще повярваме, че тези продукти работят за неща, които те наистина, ама наистина не вършат работа... И точно в софтуерния бранш е единият пример. Технологията на изкуствения интелект съвсем не е в точката, в която да уволним всички програмисти, защото нашия код може да го пише машина."  

Вие казахте, че програмистите имат своето място. Независимо от това в каква степен се развива технологията? 

"Да. Това обаче не би спряло един шеф, който няма никаква представа от това как се пише код. Няма какво да го спре, за да каже: "Всичките софтуерни специалисти ще ги уволним, защото имаме технологията това да го правим автоматично.“ Опасността е не че технологията е твърде добра. Опасността е в това, че хората започват да го използват за нещо, за които изкуственият интелект не бил би готов. Затова казвам, че технологията не просто заменя хората, а това грешно разбиране и тази грешна вяра във възможностите на технологиите. Които от друга страна още не са напълно "узрели" и това може да доведе до някакви негативни последици." 

Вие какво бихте казали на учителите, които сега са в ситуацията, в която трябва да проверяват домашни работи на ученици, които вероятно са си писали задачите с Chat GPTили с изкуствен интелект?

"Действително сме в този преходен период и трябва да се адаптираме към новостите. Това трябва да стане по същия начин, както е ставало  при адаптирането на математическото обучение след появата на калкулаторите. И тогава, а и сега стои разбирането, че децата имат полза от постоянната практика, постоянното упражняване, което може да се случи и без калкулатор. И ние окуражаваме тази практика - да смятат наум. Но щом стигнат до изчисленията на висшата математика, вече позволяваме да използват калкулаторите, таблиците… Защото те са добри и в използването на калкулаторите. И целта е не е просто да смяташ, а да се фокусираш върху по-високоинтензивната, високопродуктивна работа, която идва с висшата математика. Това е нещото, което може би ще се случи и с навлизането на изкуствения интелект в обучителния процес. Имаме един комплект от умения, които е важно човек да изгради в себе си – да се обучава и да надгражда знанието, без да разчита на някакъв тип технология. Просто да използва своите умения и да не използва машина, която да му структурира мислите по някакъв начин, за да може да се комуникира с други хора. Обаче пък, ако наистина алгоритмите ни помогнат да пишем много по-добри текстове например, аз лично бих се радвал да прочета нещо, което е написано "не чак толкова лошо". Преписването също винаги си е било проблем. И определено хората, учениците нямат нужда от Chat GPT, за да могат да мамят или да преписват. Отношението към преписването трябва да бъде в контекста на това как се изгражда културата на обучението. Навикът, по който ти изграждаш гордостта от това, че си научил нещо. Аз си мисля, че това е единственият начин, по който може да се справим с преписването. Учителите не трябва да се тревожат. Това е посланието ми. Защото изграждането на култура на учене не е лесна работа. Вярно е, че това се постига малко по-трудничко. Но трябва да бъде направено."  

Любопитен съм, в Масачузетският технологичен институт забранихте ли използването на изкуствен интелект в обучителния процес?

"Всеки курс има своите политики при нас. Дори и по отношение на преписването също има различи подходи. На нивото на писането на теза например, ако хората използват Chat GPT, за да създадат по-лесно и по-ясно структуриран текст, защо не! По-важно от структурирането са оригиналните идеи, оригиналната мисъл. Това което е казано. А това не би могло да бъде постигнато с Chat GPT. При нас сега няма някаква обща политика, която да се налага."  

По публикацията работи: Яна Боянова

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ

Цветан Цветанов: При бързи избори ДПС може да не бъде политически субект в парламентарната надпревара

"При една ситуация на бързи избори ДПС може да не бъде политически субект в парламентарната надпревара. Възможно е кръгът около Пеевски и този около Чакъров да бъдат в различни конфигурации с други партии – мандатоносители и с наименованията на коалиции, които обаче няма да бъдат "ДПС".  Такава прогноза направи пред БНР Цветан Цветанов, председател..

публикувано на 31.07.24 в 14:00
Десислава Христозова

Деси, къде си? – как да се преборим с излишните килограми заедно

Над 60 процента от българското общество има проблеми с килограмите . Затлъстяването е като лавина. Да си дебел е стигма. Обществото се прави, че приема тези хора. Мисията на Десислава Христозова е да покаже на светло хората с наднормено тегло , как живеят те и как се борят с излишните килограми. На това е посветена нейната..

публикувано на 30.07.24 в 09:42

Задава ли се контрол върху личната кореспонденция през чат приложения?

С добрата инициатива на законодателя се въвеждат мерки, които нарушават драстично и нашите права . Това заяви пред БНР Богомил Шопов, съосновател на "Електронна граница - България", във връзка с обсъждана промяна в директива за правото на неприкосновеност на личния живот и електронни комуникации. Става дума за предлагана задължителна..

публикувано на 30.07.24 в 09:13
Биляна Гяурова

Биляна Гяурова за решението на КС: Късогледство и двоен стандарт

" Конституционният съд не успя да надскочи собствените си ограничения и да бъде на висотата на актуалната политическа и геополитическа обстановка. Това конституционно решение не е просто затворено в рамките на България, а има проекция и извън нашата територия." Това каза пред БНР Биляна Гяурова, директор на Българския институт за правни..

публикувано на 30.07.24 в 08:35
Татяна Дончева

Татяна Дончева: Отровените отношения в лявото трябва да бъдат преодолени

Събиранията на Бузлуджа са знакови. Бузлуджа този път беше вид лакмус дали процесите, тръгнали между различните леви формации, срещат подкрепа сред левите хора. Това каза пред БНР Татяна Дончева, лидер на "Движение 21", след срещата за ляво обединение в Стара Загора. Призиви от Бузлуджа: Да се обединим Левите хора одобряват тези..

публикувано на 29.07.24 в 08:25

Хеликоптер на ВВС облита района на инцидента в Елин Пелин

Малко преди 9 ч. хеликоптер на Военновъздушните сили започна облитане на района на инцидента в Елин Пелин. Така наречените бронирани военни машини "котки" също влизат в периметъра, вероятно за да направят пореден опит да огледат ситуацията.  По-рано през деня стана ясно, че това не се е случило 2 пъти в изминалите часове след старта на инцидента...

публикувано на 26.07.24 в 09:07

Росен Белишки: Мит е, че през летните месеци има бум на домови кражби

1679 са извършените домови кражби на територията на цялата страна за първите 6 месеца на тази година . Това обяви пред БНР Росен Белишки от Главна дирекция "Национална полиция".  За сравнение той посочи, че за същия период на миналата година те са били 2018. " Имаме намаление на регистрираните престъпления с 16% , което е около 340 случая..

публикувано на 25.07.24 в 15:28