Eмисия новини
от 18.00 часа
Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Предлагат глобален план за отговорно използване на ИИ във военната сфера

| Репортаж
Снимка: БТА

План за действие за управление на отговорната употреба на изкуствен интелект подкрепиха повечето държави на среща на върха в южнокорейската столица Сеул по време на среща за употреба на изкуствения интелект във военната сфера, проведена в Сеул, Южна Корея. България е сред държавите, подкрепящи плана за действие.

Документът отчита, че приложенията с ИИ могат да представляват както предвидими, така и непредвидими рискове в различни аспекти на военната област. Подчертава се необходимостта от предотвратяване на използването на Al технологии за принос към разпространението на оръжия за масово унищожение. Всички способности във военната сфера трябва да се прилагат в синхрон с националното и международното право. Хората остават отговорни за тяхното използване, а ефектите от приложенията на ИИ във военната област, отговорността и отчетността никога не могат да бъдат прехвърлени на машини. Надеждността на Al-приложенията трябва да бъде гарантирана чрез подходящи предпазни мерки за намаляване на рисковете. Следва да се поддържа подходящо човешко участие в разработването, внедряването и използването на Al във военната област. Затова в документа се настоява приложенията с ИИ да бъдат разработени, разгърнати и използвани в съответствие с международното право, включително, ако е приложимо, да бъдат съобразени с Хартата на ООН за правата на човека. Изтъква се нуждата от национални стратегии, принципи, стандарти и норми, политики, рамки и законодателство.

"Иновациите в тази област се случват в частния сектор. В допълнение към тези в областта на изкуствения интелект, мисля, че има няколко елемента и това не е изчерпателен списък, но държавите може да пожелаят да се разгледа. Те включват управление на данните, защита на данните и познаване на ИИ. Във военния сектор е много важно да се обмисли как се събират данните. Също така въпроси, свързани с управлението на технологии, които имат двойна употреба. Държавните играчи може да помислят за ограничения, забрани и разпоредби, по-специално как е интегриран ИИ към различни оръжейни системи. Един стандартен въпрос – искате ли изкуствен интелект в системите за ядрено командване и контрол? Моят личен отговор - вероятно не", коментира Изуми Накамицу, заместник-генерален секретар на ООН по въпросите на разоръжаването.

Компаниите изграждат политики със защити, твърди Майк Бейлър, който отговаря за иновациите в "Локхийд Мартин". Компанията ще достави за България изтребители Ф-16.

"Ние твърдо вярваме, че се нуждаем от национални и от международни стандарти за управление на ИИ. От гледна точка на индустрията, ние имаме огромна роля, за да гарантираме, че изграждаме отговорни технологии за изкуствен интелект, които да използваме в нашите продукти и услуги както вътрешно в корпорациите, така и от страна на войника. В нашата корпорация се заехме да изградим, ние го нарекохме способност за операции на машинно обучение. Това го направихме, за да сме в синхрон с изискванията на Министерството на отбраната на Съединените щати. И петте им насоки - отговорно, управляемо, проследимо, справедливо и надеждно използване на ИИ. Ние инвестираме и се опитваме да задвижим нещата напред. На национално ниво си партнираме с организация, наречена Nest - това е Националният институт за стандарти и технологии към Белия дом, който наскоро издаде регулации за довереното използване на изкуствения интелект.  Имаме желание да правим подобни неща на международно ниво. Има много неща, които можем да предложим - насоки за управление на ИИ биха били чудесно начало. Процесът по изграждането на тези регулации трябва да се случва леко", изтъква Бейлър.

Хората от бизнеса обаче са реалисти. "Знаем от минал опит, че при всяка технология положителната употреба невинаги е това, което ще се случи", предупреждава Ейми Хоган-Бърни, която в "Майкрософт" отговаря за отдела, занимаващ се с киберсигурност. Там работят адвокати, стратези по сигурността, следователи, инженери и анализатори.

Трябва да има защита на данните, които обучават модела, необходима е защита на самия модел и на приложенията на тези модели, обяснява Ейми Хоган-Бърни.

"В момента в "Microsoft" проследяваме 300 различни групи за активност на заплахи. Те са между актьори от националната държава и киберпрестъпници. В хода на проследяването на тези 300 "актьора" виждаме как те използват възможностите на ИИ. Миналия февруари публикувахме блог, в който разгледахме трима или четирима различни национални държавни актьори: от Русия, от Китай, от Северна Корея - и говорихме за това как виждаме тези актьори да използват големи езикови модели, как са използвали тази технология. И бяхме много категорични. Първо, ако ги видим да използват тези ИИ технологии на нашите собствени системи, ще ги изключим. Второ, ако използват други системи, ние проследяваме тези заплахи и уведомяваме другата компания, независимо дали е Open AI, Google или някой друг. Ясно казахме и че ще информираме правителствата за тези употреби, ще бъдем прозрачни за това и ще продължим да ги изясняваме."

"Държавите рядко действат с предпазни мерки. Те винаги поправят щетите си по-късно", изразява мнение Дениз Гарсия, професор в американския Североизточен университет. Като част от факултета по експериментална роботика и автор на книга, посветена на военното съревнование с ИИ, тя дава редица примери в обратната посока.

"Още през 1987-ма предприехме договореност през 2067 г. да се стигне до възстановяването на озоновия слой. Дори това да е дълъг период, договорка за това преди 37 години беше постигната. Можем да приложим същата гъвкавост, предпазни мерки, научни оценки и съпричастността на научната общност към това, с което разполагаме. Другият пример бяха договорите за Антарктика, които защитават последните недокоснати от човека места в света. Без претенции за юрисдикция, без въоръжение - бяха също превантивни договори, предпазни мерки. Договорите за разоръжаване. В книгата имам 25 договора само за разоръжаване и контрол на въоръженията. И ако вземем няколко договора, договорите за противопехотните мини и касетъчните боеприпаси, този договорен процес повиши нивото на амбиция и включи гражданското общество. Създадохме концепция, наречена глобално общностно право - нова област на международното право, която наистина е за това, че никой не може да претендира за юрисдикция, не трябва да има въоръжение и споделянето на ползите трябва да е налице. С други думи цялото човечество трябва да има полза от глобално общностно право. Можем ли тогава да считаме ИИ за глобално общностно право?"

Въпросите остават за следващите дискусии. По време на форума беше отчетено, че планът за действие за управление на отговорната употреба на изкуствен интелект във военната сфера е ориентиран към действия. Самият текст обаче не е правно обвързващ за съгласилите се държави.

По публикацията работи: Яна Боянова

БНР подкасти:

Новините на БНР – във Facebook, Instagram, Viber, YouTube и Telegram.


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!

Горещи теми

Войната в Украйна