Историјатот на нуклеарното оружје е преполн со примери кога за малку била избегната катастрофа, и тоа благодарение на човек што избрал да му верува на сопственото расудување наместо слепо да ги следи информациите дадени од машините. Примената на вештачката интелигенција во однос на нуклеарното оружје ги зголемува шансите следниот пат да нема никој што би го сопрел лансирањето на бомбите
Повеќе не сме во доменот на научната фантастика: трката за примена на вештачка интелигенција во системите за нуклеарно оружје е нешто што веќе се случува. Станува збор за активност што може да го направи поверојатен нуклеарниот судир. Со оглед на тоа што државите од целиот свет дејствуваат во насока на тоа да овозможат безбеден развој и примена на вештачката интелигенција, сепак постои можност да се ублажи оваа опасност. Но ако светските лидери сакаат да ја искористат оваа можност, тие прво мора да бидат свесни за тоа колку е сериозна оваа закана.
Во последниве неколку недели, групата Г7 се согласи на донесување меѓународен кодекс на однесување на процесот Хирошима, кој е наменет за организации што развиваат напредни системи за вештачка интелигенција, а со цел „да се промовира безбедна и сигурна вештачка интелигенција во целиот свет“. Американскиот претседател Џо Бајден исто така донесе и извршна наредба за воведување нови стандарди за вештачка интелигенција во однос на нејзината „безбедност и сигурност“. Обединетото Кралство исто така беше домаќин на првиот глобален самит за безбедност во однос на вештачката интелигенција, со цел да се обезбеди дека оваа технологија се развива на „безбеден и одговорен“ начин.
Сепак, ниту една од овие иницијативи нема соодветен одговор за ризиците што се својствени на користењето на вештачката интелигенција во однос на нуклеарното оружје. Кодексот на однесување на Г7, како и извршната наредба на претседателот Бајден се однесуваат само на потребата од заштита на населението од хемиски, биолошки и нуклеарни закани, кои се предизвикани од вештачката интелигенција. Премиерот на Обединетото Кралство, Риши Сунак, воопшто не ја спомена акутната закана од примената на вештачка интелигенција во однос на нуклеарното оружје, дури и кога изјави, на Самитот за безбедност во однос на вештачката интелигенција, дека е постигнато заедничко разбирање за ризиците што ги носи таа.
Никој не се сомнева во ризиците во однос на самото постоење, а предизвикани од употребата на нуклеарно оружје. Тоа би довело до уништување на човештвото и на планетата воопшто. Дури и нуклеарна војна, која би била само на регионално ниво, директно би убила стотици илјади луѓе, а истовремено би довела и до значителни индиректни страдања и фатални исходи. Климатските промени што би биле резултат на таквите случувања би претставувале закана од глад за милијарди луѓе.
Нуклеарната историја има многу примери во кои можниот нуклеарен судир бил избегнат во последен момент. Честопати, нуклеарното уништување било спречено од човек што решил да му верува на сопственото расудување наместо слепо да ги следи информациите дадени од машините. Во 1983 година, советскиот офицер Станислав Петров добил аларм од сателитскиот систем за рано предупредување: откриени се американски нуклеарни проектили што се упатуваат кон Советскиот Сојуз. Но наместо веднаш да ги предупреди своите претпоставени, што сигурно ќе предизвикало нуклеарна „одмазда“, Петров со право утврдил дека станува збор за лажна тревога.
Дали Петров би поставил на ист начин – дали воопшто би имал можност да го стори тоа – ако во игра беше вештачката интелигенција? Всушност, примената на машинското учење на нуклеарното оружје ќе ја намали контролата од страна на луѓето врз одлуките за негово распоредување.
Се разбира, откако е измислено нуклеарното оружје, сè поголем е бројот на командни, контролни и комуникациски задачи што се автоматизирани. Но како што машинското учење бележи напредок, процесот со кој напредните машини донесуваат одлуки станува сè помалку транспарентен – ова се нарекува „проблем со црната кутија“ на вештачката интелигенција.
Ова нешто го отежнува следењето на тоа како функционира машината, а да не зборуваме за утврдување дали истата таа е компромитирана, дали не функционира или е програмирана на таков начин што може да доведе до незаконски или ненамерни активности. Едноставното водење сметка дека човекот е тој што ќе ја донесе конечната одлука за лансирање на проектилите нема да биде доволно за да се ублажат овие ризици. Како што заклучи психологот Џон Хејли, во една студија од 2017 година, „Луѓето често не успеваат да ги исполнат барањата за следење и интервенција што се наметнати од надзорната контрола“.
Покрај тоа, како што покажа Програмата за наука и глобална безбедност на универзитетот „Принстон“ во 2020 година, процесите на донесување одлуки од страна на лидерите во услови на нуклеарна криза веќе се многу избрзани. Дури и ако вештачката интелигенција се користи само во сензорите и за одредување на целите, а не во донесувањето одлуки за лансирање – тоа ќе го скуси и онака краткиот временски рок за донесување одлука во врска со тоа дали да се нападне. Дополнителниот притисок врз лидерите ќе го зголеми ризикот од правење погрешна пресметка или од тоа да се донесе ирационална одлука.
Употребата на вештачката интелигенција во сателитски и други системи за разузнавање содржи и други ризици: тоа ќе го отежне криењето на нуклеарното оружје, како, на пример, подморниците со балистички проектили, кои, инаку, биле останале скриени. Ова би можело да ги поттикне земјите што имаат нуклеарно оружје да го распоредат целото свое нуклеарно оружје на самите почетоци од конфликтот – уште пред нивните противници да можат да ги имобилизираат нуклеарните системи што се познати.
Ниту една од досегашните иницијативи (од извршната наредба на претседателот Бајден до Кодексот на однесување на Г7) не отиде подалеку од доброволната обврска за да се обезбеди дека луѓето ќе ја задржат контролата врз одлучувањето во однос на нуклеарното оружје.
Но, како што забележа генералниот секретар на Обединетите нации, Антонио Гутереш, постоењето на правнообврзувачки договор со кој се забрануваат „смртоносни автономни системи за оружје“ е од клучно значење.
Иако таквиот договор е неопходен прв чекор, сепак, треба да се направи многу повеќе. Кога станува збор за нуклеарното оружје, обидот да се предвидат, ублажат или регулираат новите ризици, кои се создадени од новите технологии, никогаш нема да бидат доволни. Ние мораме целосно да ги отстраниме овие оружја од равенката.
Ова значи дека сите држави мора да се обврзат да го оневозможат, забрануваат и елиминираат нуклеарното оружје, така што ќе станат страни во Договорот за забрана на нуклеарно оружје, кој нуди јасна патека кон постоење свет во кој нема да има такво оружје. Тоа исто така значи дека државите што имаат нуклеарно оружје мора веднаш да престанат да инвестираат во осовременување и проширување на своите нуклеарни арсенали, вклучувајќи и во име на тоа да ги направат „безбедни“ или „сигурни“ од сајбер-напади. Со оглед на непремостливите ризици што ги носи самото постоење на нуклеарно оружје, таквите напори се фундаментално залудни.
Ние знаеме дека автономните системи можат да го намалат прагот за вклучување во оружен конфликт. Кога се применува на нуклеарно оружје, вештачката интелигенција додава уште еден слој ризик на веќе неприфатливото ниво на опасност. Од клучно значење е креаторите на политиката и јавноста да го препознаат ова и да се застапуваат за тоа не само за да се избегне примената на вештачката интелигенција во однос на нуклеарното оружје туку и целосно да се елиминира таквото оружје.
Мелиса Парк
(Республика.еду.мк)