Вештачката интелигенција долго време се користи во војувањето за анализа на сателитски снимки, откривање сајбер-закани и за наведување системи за ракетна одбрана. Но употребата на четботови – истата основна технологија што милијарди луѓе ја користат за секојдневни задачи како што е пишување мејл – сега се користи на бојното поле
Истиот модел на вештачка интелигенција што може да ви помогне да напишете мејл или рецепт за брза вечера е користен и за нападот врз Иран. Централната команда на САД ја користеше вештачката интелигенција „Клод“ на „Антропик“ за „разузнавачки процени, идентификација на цели и симулирање сценарија за борба“ за време на нападите врз земјата, според известувањето на „Волстрит џурнал“.
Неколку часа претходно, американскиот претседател Доналд Трамп им нареди на федералните агенции да престанат да го користат „Клод“ по спор со производителот на вештачката интелигенција, но алатката беше толку длабоко вкоренета во системите на Пентагон, што ќе бидат потребни месеци за да се оттргне во корист на нејзин попослушен конкурент. Истата алатка беше користена и во јануарската операција што доведе до приведувањето на венецуелскиот претседател Николас Мадуро.
Но што значат „разузнавачките процени“ и „идентификацијата на цели“ во пракса? Дали „Клод“ означуваше локации за напад или правеше процени за можниот број на жртви? Никој не го открива тоа и, што е алармантно, никој нема обврска да го стори тоа.
Вештачката интелигенција долго време се користи во војувањето за анализа на сателитски снимки, откривање сајбер-закани и за наведување системи за ракетна одбрана. Но употребата на четботови – истата основна технологија што милијарди луѓе ја користат за секојдневни задачи како што е пишување мејл – сега се користи на бојното поле.
Минатиот ноември „Антропик“ соработуваше со „Палантир“, компанија за анализа на податоци, која во голема мера работи за Пентагон, претворајќи го својот голем јазичен модел „Клод“ во алатка за расудување во рамките на систем за поддршка на одлуки за војската.
Потоа, во јануари „Антропик“ поднесе предлог од 100 милиони долари до Пентагон за развој на технологија за гласовна контрола на дронови, како што објави „Блумберг“. Предлогот на компанијата гласеше: „Користете го ’Клод‘ за да ја преведете намерата на одговорниот персонал во дигитални инструкции за координирање флота дронови“. Нејзината понуда беше одбиена, а беше барано многу повеќе од само сумирање на разузнавачките извештаи, како што би очекувале од четбот. Овој договор требаше да развие „свесност и споделување поврзано со целта“ и „лансирање до елиминирање“ за потенцијално смртоносни роеви дронови.
Забележливо е што сето ова се случува во регулаторен вакуум и со технологија за која е познато дека прави грешки. „Халуцинациите“ од големи јазични модели се резултат на нивната обука, кога се наградени затоа што се обидуваат да добијат одговор наместо да признаат несигурност. Некои научници велат дека постојаниот предизвик со вештачка интелигенција можеби никогаш нема да се реши во целост.
Ова не би било првпат несигурни системи со вештачка интелигенција да се користат во војна. „Лавендер“ беше база на податоци управувана од вештачка интелигенција што се користеше за да помогне во идентификувањето воени цели поврзани со Хамас во Газа. Не беше голем јазичен модел, но анализираше огромни количества податоци за надзор, како што се социјалните врски и историјата на локацијата, за да му додели на секој поединец резултат од 1 до 100. Кога резултатот ќе поминеше одреден праг, „Лавендер“ го означуваше како воена цел. Проблемот беше што „Лавендер“ грешеше во 10 отсто од случаите, според истражувачки извештај објавен од израелско-палестинскиот медиум „+972“.
7Околу 3.600 луѓе беа цел по грешка, вели Маријаросарија Тадео, професорка по дигитална етика и одбранбена технологија на Оксфордскиот интернет-институт.
– Постојат толку неверојатни ранливости во овие системи и толку екстремна несигурност… за нешто толку динамично, чувствително и човечко како што е војувањето – вели Елке Шварц, професорка по политичка теорија на Универзитетот „Квин Мери“ во Лондон и авторка на книгата „Машини на смртта: Етиката на насилните технологии“.
Шварц истакнува дека вештачката интелигенција често се користи во војна за да се забрзаат работите, што е рецепт за несакани резултати. Побрзите одлуки се донесуваат во поголем обем и со помалку човечка контрола.
И тајноста е предвидена во начинот на кој работат лабораториите за вештачка интелигенција, дури и пред апликациите за војување. Овие компании одбиваат да откријат за какви податоци се обучени нивните модели или како нивните системи доаѓаат до заклучоци. Секако, воените операции честопати мора да се држат во тајност за да се заштитат борците и да ги залажат непријателите. Но одбраната е строго регулирана со меѓународното хуманитарно право и стандардите за тестирање оружје, кои теоретски треба да се однесуваат и на употребата на вештачка интелигенција. Сепак, таквите стандарди имаат недостатоци или се жално несоодветни. Тадео забележува дека членот 36 од Женевската конвенција бара новите системи за оружје да бидат тестирани пред распоредувањето, но систем на вештачка интелигенција што учи од својата околина станува нов систем секојпат кога се ажурира. Тоа ја прави речиси невозможна примената на правилата.
Во идеален свет, владите како онаа на САД би откриле како овие системи се користат на бојното поле, а постои и преседан. Американците почнаа да користат вооружени дронови по 11 септември и ја проширија нивната употреба под претседателската администрација на Барак Обама, одбивајќи да признаат дека постои таква програма.
Потребни беа речиси 15 години протекување документи, постојан притисок од печатот и тужби од Американската унија за граѓански слободи, за Белата куќа на Обама конечно да ги објави во 2016 година бројките на жртви од нападите со дронови. Тие беа широко сметани за потценети, но им дозволија на јавноста, Конгресот и медиумите да ја повикаат владата на одговорност за првпат.
Работата на вештачката интелигенција ќе биде уште потешка, што бара уште поголем јавен и законодавен притисок за да се принуди непослушната администрација на Трамп да создаде слична рамка за известување. Целта не би била да се открие точно како „Клод“ бил користен во нешто како операцијата „Епски бес“, туку да се објават широките контури, според Шварц. И, особено, да се открие кога нешто ќе тргне наопаку.
Актуелната јавна дебата за антропско-пентагонската расправија – за тоа што е легално и етичко за вештачката интелигенција кога станува збор за масовно надгледување на Американците или создавање целосно автономно оружје – го изостава поважното прашање за недостигот од видливост за тоа како технологијата веќе се користи во војна. Со вакви нови и нетестирани системи склони кон правење грешки, ова е итно потребно.
– Како општество, не сме одлучиле дали е во ред машина да одлучува дали човечко суштество треба да биде убиено или не – вели Тадео.
Притисокот за овозможување таква транспарентност е клучен пред вештачката интелигенција во војувањето да стане толку рутинска што никој повеќе нема да помисли да ја доведе во прашање. Во спротивно, може да се најдеме себеси како чекаме катастрофална грешка и наметнуваме транспарентност дури откако ќе биде направена штетата.
































