Агенцијата за безбедност и контраразузнавање (ДЦСА) е одговорна за обработка и одобрување на 95 отсто од безбедносните дозволи за федералните работници. Тоа значи дека агенцијата треба да спроведе милиони истраги секоја година. Ова ѝ дава на агенцијата пристап до голем број приватни податоци. Минатата година, ДЦСА воведе алатки за вештачка интелигенција за организирање и толкување на тие информации
Вештачка интелигенција (ВИ) за проверката на вработените во Министерството за одбрана на САД
Агенцијата за безбедност и контраразузнавање (ДЦСА), која издава безбедносни сертификати за милиони американски работници, користи вештачка интелигенција за да ја забрза својата работа. Сепак, „црните кутии“ не се дозволени, смета директорот на агенцијата.
Пред да дозволи некој од неговите 13.000 вработени во Пентагон да пребарува информации за одреден американски државјанин, директорот на ДЦСА, Дејвид Катлер, ги замолува да го постават прашањето: „Дали мајка ми знае дека владата може да го направи тоа?“
„Мама-тестот“, како што го нарекува Катлер, е логична проверка за тоа како ДЦСА ја врши својата работа. Оваа практика го одразува и начинот на кој Катлер размислува за примена на вештачка интелигенција во агенцијата.
ДЦСА е одговорна за обработка и одобрување на 95 отсто од безбедносните дозволи за федералните работници. Тоа значи дека агенцијата треба да спроведе милиони истраги секоја година. Ова ѝ дава на агенцијата пристап до голем број приватни податоци. Минатата година, ДЦСА воведе алатки за вештачка интелигенција за организирање и толкување на тие информации.
Мапа на ризик во реално време
Овие алатки не вклучуваат ЧетГПТ, Бард, Колд или други напредни генеративни модели на вештачка интелигенција. Наместо тоа, тие „копаат“ и организираат податоци слично како што тоа со години го прават технолошките компании од Силициумската Долина. Се користат системи што најтранспарентно покажуваат што направиле, во однос на кој било јазичен модел. Катлер наведува дека најветувачкиот начин за примена на овие алатки во агенцијата е одредувањето приоритет меѓу постојните закани.
Доколку не се користат внимателно, овие алатки може да ја загрозат безбедноста на податоците и да воведат пристрасност во владините системи. Сепак, Катлер верува дека одредени „помалку атрактивни“ карактеристики на вештачката интелигенција можат значително да ја подобрат работата на агенцијата. Под услов алатките да не се „црни кутии“.
– Треба да разбереме зошто алатката е веродостојна и како функционира. Мораме да докажеме дека алатките што ги користиме го прават она што тие тврдат дека го прават, на објективен, конзистентен и конзистентен начин – изјави Катлер за „Форбс“.
Многумина можеби дури и не ги сметаат алатките што Катлер ги опишува како технологија за вештачка интелигенција. На пример, тој е ентузијаст за идејата да се создаде „мапа на ризик“ на објекти обезбедени од ДЦСА, каде што ризиците ќе бидат прикажани во реално време. Информациите за потенцијалните закани собрани од владините агенции ќе се користат за редовно ажурирање. Таквата алатка, вели тој, би ѝ помогнала на ДЦСА „да определи каде да го постави (метафоричното) противпожарно возило“. Таа не би откривала нови информации, туку би ги претставила постојните информации на покорисен начин.
Повик на претпазливост
Метју Шерер, виш советник за политика во Центарот за демократија и технологија, вели за „Форбс“ дека вештачката интелигенција може да биде корисна за организирање информации што веќе се собрани и потврдени. Сепак, следниот чекор – донесувањето клучни одлуки, како што е истакнувањето „црвени знамиња“ за време на процесот на проверка или собирање податоци од социјалните мрежи – може да биде опасен. На пример, системите за вештачка интелигенција често се борат да разликуваат луѓе со исто име, што може да доведе до грешки во идентификацијата.
– Би било загрижувачки ако системот за вештачка интелигенција даде препораки или фаворизира одредени кандидати. Потоа влегуваме во доменот на автоматско одлучување – рече Шерер.
Катлер вели дека одделот избегнува да користи вештачка интелигенција за да идентификува нови ризици. Сепак, дури и со приоретизирање, може да се појават проблеми поврзани со приватноста и пристрасноста. Кога склучува договор со компании за вештачка интелигенција (Катлер не именува ниту еден партнер), ДЦСА мора внимателно да размисли кои приватни податоци ги внесува во нивните алгоритми и како тие алгоритми понатаму ќе ги користат тие податоци откако ќе ги добијат.
Протекување на податоците
Компаниите што нудат производи со вештачка интелигенција за пошироката јавност имале случаи на „протекување“ на приватните податоци што корисниците им ги довериле. Тоа е губење на довербата што би било катастрофално доколку се случи со податоците што ги поседува Пентагон.
Вештачката интелигенција, исто така, може да воведе пристрасност во системите на Министерството за одбрана. Алгоритмите ги рефлектираат слепите точки на нивните креатори и податоците за кои се обучени. ДСЦА се потпира на надзор од страна на Белата куќа, Конгресот и другите административни тела за заштита од пристрасност во своите системи. Извештајот на корпорацијата РАНД од 2022 година предупреди дека вештачката интелигенција може да воведе пристрасност во процесот на проверки на безбедносните овластувања. Потенцијална причина за ова можат да бидат пристрасноста на програмерите или историските расни разлики.
Катлер признава дека општествените вредности што ги обликуваат алгоритмите, вклучувајќи ги и оние во Пентагон, се менуваат со текот на времето. Денес, вели тој, одделот е помалку толерантен кон екстремистичките ставови отколку порано. Но донекаде е потолерантно кон луѓето што биле зависни од алкохол или дрога и сега се во процес на рехабилитација.
– До неодамна, во многу делови на САД беше нелегално да се биде хомосексуалец. Тоа беше пристрасност што системот можеби ќе треба сам да го надмине – вели Катлер.