Вештачката интелигенција треба да добие човечки вредности

Влоговите се преголеми за да им се препушти текот на развојот на вештачката интелигенција само на истражувачите, а камоли на извршните директори на технолошките фирми. Иако строгата регулатива не е решение, актуелниот регулаторен вакуум мора да се пополни, а тој процес бара широка глобална вклученост

Можеби ова е годината кога вештачката интелигенција ќе го трансформира секојдневниот живот. Така рече Бред Смит, претседател на „Мајкрософт“, на настан организиран неодамна од Ватикан за вештачка интелигенција. Но изјавата на Смит помалку беше предвидување отколку повик за акција. Нема сомнение дека вештачката интелигенција претставува застрашувачка низа на оперативни, етички и регулаторни предизвици и да им се обратиме ќе биде далеку од едноставно. Иако развојот на вештачката интелигенција датира од 1950-тите, контурите на технологијата и веројатното влијание остануваат нејасни.
Се разбира, неодамнешните откритија, од речиси застрашувачкиот текст слично напишан како од човек, од страна на „ЧетГПТ“ на „Опен АИ“, до апликациите што можат да го скратат процесот на откривање лекови, фрлаат светлина врз некои димензии за огромниот потенцијал на вештачката интелигенција. Но останува невозможно да се предвидат сите начини на кои вештачката интелигенција ќе ги преобликува човечките животи и цивилизацијата.
Оваа неизвесност не е ништо ново. Дури и откако ќе го препознаеме трансформативниот потенцијал на технологијата, обликот на трансформацијата има тенденција да нè изненади. Социјалните медиуми, на пример, првично беа промовирани како иновација што ќе ја зајакне демократијата, но направија многу повеќе за да ја дестабилизираат преку олеснување на ширењето дезинформации. Може сигурно да се претпостави дека вештачката интелигенција ќе биде искористена на слични начини.
Ние дури и не разбираме целосно како функционира вештачката интелигенција. За да сфатиме, можеме да го земеме примерот со таканаречениот проблем на црната кутија: со повеќето алатки засновани на вештачка интелигенција, знаеме што влегува и што излегува, но не и што се случува помеѓу нив. Ако вештачката интелигенција носи (понекогаш неотповикливи) одлуки, оваа нетранспарентност претставува сериозен ризик, што се дополнува со прашања како што е преносот на имплицитна пристрасност преку машинско учење. Злоупотребата на личните податоци и уништувањето на работните места се два дополнителни ризици. Според поранешниот државен секретар на САД, Хенри Кисинџер, вештачката интелигенција може да ги поткопа човечката креативност и визија со тоа што информациите ќе ја „преплават“ разумноста. Некои исто така се загрижени дека вештачката интелигенција ќе доведе до исчезнување на луѓето. Со толку високи влогови, иднината на технологијата не може да им се остави на истражувачите на вештачката интелигенција, а камоли на технолошките извршни директори. Иако строгата регулатива не е решение, сегашниот регулаторен вакуум мора да се пополни.

Трката за доминација на вештачката интелигенција веќе е клучна карактеристика на ривалството меѓу САД и Кина. Ако која било земја наметне ограничувања на својата индустрија за вештачка интелигенција, ризикува да ѝ дозволи на другата да напредува. Затоа, како и кај намалувањето на емисиите, од клучно значење е кооперативниот пристап. Владите, заедно со другите релевантни јавни актери, мора да работат заедно за да дизајнираат и воведат ограничување за иновациите во приватниот сектор. Се разбира, тоа е полесно да се каже отколку да се направи. Напорите да се осмисли заеднички пристап во рамките на меѓународните форуми беа спречени од борбите за моќ меѓу главните играчи и недостигот од овластување за спроведување.
Но има некои ветувачки вести. Европската Унија (ЕУ) работи на создавање амбициозен инструмент заснован на принципи за воспоставување хармонизирани правила за вештачка интелигенција. Законот за вештачка интелигенција, кој се очекува да биде финализиран оваа година, има цел да ги олесни „развојот и прифаќањето“ на вештачката интелигенција во ЕУ, истовремено обезбедувајќи дека технологијата „е во корист на луѓето и општеството“. Од адаптирање на правилата за граѓанска одговорност до ревидирање на рамката за безбедност на производите на ЕУ, законот го зема оној вид на сеопфатен пристап кон регулативата за вештачка интелигенција што ни недостигаше. Не треба да чуди што ЕУ се појави како предводник во регулативата за вештачка интелигенција. Блокот има историја на лидерство во развојот на регулаторни рамки во критичните области.

Но напредокот во глобалната регулација на вештачката интелигенција ќе биде невозможен без САД. И покрај нивната заедничка посветеност со ЕУ за развој и имплементација на „доверлива вештачка интелигенција“, САД се посветени во добивање надмоќ пред сè во сферата на вештачката интелигенција. За таа цел, тие се стремат не само да ги зајакнат сопствените водечки индустрии, вклучувајќи и со одржување на бирократијата на минимум, туку и да го попречат напредокот на Кина. Од своја страна, Кина веројатно нема да биде одвратена од нејзината потрага да постигне технолошка самодоволност и, на крајот, надмоќ. Надвор од отворањето на патот за појава на ризици генерирани од вештачката интелигенција, ова технолошко ривалство има очигледни геополитички импликации.
Беа потребни повеќе од три децении за свеста за климатските промени да се преточи во вистинска акција, а ние сè уште не правиме доволно. Со оглед на темпото на технолошките иновации, не можеме да си дозволиме да следиме сличен пат на вештачката интелигенција. Освен ако не дејствуваме сега за да се погрижиме дека развојот на технологијата е воден од принципи насочени кон човекот, речиси сигурно ќе зажалиме. И, како и со климатските промени, ние најверојатно ќе жалиме за нашата неактивност многу порано отколку што мислиме.

Авторка: Ана Паласио е поранешна шпанска министерка за надворешни работи, а актуелно е вонредна професорка на универзитетот „Џорџтаун“