Вештачката интелигенција и земјите во развој

Последниве месеци можеби ќе се запишат во историјата како моментот кога предиктивната вештачка интелигенција започна масовно да се користи. Предвидувачки алгоритми се користат веќе со децении, но објавувањето апликации како што е ЧатГПТ3 на ОпенАИ – и неговата брза интеграција со пребарувачот Бинг на „Мајкрософт“, на некој начин беа почеток на поплавата од вештачка интелигенција што е лесна за користење

За неколку недели од објавувањето на ЧатГПТ3, тој веќе доби 100 милиони месечни корисници, од кои многумина несомнено веќе ја искусиле неговата мрачна страна – од навреди и закани до дезинформации и покажана способност за пишување злонамерни кодови.
Чет-ботовите што станаа главната тема на разговор се само врвот на сантата. Вештачката интелигенција што создава текст, говор, уметност и видеа напредува брзо, со далекосежни последици за властите, трговијата и граѓанскиот живот. Не е ни чудно што во овој сектор има сериозен наплив на капитал, односно и владите и компаниите инвестираат во стартапи за развој и примена на најновите алатки за машинско учење. Овие нови апликации ќе комбинираат историски податоци со машинско учење, обработка на природен јазик и длабоко учење за да ја одредат веројатноста за идни настани.
Од клучно значење е што усвојувањето на новата обработка на природниот јазик и генеративната вештачка интелигенција нема да биде ограничена само на богатите земји и компании како „Гугл“, „Мета“ и „Мајкрософт“, кои го предводеа нивното создавање. Овие технологии веќе се шират низ средини со низок и среден приход, каде што предиктивната аналитика за сè, од намалување на урбаната нееднаквост до справување со безбедноста на храната, изгледа многу надежно за сиромашните влади, фирми и невладини организации, кои сакаат да ја подобрат ефикасноста и да добијат социјални и економски придобивки.
Меѓутоа, проблемот е во тоа што не се посвети доволно внимание на потенцијалните негативни екстерни аспекти и несакани последици од овие технологии. Најочигледниот ризик е дека алатките за предвидување, кои се моќни како никогаш досега, ќе ги зајакнат капацитетите за следење и надзор на авторитарните режими.
Еден често споменуван пример е кинескиот „социјален кредитен систем“, во кој се користат информации за задолженост, кривични пресуди, однесувањето онлајн и други податоци, со помош на кои се дава оцена за секој човек во земјата. Тие резултати потоа можат да одредат дали некој може да земе кредит, да учи во добро училиште, да патува со железница или авион итн. Иако системот на Кина се смета за алатка за подобрување на транспарентноста, неговата паралелна улога е инструмент за општествена контрола.

Сепак, дури и кога навидум добронамерни демократски влади, компании фокусирани на општествено влијание и прогресивни непрофитни организации ги користат алатките за предвидување, резултатите што можат да се добијат не секогаш се оптимални. Грешките во дизајнот на основните алгоритми и необјективните сетови на податоци може да доведат до нарушување на приватноста и дискриминација врз основа на идентитет.
Ова веќе стана очигледен проблем во кривичноправниот систем, каде што предвидувачките аналитички алатки редовно ги актуализираат и одржуваат расните и социоекономските разлики. На пример, еден систем базиран на вештачка интелигенција, направен за да им помогне на американските судии да ја проценат веројатноста за рецидивизам, погрешно утврдил дека Афроамериканците што се обвинети се изложени на многу поголем ризик повторно да сторат кривично дело или прекршок отколку белците.
Расте и загриженоста за тоа како вештачката интелигенција би можела да ги продлабочи нееднаквостите на работното место. Досега, алгоритмите за предвидување ги зголемуваа ефикасноста и профитот на начини што им користат на управителите и акционерите на сметка на обичните работници (особено на пазари на трудот каде што договорите на дело и хонорарните ангажмани се почести од договори за вработување на неопределено време).
Во сите овие примери, системите за вештачка интелигенција се како искривено огледало на општеството, што ги одразува и ги зголемува нашите предрасуди и нееднаквости. Како што технолошкиот истражувач Нанџира Самбули забележа, дигитализацијата има тенденција да ги влошува наместо да ги подобрува веќе постојните политички, социјални и економски проблеми.
Ентузијазмот за користење на алатките за предвидување мора да има и контратежа во информираното и етичкото разгледување на нивните намерни и ненамерни ефекти. Онаму каде што ефектите од моќните алгоритми се спорни или непознати, според начелото на претпазливост, тие не би требало да се применуваат.
Не смееме да дозволиме вештачката интелигенција да стане уште една област каде што оние што се на одлучувачки позиции ќе бараат прошка наместо дозвола. Затоа високиот комесар за човекови права на Обединетите нации и други повикаа на мораториуми за усвојувањето системи за вештачка интелигенција, сè додека не се ажурираат етичките рамки и рамките за човековите права така што ќе се земе предвид потенцијалната штета од нив.

За да се создадат соодветни рамки, ќе биде потребен консензус за основните принципи што треба да бидат земени предвид при дизајнирањето и употребата на алатките за предиктивна вештачка интелигенција. За среќа, трката за вештачка интелигенција доведе до паралелен бран на истражување, иницијативи, институти и мрежи за етика. И додека граѓанското општество го презеде водството, се вклучија и меѓувладините субјекти како што се ОЕЦД И УНЕСКО.
ООН работи на градење универзални стандарди за етичка вештачка интелигенција уште од 2021 година, ако не и порано. Покрај тоа, Европската Унија предложи закон за вештачка интелигенција – прв таков напор на голем регулатор – со кој ќе се спречат одредени намени (како оние што наликуваат на социјалниот кредитен систем на Кина), а покрај ова и други високоризични апликации ќе подлежат на посебни барања и надзор.
До денес, оваа дебата во најголема мера беше концентрирана во Северна Америка и Западна Европа. Меѓутоа, земјите со пониски и средни приходи имаат свои основни потреби, грижи и социјални нееднаквости што треба да ги решат. Има многу истражувања што покажуваат дека технологиите развиени од и за пазарите во напредните економии се често несоодветни за помалку развиените економии.
Ако новите алатки за вештачка интелигенција едноставно се увезат и се стават во широка примена пред да се воспостават потребните структури за управување, тие лесно би можеле да направат повеќе штета отколку корист. Сите овие прашања мора да се разгледаат ако сакаме да осмислиме навистина универзални принципи за управување со вештачката интелигенција.
Препознавајќи ги овие празнини, институтот „Игарапе“ и „Нова Америка“ неодамна формираа нова Глобална работна група за предвидувачки аналитички алатки за безбедност и развој.

Во работната група ќе има застапници за дигиталните права, партнери од јавниот сектор, технолошки претприемачи и социјални научници од Америка, Африка, Азија и од Европа, со цел да се дефинираат првите принципи за употреба на предвидувачки технологии во јавната безбедност и одржливиот развој на земјите од третиот свет.
Формулирањето на овие принципи и стандарди е само првиот чекор. Поголем предизвик ќе биде организирањето на меѓународната, националната и внатре-националната соработка и координација потребни за нивно спроведување во законот и практиката. Во глобалното брзање да се развијат и применат нови алатки за предвидување на вештачката интелигенција, рамките за спречување штети се од суштинско значење за да се обезбеди сигурна, просперитетна, одржлива иднина што е насочена кон човекот.

(Республика.еду.мк)