Иако е тренирана да размислува како човек, ВИ не може да ги имитира човечкиот хуманоиден импулс и импулсивната реакција во ризични ситуации, ниту да ги предвиди. Сѐ додека ВИ се креира за да му помага на човештвото и нејзината регулација е на високо ниво, мали се шансите таа да се оттргне од контрола
Ја имаме таа среќа да живееме во ерата на развојот и ширењето на вештачката интелигенција (ВИ). Со сите предности што таа ги носи, не можеме да ги игнорираме и предупредувањата што претходно ги гледавме само во филмовите, а сега веќе и отворено се слушаат, дека колку е корисна ВИ, толку може да биде и проблематична.
Појавувањето на ЧетГПТ (ChatGPT) во 2022 година силно покажа до каде е стигнат развојот на вештачката интелигенција и кои се предностите, но и кои злоупотреби можат да настанат.
Иако самиот бот веднаш и прецизно одговараше на дадените прашања, без разлика колку беа глупави или неправилно напишани, сепак, покажа дека има големи недостатоци како мешање на веќе креираната меморија со бараниот одговор и имплементираната самоцензура што се однесува на прашања за експлицитна содржина, насилство и незаконски активности.
Сепак, овој производ на ИТ-индустријата покажа дека човештвото има потреба од помош во речиси сите сфери на работата. Една од сферите што силно влијае на секој сегмент од општеството е политиката и употребата на вештачката интелигенција во политичките одлуки, во политичките истражувања, дури и во креирањето јавни политики, што е поле што активно се разработува, но и поле што може да придонесе кон донесување пoгрешни одлуки, кои ќе влијаат врз животите на луѓето.
Една од неколкуте сфери од политиката каде што се користи вештачката интелигенција се истражувањата на јавното мислење (анкетите) пред избори. Машините веќе од 2018 одговараат на прашањата на анкетарите задолжени за собирање податоци за мислењата на граѓаните пред избори и за понудените кандидати. Падот на учеството на граѓаните во ваков вид анкети го замени масовната употреба на вештачката интелигенција нахранета со милијарди податоци, разработени сценарија на одговор и програмирана имитација на гласач врз основа на пол, раса, образование, локација, професија и така натаму.
Големите модели на учење (Large language models LLM) овозможуваат хранење на ботовите со податоци собрани од интернет, заедно со сите бази на податоци до кои креаторите имале пристап и креирање разни сценарија на одговор. Сето тоа е со цел машината да се приближи поблиску до реалниот човечки одговор и имитацијата да стане пореална, дури и непрепознатлива: дали е машина или човек. Софистицираните алгоритми можат да го предвидат однесувањето на гласачите со висока прецизност, да креираат кампањи, да опфатат одредени групи гласачи, дури и да го предвидат резултатот на изборите. Исто така, вештачката интелигенција служи и како монитор на сајтовите во време на предизборни кампањи, со цел да се спречат измами и кршење на законите.
Од друга страна, колку овие модели се поблиску до човекот во имитација, поголема е опасноста од субјективност во одговорите затоа што датотеките што ги содржат и ги користат ботовите се создадени од луѓе.
Јавни политики и политички одлуки
Вештачката интелигенција веќе се користи во парламентите во Естонија (за стенографија), Италија (превод на документи), Бразил (транскрипција на аудио и видеофајлови), Финска (сумирање документи и поткасти). ВИ се користи за транскрипција на говорите, превод, сумирање на документите, поддршка за подготовка на легислатива и комуникација со граѓаните. Во обемната работа на парламентите, ВИ е повеќе од добредојдена, но експертите предупредуваат на опасностите поради подложноста на овој систем на грешки.
Фондацијата за демократија „Вестминстер“ издаде упатство за употреба на ВИ во парламентите, со насоки и препораки каде најмногу да се внимава во имплементацијата и користењето на оваа алатка.
Насоките и препораките предупредуваат дека треба да се обезбеди транспарентност во носењето на одлуките кога се користи ВИ, да се обезбеди патека по која се следат овие операции и одлуките да бидат поткрепени со оправданост зошто се токму тие одлуки донесени. Потребно е да се обезбеди автономија во донесувањето одлуки во кои се користи ВИ за да се исклучи можноста овој систем да биде манипулиран за одредени интереси. Исто така, потребна е и етика во самата работа на ВИ за да се исклучи субјективност.
Од друга страна, потребна е контрола врз работата на ВИ за да нема прекршување на човековите права во донесувањето на одлуките, како и создавање доверба на јавноста во парламентите што користат ВИ во својата работа. За дополнително да се зајакне користењето на ВИ во парламентот, потребна е имплементација на легислатива за контрола на употребата на оваа алатка.
Сепак, за подобро да се разберат степенот на развиеност на ВИ и нејзината употреба во парламентите и носењето одлуки на државно ниво, треба да се знае дека сѐ повеќе се користи таканаречената генерална вештачка интелигенција (AGI Artificial general intelligence). Тоа е вид вештачка интелигенција што разбира, учи и го применува знаењето на начин што е сличен на човековата интелигенција. Поседува широк спектар на когнитивни способности, кои дозволуваат да извршува различни задачи и да се приспособува на различни ситуации без да биде посебно програмирана за дадените ситуации.
Оваа интелигенција инклинира кон имитирање на флексибилноста на човековиот ум, ги има способностите за решавање проблеми и потенцијално води кон создавање машини што можат да решаваат различни проблеми исто како луѓето.
Употребата на ВИ во носењето политички одлуки има свои предности и опасности. Машината може ефикасно да процесира големо количество податоци за кратко време, може да препознае движења и шеми на однесување во општеството што не се видливи за човечките аналитичари и со тоа да произведе информација што е корисна за креирањето на политиките и може да ја подобри комуникацијата помеѓу политичарите и граѓаните со персонализирани информации и препораки.
Опасностите се: системите на ВИ, ако се тренирани врз лични податоци, можат да водат кон субјективни и дискриминирачки одлуки, можат да бидат хакирани, манипулирани и можат да бидат некомпетентни ако до нив имаат пристап само одредени групи, наместо сите граѓани.
Дополнително, ВИ може ефикасно да се користи во политиката за предвидување резултати од јавни политики, генерирајќи сценарија како една јавна политика или политичка одлука може да влијае на општествено, дури и на глобално ниво. Употребата на ВИ во методологиите на предвидување (foresight methodologies) не само што квалитетно ќе придонесе во носењето политики во интерес на граѓаните туку веќе се користи во разни други области на истражувања.
Регулација на ВИ
На ниво на Европската Унија, употребата на ВИ е регулирана со актот за ВИ усвоен од ЕУ-парламентот, во март 2024 година, а подоцна и од Европскиот совет, во мај 2024 година. Целосно влегување во сила на овој акт се очекува за две години. Стандардите за ВИ што ги наметнува овој акт се: ВИ да биде транспарентна, безбедна, нејзината работа да биде подложна на целосна контрола, да биде недискриминаторска и фокусот на работата на овој систем да биде за добро на човештвото.
Другите услови што овој документ ги наметнува се ВИ да нема програми за манипулација на когнитивното однесување, особено кај чувствителните групи како децата, да не ги класифицира луѓето по категории базирани на однесувањето, социоекономскиот статус или личните карактеристики, да не користи биометриска идентификација на луѓето и со тоа да ги става во разни категории, да не користи биометриска идентификација на луѓето во реално време како препознавање лица…
Последниот услов за идентификација на луѓето во реално време е подложен на исклучоци, ако во прашање е безбедносен ризик. ВИ-системите што се класифицирани како системи од висок ризик, а се употребуваат во менаџирање на критични инфраструктури, образование и професионална едукација, вработување, менаџирање на вработените и пристап до самовработување, примена на закони, миграција, азил, контрола на границите, интерпретација на закони, мора да бидат регистрирани во ЕУ.
Стандардите за транспарентност на ВИ содржат барања за откривање на содржината што е генерирана од ВИ, дизајнирање модел што ќе превенира создавање незаконска содржина и објавување на податоците што се употребени за тренирање на ВИ.
Иднината не може да се замисли без вештачката интелигенција бидејќи веќе ја креираме иднината користејќи ја оваа алатка. Стравот од губење контрола врз ВИ е реален, но не е ситуација што со сигурност ќе се случи во иднината. Не смее да се заборави дека ВИ е креација на човекот, човекот ја „храни“ со податоци, ја тренира, програмира и ја контролира. Иако е тренирана да размислува како човек, ВИ не може да ги имитира човечкиот хуманоиден импулс и импулсивната реакција во ризични ситуации, ниту да ги предвиди. Сѐ додека ВИ се креира за да му помага на човештвото и нејзината регулација е на високо ниво, мали се шансите таа да се оттргне од контрола и во скоро време да се оствари сценариото од филмовите „Терминатор“.
Глобално распространетата и усогласена регулатива за креација и контрола на ВИ ќе создаде посигурна иднина и употреба на ВИ исклучиво во корист на човештвото.
Соња Стојадиновиќ
Авторката е дипломиран политиколог