Иако вештачката интелигенција има несомнени придобивки во современиот живот, сепак, луѓето ја губат својата автономија, индивидуалност, и стануваат подложни на секакви манипулации. Дополнително, сведоци сме на многу злоупотреби на личните податоци во секојдневниот живот. Затоа, неопходни се строги етички правила за примената на вештачката интелигенција
Во поранешни текстови веќе пишував за поимот вештачка интелигенција (ВИ), како и за придобивките од нејзиното користење. Како високоразвиена технолошка алатка, несомнено, овој компјутерски изум има големи предности во однос на достапност на најнови информации, брзи пресметки, помош при медицински интервенции, во технологијата на индустриски процеси итн. Но, останува големо „но“, заради етичките дилеми, кое се несомнени и, како можни злоупотреби од луѓето, кои, ете, сами си ја измислија оваа алатка…
Во последниот напис во „Нејчр“ (25 јуни 2025) една вест го привлече моето внимание и би сакала да ја споделам со нашите читатели. Имено, во ова највисокорангирано научно списание се алармира дека истражувањето на вештачката интелигенција (ВИ) – а особено истражувањето на компјутерскиот вид – стана примарен извор за развој и овозможување на масовниот надзор.
Истражувањето на компјутерскиот вид вклучува развој на алгоритми за извлекување информации од слики и видеа. Имено, презентирани се емпириски податоци на природата и обемот на цевководот на ВИ за надзор, покажувајќи обемни докази за тесната врска помеѓу полето на компјутерскиот вид и надзорот.
Преку анализа на истражувачки трудови за компјутерскиот вид и цитирање патенти, откриено е дека повеќето од овие документи овозможуваат целење на човечки тела и делови од телото. Споредувајќи ги 1990-тите и 2020-тите, забележано е петкратно зголемување на бројот на овие трудови за компјутерскиот вид поврзани со патенти што овозможуваат токму надзор. Ваквата анализа сугерира дека 90 отсто од студиите во оваа област вклучуваат податоци поврзани со луѓето.
Истражувањето на сликите во популарното поле на компјутерскиот вид речиси секогаш вклучува анализа на луѓето и нивната околина, а повеќето од последователните патенти можат да се користат во технологиите за надзор.
Технологиите за човечки надзор напреднаа во последните неколку години токму со брзиот развој на вештачката интелигенција (ВИ) и можностите за снимање. Технологиите можат да ги препознаат луѓето и нивното однесување, на пример, преку препознавање на лицето или начинот на одење или, пак, следење одредени дејства.
Полициските сили и владите велат дека надзорот со ВИ им овозможува подобро да ја заштитат јавноста. Но критичарите велат дека системите се склони кон грешки, непропорционално влијаат кон малцинските популации и можат да се користат дури и за потиснување на протестите.
Така, проценето е дека дури 19.000 труда за компјутерски вид се објавени помеѓу 1990 и 2020 година и се реферирани на водечката Конференција за компјутерски вид и препознавање на обрасци, како и 23.000 патенти што биле цитирани. Притоа, откриено е дека 90 отсто од студиите и 86 отсто од патентите што биле цитирани во тие трудови вклучуваат податоци поврзани со сликање луѓе и нивните простори. Само 1 отсто од трудовите и 1 отсто од патентите биле дизајнирани да извлечат нечовечки податоци.
Етичките прашања што ги прогонуваат истражувањата за препознавање лица стануваат многу битни. И овој тренд се зголемува сѐ повеќе.
Иако многумина претпоставуваат дека постои транзиција од истражување на компјутерскиот вид до вистински надзор, тоа е многу различно од тоа кога се имаат вистински емпириски докази.
Зголемената распространетост на алгоритамскиот надзор влијае на луѓето низ организациите и општеството. Во алгоритамскиот надзор, вештачката интелигенција (ВИ) користи алгоритми за следење и анализа на широк спектар индивидуални однесувања и активности без потреба од човечка дискреција (на пр., вокален тон за откривање на нивоата на стрес, изрази на лицето за идентификување емоционални состојби, писмена и вербална комуникација за разбирање на интеракциите итн.).
Важно е да се напомене дека алгоритамскиот надзор често вклучува компонента за следење, што подразбира собирање и анализа на податоци, и компонента за евалуација, каде што одлуките се донесуваат токму од анализираните податоци.
На пример, алгоритамскиот надзор се користи во образовни услови за откривање и санкционирање измама, на работното место за следење и евалуација на перформансите на работниците и во спроведувањето на законот за идентификување и апсење лица што се вклучени во криминално однесување. Научниците од различни дисциплини го разгледуваат влијанието на надзорот врз луѓето со децении, така што голем дел од оваа работа е спроведен уште пред развојот на алгоритамскиот надзор. И покрај зголемената употреба на алгоритамски надзор наместо прототипни форми на човечки надзор, малку знаеме за тоа како оваа нова форма на надзор влијае на лицата што се следат и евалуираат.
Некои анегдоти сугерираат дека луѓето може негативно да реагираат на алгоритамскиот надзор. На пример, во образовните средини, учениците се чини дека се спротивставуваат на употребата на алгоритамски надзор во споредба со традиционалниот надзор од страна на нивните наставници. Поточно, зголемената употреба на „целосно алгоритамско следење на тестовите“, во кое вештачката интелигенција го следи и толкува однесувањето на учениците за да открие и санкционира мамење е исполнета само со поплаки од учениците.
Еден ученик објасни: „Се чувствувам како да не можам повеќе да полагам тест во мојата природна состојба затоа што тие ги следат сите движења, а она што мислам дека е природно, тие ќе го пријават како измама“. Всушност, отпорот од учениците подложени на целосно алгоритамско следење на тестовите прерасна во целосни тужби и организирани протести. Дали ова е типична реакција на алгоритамскиот надзор?
Од минатите истражувања знаеме дека луѓето многу ја ценат автономијата и дека надзорот може да ја намали перципираната автономија. Клучно е што, бидејќи надзорот ја намалува перципираната автономија, луѓето можеби не секогаш го прифаќаат надзорот; во некои случаи поединците може дури и активно да се спротивстават на надзорот. Доколку алгоритамскиот надзор ја намалува автономијата во поголема мера од човечкиот надзор, луѓето може да го претпочитаат второто.
Во еден труд е испитувано како алгоритамскиот надзор, во споредба со прототипниот човечки надзор, може да ја загрози автономијата на следените лица, што доведува до поголем отпор. Донесувачите на одлуки што размислуваат да го заменат прототипниот човечки надзор со алгоритамски надзор може да се фокусираат на потенцијалните придобивки од оваа промена. Меѓутоа, ако алгоритамскиот надзор ја намалува перципираната автономија, може да има и големи негативни последици ако луѓето не се подготвени да се придржуваат и, наместо тоа, активно се спротивставуваат на неговата употреба.
Кога поединецот е под надзор, процесот на следење и евалуација може да го наведе да верува дека треба да се однесува на специфични начини за да добие награди или да избегне казни (на пр., студентите чувствуваат дека не можат да се движат додека полагаат тест; во спротивно може да бидат казнети за мамење).
Тоа ја намалува нивната перципирана автономија и, последователно, може да ги промени нивните ставови и однесувања. Иако подложувањето на поединците на каков било надзор може да ја намали нивната перципирана автономија, алгоритамскиот надзор може да ја намали перципираната автономија на поединците уште повеќе од прототипниот човечки надзор.
Сепак, под човечки надзор, луѓето можеби нема да почувствуваат толку голема разлика во нивната автономија кога се во евалуативни (наспроти развојни) контексти. Во развојни контексти, поединците ги користат информациите што ги добиваат од надзорот за себе; нема надворешни последици. Меѓутоа, кога луѓето добиваат развојни повратни информации од човек (за разлика од вештачката интелигенција), тоа воведува можност за негативна процена. Бидејќи некој друг ги прегледал нивните перформанси, тоа може да се чувствува како евалуација.
Поединците подложени на човечки надзор во развојни контексти знаат дека дури и ако не се соочуваат со надворешни последици (како што би се соочиле во евалуативен контекст каде што ќе бидат подложени на процена без оглед на изворот на надзор), лицето што ги надгледува сепак може да формира процена. Во прилог на ова, истражувањето откри дека луѓето се чувствувале поавтономно и прифаќале системи за следење на однесувањето кога користат алгоритамско следење и повратни информации, за разлика од алгоритамското следење и човечките повратни информации во повеќе развојни контексти.
Според тоа, кога поединците се подложени на алгоритамски (наспроти човечки) надзор, тие веројатно сметаат дека имаат ограничен избор во тоа како да се однесуваат (инаку, алгоритамот погрешно ќе го протолкува нивното однесување), што ја намалува нивната перципирана автономија, што ги наведува да се спротивставуваат на алгоритамскиот (наспроти човечкиот) надзор во поголема мера.
Според изнесеното, иако вештачката интелигенција има несомнени придобивки во современиот живот, сепак, луѓето ја губат својата автономија, индивидуалност, и стануваат подложни на секакви манипулации. Дополнително, сведоци сме на многу злоупотреби на личните податоци во секојдневниот живот. Затоа, неопходни се строги етички правила за примената на вештачката интелигенција.