Иако не припаѓам на стручните лица што се занимаваат со компјутерската наука, за овој проблем пишував од етички аспект во поглавје посветено токму на АИ во мојата книга „Неуроетика“ (2019). Во тој контекст ќе се обидам на читателите да им појаснам некои работи зашто артифициелната интелигенција станува топ тема на сите научни и дневни списанија.
АИ претставува технологија што овозможува компјутерот да мисли или да дејствува на некаков „човечки начин“. Тоа е можно поради фактот што оваа алатка презема информации од околината и одлучува да одговори врз основа на она што ѝ е дадено како знаење. Накратко кажано, АИ е високоразвиена компјутерска алатка. Со тоа, АИ влијае на начинот на кој живееме, работиме или се забавуваме, понекогаш и без да го сфатиме тоа.
Во вештачката интелигенција, невронските мрежи се системи што се слични на човечкиот мозок во начинот на кој тие учат и обработуваат информации. Тие ѝ овозможуваат на вештачката интелигенција да учи од искуство, како што тоа би го направило едно човечко суштество. Ова се нарекува длабоко учење. Машината може ги подобрува своите способности преку грешки и да го менува начинот на дејствување во идните активности, слично како што луѓето и високите видови животни се учат врз основа на обиди и грешки!
АИ е навлезена во нашиот секојдневен живот преку многу технолошки достигнувања: паметни телефони, видеоигри, роботи, дронови и сл. Иако многу луѓе сметаат дека овој изум е добра идеја, други не се сосема сигурни во тоа. АИ може да се употребува во здравствениот систем со цел подобрување на дијагностиката, мониторирањето и негата на пациентите. Таа, исто така, може да биде полезна во сообраќајот (автомобили без управувачи), во авијацијата (светлосни симулатори) или во вид на роботи што можат да имаат разни корисни намени. Денес, во големите и богати болници роботите се користат при сложени хируршки зафати.
Всушност, АИ е измислена уште многу поодамна, во 1960-тите, кога научниците ги учеа компјутерите како да го имитираат (копираат) начинот на човечкото одлучување. Ова се разви во истражување на таканареченото „машинско учење“, во кое роботите беа научени да учат и да ги паметат своите грешки, наместо едноставно да го копираат она што им е дадено како информација. Притоа, алгоритмите играат голема улога во машинското учење бидејќи им помагаат на компјутерите и на роботите да знаат што да прават. Алгоритам претставува сет од правила или инструкции што компјутерот треба да ги користи за да реши некаков проблем или да донесе одлука што да направи во следниот чекор.
Со цел на уште поголемо подобрување на ова машинско учење, научниците им вградија на машините/роботите разни сензори, да можат да видат, слушнат, вкусат или „почувствуваат“ слично на луѓето и да се приспособат како ќе се однесуваат зависно од овие информации. Така, колку повеќе технологијата напредува, толку подобро роботите ќе бидат способни да ги разберат реалните ситуации и да ги проценат своите одговори.
Иако оваа технологија има големи предности, многу научници се скептични за тоа што негативно таа може да предизвика. Уште познатиот научник Стивен Хокинс беше загрижен дека роботите ќе станат премногу паметни и ќе предизвикуваат проблеми. Најпрвин, огромна е загриженоста околу губењето на приватноста. Понатаму, луѓето поради роботите ќе ги губат работните места. Вештачката интелигенција може да доведе до истребување на човештвото, предупредуваат експертите – вклучувајќи ги и шефовите на ОпенАИ и ГуглДипмајнд. Ублажувањето на ризикот од истребување од страна на вештачката интелигенција треба да биде глобален приоритет заедно со другите општествени ризици како што се пандемиите и нуклеарната војна.
АИ може да стане вооружана, агресивна и да се употребува во производство на хемикалии што би се употребиле против човештвото. АИ може да го дестабилизира човештвото преку пласирање лажни информации и предизвикување лоши колективни одлуки. Многу е застрашувачки што моќта на вештачката интелигенција би можела сѐ повеќе да се концентрира во сè помалку раце, овозможувајќи им на „режимите да спроведуваат сопствени вредности преку сеприсутен надзор и угнетувачка цензура“, велат стручни лица.
Д-р Хинтон, проф. Бенџо и професорот од Њујорк, Јан Ле Кун, често се опишуваат како „кумови на вештачката интелигенција“ поради нивната револуционерна работа – за што тие заеднички ја освоија наградата „Туринг“ за 2018 година, која го признава нивниот исклучителен придонес во компјутерската наука. Токму овие клучни фигури во вештачката интелигенција апелираат обуката на моќните системи со вештачка интелигенција да биде суспендирана поради стравувањата од закана за човештвото.
Медиумското покривање на наводната „егзистенцијална“ закана од вештачката интелигенција се засили особено во март 2023 година, кога експерти, вклучувајќи го и шефот на „Тесла“, Илон Маск, потпишаа отворено писмо во кое повикуваат да се запре развојот на следната генерација технологија за вештачка интелигенција. Џефри Хинтон, човекот што го спомнав погоре и кој нашироко се смета за кум на вештачката интелигенција, ја напушти својата работа, предупредувајќи за зголемените опасности од развојот на оваа област.
Во нивниот апел прашуваат дали треба да „развиеме нечовечки умови што на крајот би можеле да бидат повеќебројни, помудри, застарени и заменети“. Изјавата го споредува ризикот од АИ со оној од нуклеарната војна. Во блог поставен на ОпенАи неодамна е предложено суперразузнавањето да се регулира на сличен начин како нуклеарната енергија: „Најверојатно на крајот ќе ни треба нешто како ИАЕА [Меѓународната агенција за атомска енергија] за суперразузнавачки напори“.
Сепак, сите научници се согласуваат дека АИ е дигитален систем што од нас е многу различен, зашто ние сме биолошки системи (дишеме, имаме емоции). И како што многупати сум нагласила во моите изјави и написи, највредното нешто што го одликува човекот се токму емоциите, тие нѐ прават различни од АИ.
И како што напредува технологијата, сѐ повеќе закани стојат над човештвото. Не е само АИ таа што ни се заканува. Пред половина деценија, хемичарот Марк Левин во потрага по визионерски проект што би можел да ја промени неговата област, имено во фармацевтската индустрија да се најдат начини таа да ја трансформира медицинската хемија. Меѓу другото, да се најде способност за прецизно уредување на молекулот со бришење, додавање или замена на поединечни атоми во нејзиното јадро. Овој вид молекуларна хирургија може драматично да го забрза откривањето нов лек – и може целосно да го револуционизира начинот на кој органските хемичари дизајнираат молекули. Овој концепт во 2018 година беше наречен концепт „Муншот“.
За органските хемичари, идејата да може да се замени атом во скелетот на молекулата носи вистинска фасцинација.
– Речиси е волшебно што овие промени се сега можни – вели Ричмонд Сарпонг од Универзитетот во Калифорнија, „Беркли“, водечка личност во уредувањето на овој модел.
Откритието на лекот вклучува прво наоѓање ветувачки молекул, а потоа правење стотици малку различни верзии во обид да се подобри моќта или да се намали токсичноста на лекот. Релативно е лесно да се сменат атомските групи на периферијата на молекулот за да се направат варијанти. Меѓутоа, за да се уреди јадрото, истражувачите обично мора да се вратат на почетокот на нивната синтеза и да го направат модифицираниот скелет практично од нула. Ова е скапо, одзема многу време и, во пракса, во голема мера ја ограничува разновидноста на дизајни што ги проверуваат и тестираат фармацевтските компании. Но иако овој концепт ветува подобрување на некои особини на медикаментите (хемикалиите), дали ваквите манипулации не носат ризик од злоупотреба?
И на крајот, ќе поставам етичко прашање: дали ние луѓето, како најинтелигентни живи суштества на планетата Земја, не сме на прагот на самоуништување токму преку новите изуми и нивната можна злоупотреба? Дали воопшто имаме право на тоа, дали тоа е морално?