Дали може да се има верба во алгоритмите на вештачката интелигенција?

Објавувањето на ЧетГПТ, нов четбот со вештачка интелигенција, нè принудува повторно да размислиме кои задачи може да се извршат со минимална човечка интервенција. Ако вештачката интелигенција е способна да го положи правосудниот испит, дали има некаква причина поради која не може да даде здрав правен совет?

Во ретроспектива, 2022 година ќе се смета за година кога вештачката интелигенција почна да станува широкоприфатена. Објавувањето на ЧетГПТ од истражувачката лабораторија на „Опен АИ“ со седиште во Сан Франциско привлече големо внимание и отвори уште поголеми прашања. Само во првата недела, ЧетГПТ привлече повеќе од милион корисници и се користеше за пишување компјутерски програми, компонирање музика, играње игри и полагање правосуден испит. Учениците открија дека може да пишуваат есеи што можат да се користат достојни за оценка 4.
ЧетГПТ е далеку од совршен, исто како што ученичките есеи за оценка 4 се далеку од совршени. Информациите што ги дава се веродостојни исто колку и информациите што му се достапни, а доаѓаат од интернет. Како ги користи тие информации зависи од неговата обука, која вклучува надгледувано учење или, на друг начин, прашања поставени и одговорени од луѓето.
Тежините што ЧетГПТ им ги придава на своите можни одговори се изведени од учењето со поткрепа, каде што луѓето го оценуваат одговорот. Од милиони корисници на ЧетГПТ се бара да гласаат за или против одговорите на ботот секојпат кога поставуваат прашање. На ист начин корисна повратна информација од учител понекогаш може да научи ученик со многу добар успех да напише есеј за оценка 5, па, така, не е невозможно ЧетГПТ на крајот да добие подобри оценки.
Оваа рудиментирана вештачка интелигенција нè принудува повторно да размислиме кои задачи може да се извршат со минимална човечка интервенција. Ако вештачката интелигенција е способна да го положи правосудниот испит, дали има некаква причина да не може да напише правен извештај или да даде добар правен совет? Ако вештачката интелигенција може да го положи лекарскиот испит за лиценцирање, дали има некаква причина да не може да даде дијагноза или да понуди добар медицински совет?
Очигледна последица е побрзата замена на работните места, во споредба со минатите бранови на автоматизација и побрзото преструктурирање на преостанатите работни места. А, работните места што ќе бидат автоматизирани и нема повеќе да постојат нема да важат само за ниско квалификуваните и ниско платените.

Помалку очигледно е кој може да го зачува работното место под налетот на технологијата. Кои човечки особини, доколку ги има, вештачката интелигенција нема да може да ги симулира? Дали тие особини се вродени или може да се стекнат? Најбезбедните работни места ќе бидат оние за кои се потребни емпатија и оригиналност. Емпатијата е способност да се разберат и споделуваат чувствата и емоциите на другите. Тоа создава меѓучовечко сочувство и разбирање, кои се основни за социјалните интеракции и емоционалната благосостојба. Тоа е особено вредно во околности и периоди на тешкотии. Затоа емпатијата се цени кај верските водачи, негувателите и психотерапевтите.
Можно е да се замисли дека, со помош на софтвер за препознавање лица, вештачката интелигенција ќе може да научи да ги препознава чувствата на своите соговорници (може да го научи она што е познато како когнитивна емпатија). Но очигледно не може да ги сподели нивните чувства (не може да научи афективна емпатија) на ист начин како луѓето. Додајте го тоа на списокот со причини зошто вештачката интелигенција не може да ги замени животните сопатници, докторите или свештените лица.
Не постои консензус за тоа дали афективната емпатија може да се негува и научи. Некои тврдат дека афективната емпатија е поттикната од огледалните неврони во мозокот што не можат вештачки да се стимулираат или контролираат. Емпатијата е само нешто што го доживуваме, а не нешто што можеме да го научиме. Така, некои од нас имаат подобри предиспозиции од другите да бидат негуватели и психотерапевти. Други истражувачи сугерираат дека овој емоционален одговор навистина може да се научи. Но ако луѓето можат да научат афективна емпатија, тогаш зошто не можат алгоритмите? Идејата дека работните места што бараат афективна емпатија ќе останат имуни на автоматизацијата претпоставува дека луѓето можат да ја разликуваат вистинската емпатија од симулацијата.
Оригиналноста значи да се направи нешто што не е направено претходно, на пример да се создаде слика, композиција или коментар во весник за разлика од она што било претходно. Оригиналноста се разликува од креативноста, која вклучува комбинирање на веќе постојни елементи на нови начини.

Друг производ на „Опен АИ“, ДАЛ-Е, може да генерира софистицирани слики од описи на текст („слика на јаболко“ или „Мона Лиза“ со мустаќи“). Ова создаде одредено вчудовидување кај уметниците. Но дали неговите одговори, изведени со помош на голема база парови на текст и слика, се оригинални уметнички дела?
Сомнително е дали тие се оригинални во смисла на прикажување естетски привлечна слика за разлика од сите досегашни, наспроти комбинирање на постојни визуелни елементи поврзани со постоен текст. Уметниците што живеат од оригиналноста можеби нема од што да се плашат, се разбира, под претпоставка дека гледачите можат да ги разликуваат оригиналните уметнички дела од другите. Но, повторно, не постои консензус за тоа дали оригиналноста е вродена или може да се научи. Одговорот, најверојатно, е по малку од двете.
Тогаш, колку треба да бидеме загрижени? Внесете: „Напишете коментар од 800 збора за вештачката интелигенција за ’Проџект синдикејт’“ во ЧетГПТ и проценете сами.

Автор: Бери Ајхенгрин е професор по економија на универзитетот „Беркли“ во Калифорнија и поранешен висок политички советник во ММФ