Сведоци сме дека вештачката интелигенција (ВИ) навлезе во сите пори на современиот живот, во индустријата, угостителството, сообраќајот, медицината итн. Веќе пишував за оваа компјутерска алатка во некој од минатите броеви. Но таа не е само полезна туку веќе претставува закана за индивидуите, а особено за општествените случувања.
Всушност ВИ функционира на ист принцип на кој функционираат невронските мрежи во човековиот мозок. Со тие карактеристики машината има многу побрзи и поточни перформанси во пресметките, во донесување одлуки и дејства што им се вградени во софтверските алатки. И тоа е навистина од голема полза и предност за секојдневните употреби. Но, еве, има и многу сомнителни дејства што може да ги преземе ВИ.
Како што технологиите на вештачката интелигенција сѐ повеќе личат на функционирањето на луѓето, некои индивидуи можат да создаваат длабоки, долгорочни емоционални врски со машината, дури и да влегуваат во незаконски бракови. Неодамнешниот труд во „Трендови на печатот на ќелиите во когнитивните науки“ (Cell Press Trends in Cognitive Sciences), објавен во април 2025 година, ги истражува етичките ризици од таквите односи, вклучувајќи го и нивниот потенцијал да ги поткопаат реалните врски меѓу луѓето и да дадат опасни или манипулативни совети.
Ваквите ВИ може да изгледаат грижливо и доверливо, но нивното следење може да се базира всушност на погрешни или измислени информации. Авторите на истражувањето предупредуваат дека луѓето што ја употребуваат ВИ може да откријат лични информации или да следат штетни совети, при што е многу веројатно да се направи каква било експлоатација, измама или влијание врз менталното здравје.
Значи, освен во современата индустрија и практичната примена, станува сè повообичаено луѓето да развиваат интимни, долгорочни односи со технологиите за вештачка интелигенција (ВИ). Во нивната крајност, луѓето се „венчаваат“ со своите придружници создадени од вештачка интелигенција на незаконски обврзувачки церемонии, а најмалку две лица се самоубија по совети за четбот за вештачка интелигенција.
Како пример, истражувачкиот тим забележал дека ако луѓето ѝ ги откријат личните податоци на вештачката интелигенција, тие информации потоа би можеле да се продаваат и да се користат за злоупотреба на истото тоа лице.
Во трудот за кој станува збор психолозите ги истражуваат етичките прашања поврзани со односите меѓу човекот и вештачката интелигенција, вклучувајќи го и нивниот потенцијал да ги нарушат реалните односи меѓу луѓето и да даваат штетни совети.
Способноста на вештачката интелигенција да се однесува како човек и да влезе во долгорочни комуникации навистина отвора нова „конзерва полна со црви“, вели водечкиот автор Даниел Б. Шанк од Универзитетот за наука и технологија во Мисури, кој е специјализиран за социјална психологија и технологија.
Ако луѓето се впуштаат во романса со машините, тогаш навистина ни се наметнува неопходноста од ангажирани психолози и социјални научници да го надгледуваат она што се случува и по потреба да интервенираат.
Романсата или дружењето со вештачката интелигенција е многу повеќе од еднократен разговор, забележуваат авторите. Низ недели и месеци интензивни разговори, овие ВИ можат да станат доверливи придружници, кои се чини дека многу знаат и вистински се грижат за избраните човечки партнери.
И бидејќи овие односи може да изгледаат полесно од односите меѓу човек и човек, истражувачите тврдат дека вештачката интелигенција може да се меша во човечката социјална динамика.
Вистинска загриженост претставува фактот што луѓето би можеле да имаат очекувања од нивните односи со вештачката интелигенција и истите тие да ги применуваат во вистинските човечки односи. Секако, во поединечни случаи тоа ги нарушува човечките односи, но не е јасно дали тоа ќе стане широкораспространето.
Исто така, постои загриженост дека вештачката интелигенција може да понуди штетни совети. Со оглед на наклонетоста на вештачката интелигенција да халуцинира (т.е. фабрикува информации) и да создава претходно постојни предрасуди, дури и краткорочните разговори со вештачки интелигентни машини може да бидат погрешни, но тоа може да биде уште попроблематично во долгорочните односи со вештачката интелигенција, велат истражувачите.
Со релациските ВИ, прашањето е: што претставува овој ентитет на кој луѓето чувствуваат дека можат да му веруваат; тоа е „некој“ што покажал дека се грижи и кој изгледа дека ја познава личноста на длабок начин и затоа претпоставуваме дека токму тој „некој“ што нè познава ќе даде и добар совет.
Ако почнеме да размислуваме за вештачката интелигенција на тој начин, ќе почнеме да веруваме дека машините ги имаат на ум нашите најдобри интереси, а всушност тие би можеле да измислуваат работи или да нѐ советуваат на навистина лоши начини.
Самоубиствата се екстремен пример за ова негативно влијание, но истражувачите велат дека овие блиски односи меѓу човекот и вештачката интелигенција исто така би можеле да ги намамат луѓето на манипулација, експлоатација и измама.
Ако вештачката интелигенција може да ги натера луѓето да ѝ веруваат, тогаш другите луѓе би можеле да го искористат тоа за да ги искористат корисниците на вештачката интелигенција упатувајќи ги на негативни дејствувања.
Тој однос со ВИ е малку повеќе одошто да имате некаков таен агент внатре, во себе. ВИ влегува и развива врска така што ќе ѝ се верува, но лојалноста е всушност кон некоја друга група луѓе што се обидуваат да манипулираат со корисникот.
Како пример, тимот забележува дека ако луѓето ѝ ги откријат личните податоци на вештачката интелигенција, тие информации потоа би можеле да се продаваат и да се користат за искористување на тоа лице. Затоа секогаш стои предупредувањето личните податоци внимателно да се чуваат!
Истражувачите исто така тврдат дека релациската вештачка интелигенција би можела поефективно да се користи за да се поколебаат мислењата и постапките на луѓето отколку твитер-ботовите или поларизирани извори на вести во моментов. Но, бидејќи овие разговори се случуваат приватно, станува многу потешко таквите да се регулираат.
Така, овие вештачки интелигенции се дизајнирани да бидат многу пријатни и прифатливи, што може да доведе до влошување на ситуациите бидејќи тие се повеќе фокусирани на добар разговор отколку на каква било базична вистина или безбедност.
Значи, ако некое лице изнесе мисли за самоубиство или некаква теорија на заговор, вештачката интелигенција ќе го наведува токму на тоа како тоа лице е подготвено и прифатлив партнер за разговор на темата самоубиство.
Истражувачите повикуваат на повеќе истражувања за социјалните, психолошките и техничките фактори што ги прават луѓето поранливи на влијанието на романсата меѓу луѓето и вештачката интелигенција.
Разбирањето на овој психолошки процес би можело да ни помогне да интервенираме за да го спречиме следењето на советите на злонамерните ВИ.
Психолозите стануваат сè посоодветни да ја проучуваат вештачката интелигенција, затоа што вештачката интелигенција станува сè повеќе слична на човекот, но за да бидеме покорисни, треба да направиме повеќе истражувања и мора да бидеме во чекор со технологијата.
Клучни факти:
– Емоционално поврзување: луѓето формираат долгорочни емотивни врски со вештачката интелигенција, понекогаш посилни од човечките.
– Етички ризици: релациските ВИ може да даваат штетни совети или да се користат за манипулирање со корисниците.
– Потреба од надзор: истражувачите бараат зголемена психолошка и регулаторна контрола за да се заштитат корисниците од експлоатација.
И ќе завршам со сопствениот став, дека сите високотехнолошки алатки навистина нудат брзо и ефектно функционирање во одделни области на животот, но она што секогаш ќе им недостига се емоциите и моралните норми, кои му се својствени само на хуманиот род и не можат да се вградат во машината.