Вештачката интелигенција и новинарството – без фатализам, но и без восхит

Потребно е да се предупреди јавноста, особено оние што немаат високо ниво на дигитална писменост, за можностите што ги нуди вештачката интелигенција, особено во доменот на лажните содржини

Во морето на дезинформации, кои веќе сериозно го загрозуваат квалитетот на информациите од јавен карактер во Србија, постои реален страв дека вештачката интелигенција (АИ) би можела да послужи како дополнителна, но исклучително моќна алатка во однос на сите други за пропагирање различни интереси, кои обично се спротивни на јавниот интерес. Државните институции сè уште не се занимаваат со прашањето за уредување на таа област. А кои се можностите на новинарската заедница да ги заштити стандардите и етиката на професијата?
Трендот на развој и користење на сè понапредната вештачка интелигенција и на нејзините пософистицирани способности рапидно расте. Во контекст на новинарството, АИ може значително да влијае на начинот на кој информациите се собираат, се анализираат и се презентираат пред јавноста, а алатките за автоматско генерирање содржини ги забрзуваат процесите на известување, ја персонализираат содржината за читателите и влијаат на ефикасноста и на брзината на работата на уредништвото. Меѓутоа, со овој напредок доаѓаат и етички прашања, на пример колку е автентична содржината што ја произведува вештачката интелигенција, кој е одговорен за нејзиното создавање и објавување, со каков квалитет е таквата содржина и дали вештачката интелигенција ги нарушува професионалните стандарди и интегритетот на новинарите.
– Издигањето на свеста и едукацијата на корисниците, вклучувајќи и на програмерите и на регулаторите, околу потенцијалните етички и општествени импликации на вештачката интелигенција, се од голема важност кога зборуваме за одговорно користење на новите технологии – изјави за „Автономија“ Ненад Радоја, програмер и експерт за ИТ-сектор.
Во однос на законодавството, тој додава дека земјите од Европската Унија работат на ограничување на употребата на алгоритми и вештачка интелигенција, но дека клучните поими се транспарентноста и техничките можности.
– Во техничка смисла, ограничувањата може да вклучуваат развој на алгоритми што сами се свесни за нивните ограничувања. Промовирање транспарентност во работата на системите и на алгоритмите за вештачка интелигенција, како и јасно дефинирање на одговорностите што произлегуваат од употребата на вештачката интелигенција, би помогнало во организирањето на негативните влијанија – тврди тој.
На крајот на минатата година беа усвоени предлози за нови регулативи за вештачката интелигенција на ниво на Европската Унија, кои имаат цел да ги забранат алгоритмите што ќе препознаваат емоции, како и да ги ограничат биометриските системи што препознаваат лица во реално време на јавни места (real time-remote biometric identification, RBI) – освен кога се користат за пребарување конкретни осомничени или жртви на одредени кривични дела.
Исто така, воведени се забрани поврзани со препознавање емоции, некои примени на високоризични системи за вештачка интелигенција во приватниот сектор, додека критериумите за класификација на ризикот беа изменети и дополнети.
Од фондацијата СХАРЕ (SHARE), која се занимава со теми како слободното изразување на интернет, дигиталната безбедност и приватноста на податоците, велат дека се очекува во наредниот период регулативите да почнат да се применуваат и во земјите членки на Унијата.

– Актот за вештачка интелигенција на Европската Унија сè уште не е официјално усвоен, но по постигнувањето политички договор во декември минатата година, текстот беше практично финализиран и се очекува актот да помине низ преостанатите процедури пред изборите за Европскиот парламент закажани за налето – изјавија за нашиот портал од таа организација.
Како што објаснуваат од фондацијата СХАРЕ, во овој правен акт системите и моделите за вештачка интелигенција ќе бидат класифицирани според нивото на ризик врз човековите права и врз општеството воопшто. Од овие законски обврски ќе зависат и оние што ќе ги развиваат и ќе ги имплементираат, а ќе се предвидат и казни, односно забранети апликации, како што е „социјалното бодување“. Тие, сепак, посочуваат дека притисоците на земјите членки на ЕУ, кои имаат интерес да користат напредни технологии за полициски цели што е можно повеќе, како и лобирањето на големите корпоративни играчи во областа на вештачката интелигенција, доведоа, меѓу другите работи, до фактот дека пречистениот текст е понеповолен во однос на заштитата на човековите права од она што првично се очекуваше.
На ниво на Србија не се усвоени слични правила.
Иако вештачката интелигенција има тенденција да замени голем број работни места и да преземе човечки улоги, прашање е дали такво нешто може да се направи кога станува збор за новинарството. Дискутабилно е прашањето до кој степен софтверските решенија и алгоритми можат да „бидат новинари“, односно дали можат да се користат како замена за човечкиот фактор што ќе составува значајни истражувачки и аналитички текстови или едноставно ќе собира статистички податоци и ќе формира реченици врз основа на нив. Затоа, експертите сметаат дека ќе има разлика меѓу редакциите што користат дигитални решенија и оние што вработуваат вистински новинари.
– Развојот на алгоритми и нивната неограничена употреба се очекува да го зголемат јазот кога станува збор за општествените, културните и политичките разлики. Минатата пролет, голем број личности, вклучувајќи го и Илон Маск, потпишаа меморандум со кој бараа запирање на понатамошниот развој на вештачката интелигенција поради многуте ризици поврзани со нејзиниот екстремно брз напредок. Сепак, јасно е дека ова е невозможна мисија: проектите кои ја подобруваат вештачката интелигенција се многу децентрализирани, па дури и ако некој вид забрана стапи на сила, многу тимови би продолжиле да ја зајакнуваат вештачката интелигенција, чекајќи го моментот кога плаќањето ќе биде повторно можно – смета Стефан Јањиќ, уредник на порталот „Фејк њуз трагач“ и асистент на Катедрата за новинарство на Филозофскиот факултет во Нови Сад.
Јањиќ за „Автономија“ оценува дека во овој поглед парите не мора да бидат примарен мотив.

– Многумина би продолжиле да го следат развојот на вештачката интелигенција водени од љубопитност, бидејќи резултатите во различни области ‒ од хакирање до медицина ‒ може да бидат навистина фасцинантни. Системите што овозможуваат создавање длабоко лажни порнографски содржини имаат почетна точка во достапните онлајн корпуси, во кои квантитативно доминира прикажувањето на женското тело. Затоа се продолжува и се продлабочува нееднаквоста што ја имавме во времето пред ерата на вештачката интелигенција – предупредува нашиот соговорник.
Со него се согласуваат и од фондацијата СХАРЕ, кои посочуваат дека генеративната вештачка интелигенција (GenAI) овозможува создавање веродостојни лажни содржини што исто така можат да придонесат за загрозување на новинарската работа и углед, а со тоа и на самата јавност.
Зборувајќи за улогата на новинарството и на самите новинари во однос на употребата на вештачката интелигенција и на издигањето на свеста за ризиците врз јавноста, Стефан Јањиќ оценува дека новинарите треба да пристапат смирено, без фатализам, но и без непотребна фасцинација.
– Потребно е да се предупреди јавноста, особено оние што немаат високо ниво на дигитална писменост, за можностите што ги нуди вештачката интелигенција, особено во доменот на лажните содржини. Дополнително, новинарите треба да размислуваат „еден чекор понапред“: да не чекаат да се појави новата фаза на вештачката интелигенција, па дури тогаш да зборуваат за тоа. Штетата ‒ која секако ќе ја има, на најразлични нивоа ‒ полесно ќе се спречи ако зборуваме за проблемот пред да добие целосен замав – вели Стефан Јањиќ.

Вања Велисављев

(республика.еду.мк)