Фото: Пиксабеј

Несомнено големи се придобивките од вештачката интелигенција. Но никако не треба и не смее да се пренебрегне фактот дека таа може да биде искористена и злоупотребена. Алармирањето и преземањето ефикасни мерки против таквите злоупотреби треба што поскоро да се активираат. На пример, изминатиот период на социјалните мрежи беа забележани фотографии од деца направени со помош на вештачка интелигенција, кои, за жал, се споделуваат со цел да ги привлечат – педофилите. За ситуацијата да биде уште поалармантна, експертите велат дека „објавената содржина е легална“ и во согласност со „правилата на социјалните мрежи“. Нашите соговорници велат дека ова претставува многу болен удар за владеењето на правото и системите, па токму затоа, според нив, тоа „претставува причина за сериозна загриженост“

ШОКАНТНИ КОНТРОВЕРЗНИ ПОВЕДЕНИЈА НА СОЦИЈАЛНИТЕ МРЕЖИ

Социјалните мрежи со години „балансираат“ на границата, сликовито кажано, помеѓу „белото и сивото“. Содржините на одредени социјални мрежи многупати досега, од разбирливи причини, биле под лупа, јавно осудувани, критикувани, a неретко биле причина за смрт на многу малолетници. Сега таквите содржини ја менуваат формата, а суштината им останува иста и е крајно контроверзна.

Контроверзни фотографии создадени со помош на вештачка интелигенција

На пример, се објавуваат фотографии од малолетници, претежно на возраст од пет-шест години, облечени во тантела и кожа, во бикини и маици… Некои од нив се облечени како медицински сестри, суперхерои, балерини или француски хотелски собарки… Некои носат уши од зајаче или ѓаволски рогови, други машнички и предимензионирани очила. Има русокоси, црвенокоси и црнокоси… Сите фотографии се создадени со помош на вештачка интелигенција и почнаа да го привлекуваат вниманието на проблематичната публика на најголемите социјални мрежи во светот – постарите мажи.
Коментарите на ваквите фотографии, според искажувањето на соговорниците, се „благо речено одвратни и ги прикажуваат настраните мисли на предаторите“, кои „своите настраности ги правдале со фактот што тоа не се фотографии на вистински деца, туку дека се фотографии создадени од вештачката интелигенција“.
За издвојување е дека српски „Форбс“ успеа да дојде до илјадници вакви коментари објавени и на Тикток и на Инстаграм. Сите тие фотографии се направени со помош на вештачката интелигенција, а се објавуваат од профили зад кои се кријат лажна фотографија и лажни податоци.
На нив исто така коментарите се од сексуални предатори и, како што подвлекуваат нашите соговорници, „консументите се педофили што се кријат зад којзнае чии слики и зад шифрирани кориснички имиња“…

Поведенијата да бидат санкционирани од областа на кривичното право

Иако борбата за сузбивање на материјалот за сексуална злоупотреба на деца (или скратено ЦСАМ) трае веќе некое време, пред вештачката интелигенција да стане толку напредна, генераторите на текст во слика со вештачка интелигенција сега уште повеќе им олеснуваат на предаторите да го пронајдат или да го создадат токму она што го сакаат, но и бараат.
Овие алатки доведоа до пораст на ЦСАМ генериран од вештачка интелигенција, кој е нелегален, иако е лажен. Но сликите откриени во известувањето за оваа приказна паѓаат во сива зона. Тие прикажуваат малолетници, но не вистински. Изгледа дека се легални, но коментарите за нив укажуваат на опасни намери.
Експертите за безбедност и форензика ги опишаа како „портали за многу помрачна и потенцијално криминална активност“. Ова отвора прашања во областа на кривичното право, за тоа како да се справиме со појавата на сугестивни, лажни слики на деца што не постојат.
На пример, во САД, технолошките компании се обврзани со федералниот закон да пријават сомнителна ЦСАМ и сексуална експлоатација на деца на нивните платформи до Националниот центар за исчезнати и злоупотребени деца, непрофитна организација што испраќа информации за нелегалната активност до органите на редот.
Но не е задолжително означување или отстранување слика како оние опишани во оваа приказна. Сепак, од НЦМЕЦ изјавија за „Форбс“ дека веруваат дека социјалните медиуми можат да ги отстранат – дури и ако се легални.

Истражувачите тврдат дека публика што сака да гледа и консумира таква содржина е сѐ повеќебројна (?!)

Една неодамнешна студија на интернет-опсерваторијата „Стенфорд“ покажа дека една од најпопуларните алатки за генерирање слики со помош на текст на пазарот денес, Stable Diffusion 1.5, била обучена за ЦСАМ на фотографии од вистински деца, кои биле собрани од различни делови на интернет.
– Особено ако се земат предвид некои од коментарите дека фотографиите се привлечни, не звучи дека публиката што сака да гледа и консумира таква содржина е невина. Се надевам дека ќе видам дека ќе ја отстранат таа содржина и нема да создаваат простор на нивните платформи за поединци да ги сексуализираат децата – додаде Мекнулти.
Тикток и Инстаграм трајно ги отстраниле сметките, видеата и коментарите споменати во оваа приказна, откако „Форбс“ праша за нив, а двете компании рекле дека ги прекршиле правилата на платформата.
– Тикток има строга политика против содржината генерирана од вештачка интелигенција за да ги заштити младите луѓе и да го држи Тикток непријателски настроен кон однесувањето што сака да им наштети – рече портпаролот Џејми Фавака.
Неодамна, компанијата воведе нова политика за синтетички медиуми со која се забранува таква содржина ако има некој помлад од 18 години и ги отстранува објавите што ги прекршуваат нејзините правила, без разлика дали се променети со вештачка интелигенција.
Софи Фогел, портпаролка на компанијата мајка на Инстаграм, „Мета“, рече дека компанијата не дозволува и отстранува содржини од реалниот свет и генерирани од вештачка интелигенција што сексуализира или експлоатира деца.
Во случаи кога содржината се чини дека е безопасна, тие сепак отстрануваат сметки, профили или страници посветени на споделување слики од деца или коментари поврзани со нивниот изглед, изјави за јавноста Вогел. И Тикток и „Мета“ известуваат за ЦСАМ генериран од вештачка интелигенција што го наоѓаат на нивните платформи до НЦМЕЦ.

Пристап до нелегална содржина

Еден пример од истражувачко новинарство на оваа тема е следниов.
Еден „популарен креатор на фотографии“ од деца генерирани со вештачка интелигенција имаше 80.000 следбеници на Тикток и на Инстаграм, бројка што растела додека новинарите на „Форбс“ ја правеле анализата.
Истражувачите од „Форбс“ не можеле да утврдат чиј е и кој го води, но неговите највирални објави имаат речиси половина милион прегледи, лајкувани се повеќе од 10.000 пати, споделени неколку илјади пати и привлекоа стотици коментари.
– Многу од неговите следбеници – врз основа на фотографиите на профилот, имињата, биографиите и коментарите – се чини дека се постари мажи – вели авторот на текстот произлезен од истражувањето на екипата на „Форбс“.
Уште еден факт е за издвојување… На пример, експертката за дигитална форензика, Хедер Махол Барнхарт, рече дека во нејзината претходна работа на овие случаи на „детска порнографија“, следбениците честопати нуделе јасни индиции, кои би можеле да ги насочат иследниците кон потенцијалните предатори.
– Детската порнографија е излез – изјави таа за Форбс и „кога ќе погледнете кој ја следи, тоа не е нормално“.
Овие типови сметки, исто така, повеќе ги изложуваат потенцијалните престапници затоа што се охрабруваат кога се јавно достапни.
– Луѓето се чувствуваат побезбедно затоа што децата не се целосно изложени, па затоа не е ЦСАМ – рече Малик, кој ја води софтверската компанија „Селебрити“ и им помага на НЦМЕЦ и на органите за спроведување на законот да ја користат нејзината технологија во истраги за злоупотреба на деца. Таа исто така нагласи дека е од суштинско значење полицијата повнимателно да истражи кој ги следи овие наредби и да бара модели на однесување.

[email protected]


Тревога на највисоко ниво во Канадскиот центар за заштита на децата. Таму проблемот не се гледа изолирано, туку интегрално во еден поширок контекст. Оттаму изјавуваат дека „нема на вакво нешто да се навикнеме и на ваквите содржини“ и нема да се направиме дека „сѐ е во ред“…

Јасен безбедносен ризик за децата и голема можност за вмрежување на криминалците

Лојд Ричардсон, директор на ИТ во канадскиот центар за заштита на децата, изјавил дека без разлика дали тие фотографии се вештачки или вистински, тие се „порта за посериозна или легална содржина, често на други платформи, кои потоа претставуваат јасен безбедносен ризик за децата“.
– Клучниот проблем е што овој збир на слики води до можности за вмрежување на криминалците – изјави Ричардсон за „Форбс“, истакнувајќи дека тие честопати ги пренесуваат своите разговори на приватни пораки.
Според него, овие слики можат да послужат како патокази за создавање врски до ЦСАМ на други канали.
– Затоа компаниите не можат едноставно да ја ублажат содржината со тоа што ќе ги погледнат сликите изолирано – додаде Ричардсон.
Моќниот алгоритам на Тикток, исто така, им олеснува на оние што имаат сексуален интерес за деца да најдат уште повеќе слики како оваа.
И ѕидот „За тебе“ на Тикток, на кој корисниците првично се вклучуваат кога ја отвораат апликацијата и е за вирални видеа за кои Тикток мисли дека можеби ни се допаѓаат, гарантира дека тие ќе допрат до милијарди корисници на Тикток.
Мек Нулти, од НЦМЕЦ, рече дека еден од најголемите ризици е тоа што децата со вештачка интелигенција имаат вакви вирусни објави на социјалните мрежи, дури и ако сликите не се нелегални, а луѓето можат да станат рамнодушни кон тоа колку тоа може да биде опасно.
– Како општество дали само ќе се навикнеме на ваква содржина и ќе кажеме дека е во ред? – прашува тој.
Сликите на деца генерирани со вештачка интелигенција се означени со хитовите на Тејлор Свифт, Бијонсе и Трејси Чепмен за да добијат што е можно повеќе прегледи.