„Дипфејкс“ е кованица од поимите за длабоко машинско учење и за лажни вести. Станува збор за технологија со која едни фотографии и снимки се монтираат врз други за лажно да се прикаже дека некој сторил или кажал нешто. „Дипфејкс“ може да бидат следната фаза во дезинформациските војни
Во мај, на Интернет се појави една видеоснимка на која Доналд Трамп го советува белгискиот народ за климатските промени. Додека гледа во камерата тој порачува: „Како што веќе знаете, јас имав храброст да се повлечам од Парискиот климатски договор и истото тоа треба да го сторите и вие“. Снимката, дело на белгиската политичка партија СПА, беше објавена на Твитер и на Фејсбук. Таа предизвика лавина критики. Многумина беа гневни зашто американскиот претседател се осмелил да влијае врз белгиската климатска политика. Но гневот беше упатен во погрешна насока. Подоцна се откри дека говорот бил лажен и бил производ на напредната компјутерска технологија.
СПА ангажирала една продукциска куќа за да употреби машинско учење за да креира нешто што се нарекува „дипфејкс“, поточно компјутерски генерирана човечка реплика, во овој случај на Трамп, што ќе кажува или ќе прави нешто што никогаш не се случило. Намерата на СПА била да ја искористи лажната снимка за да им го привлече вниманието на луѓето, па потоа да ги пренасочи на онлајн-петиција, за белгиската влада да преземе поконкретни климатски мерки. Креаторите подоцна изјавија дека претпоставиле дека поради лошиот квалитет на лажната снимка ќе биде очигледно за следбениците дека не е веродостојна. Портпарол на СПА изјави дека било јасно од движењата на устата дека не станувало збор за вистински говор на Трамп. Откако стана јасно дека шегата не била сфатена, тимот за социјални медиуми на партијата споделувал пораки и на луѓето им објаснувал дека не станува збор за вистински говор на Трамп.
Комуникацискиот тим на партијата очигледно ја потцени моќта на нивниот фалсификат или можеби го прецени јавниот разум. Во секој случај, оваа мала левичарска партија, слуачајно или не, можеби првпат употреби „дипфејкс“ во експлицитен политички контекст.
Ова беше мала демонстрација за тоа како технологијата може да претставува голема закана за и онака веќе ранливиот екосистем на информации и да ги поткопа шансите да имаме една доверлива реалност.
Лажната снимка со Трамп беше направена со помош на техника за машинско учење наречена „генерирана непријателска мрежа (ГАН)“. Студентот Ијан Гудфелоу ја измисли техниката во 2014 година како алгоритамски да се генерираат нови видови податоци од постојните групи податоци. На пример, ГАН може да анализира илјадници фотографии на Барак Обама и потоа да продуцира нова фотографија што ќе биде приближно иста без притоа да биде верна копија на која било од нив, односно како да се креира целосно нов портрет на поранешниот претседател на САД, но тој не постои во реалноста. ГАН исто така може да се користи за креирање нова аудиоснимка од постојната или нов текст од веќе постојниот што значи дека ваквата технологија може да служи за разни употреби.
Оваа техника на машинско учење главно ја користеа истражувачите на вештачката интелигенција до 2017 година, кога еден корисник на Редит, под псевдонимот „дипфејкс“, што е англиска кованица од поимите за длабоко машинско учење и лажни вести почна да објавува дигитално обработени порнографски видеоснимки. Тој го градеше ГАН со помош на „тензорфлоу“, бесплатниот отворен софтвер за машинско учење на „Гугл“ за да монтира лица од славни актерки на тела на жени од порнофилмови.
Многу од медиумите објавуваа приказни за порнографски видеоснимки, кои станаа познати како „дипфејкс“. Како одговор на тоа, Редит ги забрани поради прекршување на политиката за содржина на порталот против недоброволната порнографија. До оваа фаза, креаторот на видеоснимките ја пушти во употреба „Фејкап“, платформа што лесно се користи за создавање лажни медиуми. Бесплатниот софтвер ја направи лесно достапна моќта на ГАН. Одеднаш секој со пристап до Интернет и фотографии од луѓе можеше да креира „дипфејкс“.
Кога Даниел Ситрон, професорка по право на Универзитетот во Мериленд, дозна за лажните порнофилмови, таа прво се шокираше колку тие сериозно го прекршиле правото на приватност на жените. Но кога почна да размислува за „дипфејкс“, сфати дека ако тие излезат од границите на троловите на Редит, може да бидат многу поопасни. „Дипфејкс“ можат да се искористат на начини што ќе ја ослабат самата структура на демократското општество.
– Почнав да размислувам за Балтимор. Во 2015 година, мојот град вриеше поради убиството на Афроамериканецот Фреди Греј. Помислив што ќе се случеше ако тогаш во јавноста се појавеа „дипфејкс“ со шефот на полицијата како изјавува нешто расистичко. Градот сигурно ќе гореше – вели таа.
Ситрон, заедно со нејзиниот колега Боби Чесни, почнаа да работат на извештај за укажување на обемот на можната опасност. Исто така, земајќи ја предвид заканата по приватноста и националната безбедност, двајцата научници сериозно беа загрижени дека ширењето „дипфејкс“ би можело катастрофално да ја уништи довербата во општеството во една поларизирана политичка клима.
Тие предвидуваа дека „дипфејкс“ можат да паднат во р
ацете на промотерите на „лажните вести“. Секој што има пристап до оваа технологија, од државите што шират пропаганда до троловите, ќе може да ги фалсификуваат информациите, манипулираат со фактите и на тој начин да ги турка спротивставените интернет-заедници уште подлабоко во нивните субјективни реалности.
Во извештајот се наведува дека пазарот на идеи веќе страда од нарушена доверба додека мрежната информациска средина комуницира на токсични начини со когнитивните предрасуди на луѓето. „Дипфејкс“ само дополнително ќе го влошат овој проблем.
Ситрон и Чесни не се единствените што се загрижени за овој проблем. Во април, режисерот Џордан Пил и „Базфид“ објавија дипфејк-видеоснимка со Обама во која тој го нарекува Трамп „кретен“ за да ја издигнат свеста за тоа како синтетичките медиуми креирани со вештачка интелигенција можат да се искористат за извртување и манипулирање на реалноста. Во септември, тројца конгресмени испратија писмо до директорот на разузнавачките служби во кое алармираат дека „дипфејкс“ може да се искористат и во дезинформациските изборни кампањи.
Ситрон е најзагрижена за опасноста на политички инспирираните „дипфејкс“ што можат да влијаат врз изборите.
– Темпирните „дипфејкс“ може да го нарушат демократскиот процес – вели таа.
Иако ваквите вознемирувачки сценарија лесно можат да се замислат, Тим Хванг, директорот на Иницијативата за етика и управување со вештачката интелигенција на Харвард и на МИТ, не смета дека „дипфејкс“ ќе влијаат врз изборите во блиска иднина. Хванг со години го проучува ширењето на дезинформациите на мрежите на Интернет и со исклучок на малиот ризик од белгискиот инцидент, тој вели дека допрва треба да види цврсти докази за навистина штетни инциденти со „дипфејкс“. Хванг верува дека ова делумно се должи на фактот што технологијата за убедливи лажни видеоснимки сè уште бара повисоко ниво на стручност и голема база на податоци.
– Ако сте пропагандист, ќе сакате максимално да ја раширите вашата работа со минимален напор. Обичните монтажи во Фотошоп сега може да бидат еднакво ефикасни како тие што се креирани со машинско учење – вели тој.
Истовремено, Хванг признава дека „дипфејкс“ стануваат сè пореални и полесно ќе се создаваат во иднина, со нив би можело да почне една ера на фалсификати квалитативно поразлични од оние на што сме навикнати.
– Уредувањето на фотографиите и на видеоснимките одамна ни е познато. Но во минатото, ако сакавте да направите видеоснимка од претседателот на која тој кажува нешто што никогаш не го изјавил, ќе ви беше потребен тим експерти. Машинското учење не само што го автоматизира процесот, туку исто така со негова помош можат да се креираат многу подобри фалсификати – вели тој.
На ова додадете го и фактот дека оваа технологија ќе стане многу подостапна на Интернет и со тоа веднаш имате „совршена бура на дезинформации“, како што вели Хванг. Сепак, сè уште треба да се истражува за синтетичките медиуми креирани со помош на машинското учење.
Во август, меѓународен тим истражувачи од Германија открија техника за креирање т.н. „длабоки видеопортрети“, со кои една личност може да ги контролира туѓите движења на лицето и да изгледа како тие да кажуваат или да прават нешта по нивна волја. Видеоснимката што го поддржа истражувачкиот труд покажа како еден истражувач ја отвора устата и истовремено се прикажува слика на која Обама го прави истото тоа. Истражувачот потоа ја врти главата на страна и по него истото тоа го прави синтетичкиот Обама.
Истражувачот Кристијан Тиоболт вели оти „длабоките видеопортрети“ многу повеќе ќе се користат за подобра синхронизација на странските филмови, напредните техники за фацијално уредување ќе се користат во постпродукцијата на филмовите и во специјалните ефекти. Истражувачите признаваат можна злоупотреба на технологијата, но истакнуваат како нивниот пристап, со кој можат да се синтетизираат лица што ќе бидат „речиси исти како природните“, може да направи „огромни примени во визуелната уметност“.
Хани Фарид, професор по компјутерски науки на „Беркли“, верува дека иако се импресивни напредоците во компјутерската графика со помош на машинското учење, истражувачите треба да бидат посвесни за пошироките општествени и политички последици од нивните креации.
– Оние што работат со специјални ефекти ќе уживаат во новата технологија. Но надвор од оваа сфера, надвор од Холивуд, не мислам дека позитивните резултати ќе бидат поголеми од негативните – смета тој.
Фарид, кој во веќе 20 години развива форензичка технологија со која ќе се откриваат дигиталните фалсификати, во моментот работи на нови методи за откривање и спречување на ширењето „дипфејкс“. Тој сега се фокусира на промените на бојата на лицето, како што е крвотокот. Сигналот е толку краток што софтверот за машинско учење не може да го регистрира – барем засега.
Како што расте заканата од „дипфејкс“, така се зголемуваат и напорите да се дојде до нови методи за откривање. Во јуни, истражувачите од Олбени објавија труд во кој беше наведено како лажните видеоснимки можат да се препознаат преку отсуството на трепкање на синтетичките субјекти. Фејсбук исто така развива модели на машинско учење за да ги открива „дипфејкс“.
Но Фарид предупредува да не се потпираме само на форензичката детекција во борбата против „дипфејкс“ поради брзината со која техниките на машинско учење можат да го избегнат. Тој вели дека порано биле потребни неколку години за да се најде техника на детекција, а фалсификаторите да најдат нови методи за да ја избегнат. Сега станува збор за неколку месеци разлика. Фарид објаснува дека ова се должи на флексибилноста на машинското учење.
– Сè што треба програмерот да направи е да го надгради алгоритамот да бара промени во бојата на лицето што соодветствуваат со ритамот на срцето и потоа „дипфејкс“ да го препознаваат овој сигнал. Кога ќе го објавам истражувањето, доволно е еден кретен ова да го искористи во системот – вели Фарид, кој одбива да зборува за неговите најнови форензички откритија.
Иако Фарид е заглавен во играта на мачка и глушец со креаторите на „дипфејкс“, тој е свесен дека решението не е само во новата технологија. Тој вели дека проблемот не е само тоа што се подобрува технологијата на „дипфејкс“, туку дека под закана се општествените процеси со кои доаѓаме до сознанија и сметаме дека се или не се вистинити.
Како што покажува лажната снимка со Трамп во Белгија, „дипфејкс“ не мора да бидат премногу уверливи за да предизвикаат штета. Големи се шансите најголемата закана на „дипфејкс“ да не е во лажна содржина, туку во нивното постоење.
Ова е феномен што експертот Авив Овадија го нарекува „апатија кон реалноста“ во која постојаниот контакт со дезинформациите ги тера луѓето повеќе да не веруваат во она што го гледаат и слушаат. Накратко, најголемата закана не е што луѓето ќе бидат излажани, туку што ќе сметаат дека сѐ е лага. Најновите анкети покажуваат дека се намалува довербата во водечките институции и медиуми. Според Овадија, ширењето на „дипфејкс“ најверојатно ќе го влоши овој тренд. Според Ситрон, веќе ги гледаме општествените ефекти од исчезнувањето на довербата во знаењето: „дипфејкс“ само ќе го нагласи таканаречениот „профит на измамникот“. Кога ништо не се смета за вистинито, измамникот ќе профитира така што вистината ќе ја претстави како лага.