Холандската даночна управа користеше алгоритам за откривање сомнителни измами со социјалните бенефиции, при пто им нанесе штета на илјадници семејства, пишува Мелиса Хеикила за „Политико“
Пропустите со контролата на алгоритмите отвораат проблеми за дигитализацијата
Животот на Шермејн Лејснер се промени во 2012 година, кога доби писмо од холандската даночна управа во кое бараше да го врати додатокот за детска нега од 2008 година. Лејснер, тогаш студентка, која студираше социјална работа, имаше три деца помлади од шест години, а сметката беше над 100.000 евра. Таа е една од десетиците илјади жртви на скандалот со бенефициите за детска нега.
Во 2019 година беше откриено дека холандските даночни власти користеле алгоритам за да создадат ризични профили во обид да забележат измама со бенефициите за детска нега. Властите ги казнија семејствата само поради сомневање за измама врз основа на индикаторите за ризик на системот. Десетици илјади семејства, често со пониски примања или кои им припаѓаат на етничките малцинства, беа турнати во сиромаштија поради преголемите долгови кон даночната агенција. Некои жртви извршија самоубиство, а повеќе од илјада деца беа згрижени во домови. Холандските даночни власти сега се соочуваат со нова казна од 3,7 милиони евра од регулаторот за приватност на земјата. Во неодамна објавеното соопштение, агенцијата наведе неколку прекршувања на правилникот за заштита на податоците на Европската Унија (ЕУ), Општата регулатива за заштита на податоците, вклучувајќи ги и немањето правна основа за обработка на податоците на луѓето и предолгото задржување на информациите.
Додека владите низ светот се свртуваат кон алгоритми и вештачка интелигенција за да ги автоматизираат своите системи, холандскиот скандал покажува колку автоматизираните системи можат да бидат крајно разорни без соодветните заштитни мерки. Унијата, која се позиционира како водечки светски технолошки регулатор, работи на нацрт-закон што има цел да ги спречи алгоритамските штети. Но критичарите велат дека предлог-законот не ја постигнува целта и нема да ги заштити граѓаните од инциденти како тој во Холандија.
Никој не го контролирал системот
Холандскиот систем, кој беше пуштен во функција во 2013 година, имаше цел да ја отстрани злоупотребата на бенефиции во рана фаза. Критериумите за ризичните профили беа развиени од даночната управа. Двојното државјанство беше означено како показател за голем ризик, како и нискиот приход. Во 2020 година, весникот „Трау“ и уште еден медиум открија дека даночните власти, исто така, чувале тајни црни списоци на луѓе две децении, преку кои се следеле и веродостојни и неосновани „сигнали“ за потенцијална измама. Граѓаните немаа начин како да откријат зошто се на списокот или да се бранат. Ревизијата покажа дека даночните власти се фокусирале на луѓе со „незападен изглед“.
Собранискиот извештај за скандалот со бенефициите за детска нега откри неколку сериозни недостатоци, вклучувајќи и институционални предрасуди и властите што кријат информации или го доведуваат парламентот во заблуда за фактите. Откако излезе на виделина целосниот обем на скандалот, владата на премиерот Марк Руте поднесе оставка, за да се прегрупира 225 дена подоцна. Покрај неодамна објавената казна, холандската агенција за заштита на податоци ја казни холандската даночна администрација со 2,75 милиони евра во декември 2021 година за „незаконска, дискриминаторска и неправилна постапка“, според која даночниот орган обработувал податоци за двојното државјанство на носителите на бенефиции за детска нега. Новата влада на Руте вети дека ќе создаде нов регулатор на алгоритам под надлежниот орган за заштита на податоците во земјата. Регулаторот ќе ги испитува алгоритмите и во јавниот и во приватниот сектор.
Предупредување за остатокот од Европа
Највисоката европска функционерка за дигитални политики, извршната потпретседателка на Европската комисија, Маргрете Вестагер, рече дека холандскиот скандал е токму она од што треба да се плаши секоја влада, а новиот закон за вештачка интелигенција на ЕУ има цел да изгради доверба. Предлогот на комисијата за Законот за вештачка интелигенција ја ограничува употребата на таканаречените високоризични системи за вештачка интелигенција и забранува одредени „неприфатливи“ употреби. Компаниите што обезбедуваат високоризични системи за вештачка интелигенција мора да исполнат одредени барања на ЕУ. Законот за вештачка интелигенција, исто така, создава јавен регистар на ЕУ за такви системи во обид да се подобри транспарентноста и да се помогне во спроведувањето.
Ренске Лајтен, социјалистичка пратеничка во холандскиот парламент и уште една клучна политичарка што помогна да се открие вистинската големина на скандалот, смета дека тоа не е доволно и тврди дека Законот за вештачка интелигенција треба да важи и за оние што користат високоризични системи за вештачка интелигенција и во приватниот и во јавниот сектор.
Во извештајот, во кој детално се наведува како холандската влада користела етничко профилирање во скандалот со бенефиции за детска нега, „Амнести интернешнел“ ги повикува владите да ја забранат „употребата на податоци за националноста и етничката припадност кога се оценуваат ризикот за цели на спроведување на законот во потрага по потенцијален криминал или осомничени за измама“. Во меѓувреме, Холандија сè уште се пресметува со последиците од скандалот. Холандската влада вети дека ќе им врати на жртвите од инцидентот по 30.000 евра.