Sztuczna inteligencja jest stronnicza w wykrywaniu oszustw związanych z zasiłkami

W systemie opartym na sztucznej inteligencji używanym do wykrywania oszustw związanych z zasiłkami, zauważono stronniczość. Okazuje się, że do weryfikacji wybierał on osoby z konkretnych grup częściej niż z innych.

Sztuczna inteligencja używana przez brytyjski rząd do wykrywania oszustw związanych z zasiłkami wykazuje stronniczość. W zależności od wieku, niepełnosprawności, stanu cywilnego i narodowości ludzi.

Stronnicza sztuczna inteligencja

Ocena programu sztucznej inteligencji używanego do weryfikacji tysięcy wniosków dotyczących Universal Credit wykazała stronniczość. Okazało się, że nieprawidłowo wybierał on osoby z niektórych grup częściej niż z innych. Zalecał przy tym, aby kogoś sprawdzić pod kątem możliwego oszustwa.

Stronniczość AI ujawniono w dokumentach Ministerstwa Pracy i Emerytur udostępnionych na mocy ustawy o wolności informacji. Okazało się, że „statystycznie istotna dysproporcja wyników” wystąpiła w „analizie uczciwości” zautomatyzowanego systemu dotyczącego Universal Credit. Analizę tę przeprowadzono w lutym 2024 roku.

Wyniki tej oceny są sprzeczne z wcześniejszym zapewnieniem DWP. Związane ono było z tym, że system AI „nie budzi żadnych bezpośrednich obaw dotyczących dyskryminacji czy niesprawiedliwego traktowania”.

Urzędnicy nie widzą niesprawiedliwości

Możliwe, że zapewnienie to wynikało częściowo z faktu, że ostateczną decyzję o tym, czy dana osoba dostanie zasiłek, nadal podejmuje człowiek. Urzędnicy wciąż uważają, że dalsze korzystanie z systemu opartego na sztucznej inteligencji jest „rozsądne”. Twierdzą, że pomoże on w obniżeniu szacowanych 8 mld funtów rocznie, które traci się na oszustwa ze strony świadczeniobiorców i błędy.

Do tej pory nie przeprowadzono jeszcze analizy pod kątem uczciwości programu AI w kontekście uprzedzeń dotyczących rasy, płci, orientacji seksualnej, religii itp.

Aktywiści oskarżają jednak rząd o niewłaściwe podejście do korzystania z systemu AI. Błąd polega na podejściu „najpierw szkodzić, później naprawiać”. Zaapelowali do ministrów o większą otwartość w kwestii tego, które grupy mogą być podejrzewane przez algorytm o próbę oszustwa.

Władze publiczne korzystają z co najmniej 55 zautomatyzowanych narzędzi. One mogą mieć wpływ na decyzje dotyczące milionów ludzi. Mimo że rządowy rejestr uwzględnia ich zaledwie dziewięć.

Jak powiedziała Caroline Selman, badaczka z Public Law Project, która jako pierwsza widziała wspomnianą wyżej analizę:

– Oczywiste jest, że w zdecydowanej większości przypadków DWP nie oceniło, czy zautomatyzowane procesy nie stwarzają ryzyka niesprawiedliwego ataku na marginalizowane grupy.

POLISH EXPRESS W GOOGLE NEWS

Teksty tygodnia

Inflacja w Wielkiej Brytanii – najnowsze dane

Inflacja w Wielkiej Brytanii niepokojąco przyspiesza. W grudniu wyniosła 2.5%, w styczniu już 3%. Co bardziej niepokojące, wskaźnik przekroczył prognozy. Kogo najbardziej dotyka wzrost cen?

Polska wioska w Penrhos – zapadła decyzja o przebudowie

Co stanie się z wioską położoną w północno-zachodniej Walii, w której „wszyscy mówili po polsku”?

Kary dla rowerzystów w UK – wprowadzono 10 nowych rodzajów wykroczeń

Nowe brytyjskie przepisy dotyczące jazdy na rowerze zostaną wprowadzone...

Rząd Labour chce „naprawić system świadczeń, aby ludzie mogli wrócić do pracy”

Laburzystowski rząd zapowiada „naprawę systemu świadczeń socjalnych” w Wielkiej...

Thermomix 7 w przedsprzedaży. Ile kosztuje w poszczególnych krajach?

Thermomix pomimo wysokiej ceny od lat cieszy się niesłabnącym zainteresowaniem....

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Royal news

Zdrowie