Sztuczna inteligencja jest stronnicza w wykrywaniu oszustw związanych z zasiłkami

W systemie opartym na sztucznej inteligencji używanym do wykrywania oszustw związanych z zasiłkami, zauważono stronniczość. Okazuje się, że do weryfikacji wybierał on osoby z konkretnych grup częściej niż z innych.

Sztuczna inteligencja używana przez brytyjski rząd do wykrywania oszustw związanych z zasiłkami wykazuje stronniczość. W zależności od wieku, niepełnosprawności, stanu cywilnego i narodowości ludzi.

Stronnicza sztuczna inteligencja

Ocena programu sztucznej inteligencji używanego do weryfikacji tysięcy wniosków dotyczących Universal Credit wykazała stronniczość. Okazało się, że nieprawidłowo wybierał on osoby z niektórych grup częściej niż z innych. Zalecał przy tym, aby kogoś sprawdzić pod kątem możliwego oszustwa.

- Advertisement -

Stronniczość AI ujawniono w dokumentach Ministerstwa Pracy i Emerytur udostępnionych na mocy ustawy o wolności informacji. Okazało się, że „statystycznie istotna dysproporcja wyników” wystąpiła w „analizie uczciwości” zautomatyzowanego systemu dotyczącego Universal Credit. Analizę tę przeprowadzono w lutym 2024 roku.

Wyniki tej oceny są sprzeczne z wcześniejszym zapewnieniem DWP. Związane ono było z tym, że system AI „nie budzi żadnych bezpośrednich obaw dotyczących dyskryminacji czy niesprawiedliwego traktowania”.

Urzędnicy nie widzą niesprawiedliwości

Możliwe, że zapewnienie to wynikało częściowo z faktu, że ostateczną decyzję o tym, czy dana osoba dostanie zasiłek, nadal podejmuje człowiek. Urzędnicy wciąż uważają, że dalsze korzystanie z systemu opartego na sztucznej inteligencji jest „rozsądne”. Twierdzą, że pomoże on w obniżeniu szacowanych 8 mld funtów rocznie, które traci się na oszustwa ze strony świadczeniobiorców i błędy.

Do tej pory nie przeprowadzono jeszcze analizy pod kątem uczciwości programu AI w kontekście uprzedzeń dotyczących rasy, płci, orientacji seksualnej, religii itp.

Aktywiści oskarżają jednak rząd o niewłaściwe podejście do korzystania z systemu AI. Błąd polega na podejściu „najpierw szkodzić, później naprawiać”. Zaapelowali do ministrów o większą otwartość w kwestii tego, które grupy mogą być podejrzewane przez algorytm o próbę oszustwa.

Władze publiczne korzystają z co najmniej 55 zautomatyzowanych narzędzi. One mogą mieć wpływ na decyzje dotyczące milionów ludzi. Mimo że rządowy rejestr uwzględnia ich zaledwie dziewięć.

Jak powiedziała Caroline Selman, badaczka z Public Law Project, która jako pierwsza widziała wspomnianą wyżej analizę:

– Oczywiste jest, że w zdecydowanej większości przypadków DWP nie oceniło, czy zautomatyzowane procesy nie stwarzają ryzyka niesprawiedliwego ataku na marginalizowane grupy.

Nasza misja

Polish Express to rzetelne źródło informacji dla Polaków za granicą. Publikujemy wyłącznie sprawdzone wiadomości. Dowiedz się, jakie są nasze zasady redakcyjne!

Teksty tygodnia

Przez najbliższe 30 lat kobiety mogą zapomnieć o równości płacowej

Luka płacowa między kobietami a mężczyznami wynosi prawie 13 proc., co przekłada się na ponad 2500 funtów rocznie.

Atak w centrum z użyciem noża, śledztwo w sprawie śmierci dziecka. Przestępstwa w Londynie

W centrum uwagi znalazły się śmiertelne ataki nożem, sprawy dotyczące przemocy wobec dzieci oraz kolejne postępowania prowadzone przez policję w sprawie zabójstw.

Tańsze rachunki za energię? Spadek cen nie kończy epoki drożyzny

Przeciętny roczny rachunek za energię może spaść, ale i tak będzie dużo wyższy niż przed wybuchem pełnoskalowej wojny rosyjsko-ukraińskiej.

Tanie bilety do Polski na wakacje w nowym rozkładzie lotów Ryanaira

Ryanair wraz z nowym harmonogramem ogłosił także ofertę promocyjną na sezon wakacyjny. Możemy w niej znaleźć tanie loty do Polski.

Co dziewiąty dom w Anglii powstaje w rejonach zagrożonych powodzią

Rośnie liczba nowych domów w Anglii budowanych na obszarach, które są zagrożone powodzią. Przez co trudno je ubezpieczyć.

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Zdrowie