Sztuczna inteligencja jest stronnicza w wykrywaniu oszustw związanych z zasiłkami

W systemie opartym na sztucznej inteligencji używanym do wykrywania oszustw związanych z zasiłkami, zauważono stronniczość. Okazuje się, że do weryfikacji wybierał on osoby z konkretnych grup częściej niż z innych.

Sztuczna inteligencja używana przez brytyjski rząd do wykrywania oszustw związanych z zasiłkami wykazuje stronniczość. W zależności od wieku, niepełnosprawności, stanu cywilnego i narodowości ludzi.

Stronnicza sztuczna inteligencja

Ocena programu sztucznej inteligencji używanego do weryfikacji tysięcy wniosków dotyczących Universal Credit wykazała stronniczość. Okazało się, że nieprawidłowo wybierał on osoby z niektórych grup częściej niż z innych. Zalecał przy tym, aby kogoś sprawdzić pod kątem możliwego oszustwa.

- Advertisement -

Stronniczość AI ujawniono w dokumentach Ministerstwa Pracy i Emerytur udostępnionych na mocy ustawy o wolności informacji. Okazało się, że „statystycznie istotna dysproporcja wyników” wystąpiła w „analizie uczciwości” zautomatyzowanego systemu dotyczącego Universal Credit. Analizę tę przeprowadzono w lutym 2024 roku.

Wyniki tej oceny są sprzeczne z wcześniejszym zapewnieniem DWP. Związane ono było z tym, że system AI „nie budzi żadnych bezpośrednich obaw dotyczących dyskryminacji czy niesprawiedliwego traktowania”.

Urzędnicy nie widzą niesprawiedliwości

Możliwe, że zapewnienie to wynikało częściowo z faktu, że ostateczną decyzję o tym, czy dana osoba dostanie zasiłek, nadal podejmuje człowiek. Urzędnicy wciąż uważają, że dalsze korzystanie z systemu opartego na sztucznej inteligencji jest „rozsądne”. Twierdzą, że pomoże on w obniżeniu szacowanych 8 mld funtów rocznie, które traci się na oszustwa ze strony świadczeniobiorców i błędy.

Do tej pory nie przeprowadzono jeszcze analizy pod kątem uczciwości programu AI w kontekście uprzedzeń dotyczących rasy, płci, orientacji seksualnej, religii itp.

Aktywiści oskarżają jednak rząd o niewłaściwe podejście do korzystania z systemu AI. Błąd polega na podejściu „najpierw szkodzić, później naprawiać”. Zaapelowali do ministrów o większą otwartość w kwestii tego, które grupy mogą być podejrzewane przez algorytm o próbę oszustwa.

Władze publiczne korzystają z co najmniej 55 zautomatyzowanych narzędzi. One mogą mieć wpływ na decyzje dotyczące milionów ludzi. Mimo że rządowy rejestr uwzględnia ich zaledwie dziewięć.

Jak powiedziała Caroline Selman, badaczka z Public Law Project, która jako pierwsza widziała wspomnianą wyżej analizę:

– Oczywiste jest, że w zdecydowanej większości przypadków DWP nie oceniło, czy zautomatyzowane procesy nie stwarzają ryzyka niesprawiedliwego ataku na marginalizowane grupy.

Nasza misja

Polish Express to rzetelne źródło informacji dla Polaków za granicą. Publikujemy wyłącznie sprawdzone wiadomości. Dowiedz się, jakie są nasze zasady redakcyjne!

Teksty tygodnia

Absurd w UK. Kichnął przez okno i dostał mandat na 225 funtów!

Glut kontra mandat – absurdalna historia z realną karą. Ta sprawa otwiera też dyskusję o tym, jak „elastyczne” bywają przepisy dotyczące czystości i higieny w przestrzeni publicznej

Marriage Allowance 2026, czyli ulga podatkowa pozwalająca zaoszczędzić nawet 5000 funtów

HMRC zachęca, by osoby kwalifikujące się do ulgi nie zwlekały z jej zgłoszeniem, ponieważ oszczędności mogą być znaczące, zwłaszcza przy połączeniu z innymi ulgami podatkowymi.

Wysoka kara od HMRC! Termin rozliczanie mija 31 stycznia 2026

Brytyjskie gospodarstwa domowe stają w obliczu poważnych konsekwencji, jeśli...

Lidl utworzy 640 miejsc pracy w UK w ciągu 8 tygodni

Lidl potwierdził właśnie plany otwarcia 19 sklepów. To z kolei pozwoli stworzyć 640 nowych miejsc pracy w UK.

Zaświadczenie o niekaralności w UK. Jak zrobić DBS check?

Aktualizacja 15/01/2026r. (Uwzględniono najnowsze opłaty). W Wielkiej Brytanii zaświadczenia...

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Zdrowie