Sztuczna inteligencja jest stronnicza w wykrywaniu oszustw związanych z zasiłkami

W systemie opartym na sztucznej inteligencji używanym do wykrywania oszustw związanych z zasiłkami, zauważono stronniczość. Okazuje się, że do weryfikacji wybierał on osoby z konkretnych grup częściej niż z innych.

Sztuczna inteligencja używana przez brytyjski rząd do wykrywania oszustw związanych z zasiłkami wykazuje stronniczość. W zależności od wieku, niepełnosprawności, stanu cywilnego i narodowości ludzi.

Stronnicza sztuczna inteligencja

Ocena programu sztucznej inteligencji używanego do weryfikacji tysięcy wniosków dotyczących Universal Credit wykazała stronniczość. Okazało się, że nieprawidłowo wybierał on osoby z niektórych grup częściej niż z innych. Zalecał przy tym, aby kogoś sprawdzić pod kątem możliwego oszustwa.

Stronniczość AI ujawniono w dokumentach Ministerstwa Pracy i Emerytur udostępnionych na mocy ustawy o wolności informacji. Okazało się, że „statystycznie istotna dysproporcja wyników” wystąpiła w „analizie uczciwości” zautomatyzowanego systemu dotyczącego Universal Credit. Analizę tę przeprowadzono w lutym 2024 roku.

Wyniki tej oceny są sprzeczne z wcześniejszym zapewnieniem DWP. Związane ono było z tym, że system AI „nie budzi żadnych bezpośrednich obaw dotyczących dyskryminacji czy niesprawiedliwego traktowania”.

Urzędnicy nie widzą niesprawiedliwości

Możliwe, że zapewnienie to wynikało częściowo z faktu, że ostateczną decyzję o tym, czy dana osoba dostanie zasiłek, nadal podejmuje człowiek. Urzędnicy wciąż uważają, że dalsze korzystanie z systemu opartego na sztucznej inteligencji jest „rozsądne”. Twierdzą, że pomoże on w obniżeniu szacowanych 8 mld funtów rocznie, które traci się na oszustwa ze strony świadczeniobiorców i błędy.

Do tej pory nie przeprowadzono jeszcze analizy pod kątem uczciwości programu AI w kontekście uprzedzeń dotyczących rasy, płci, orientacji seksualnej, religii itp.

Aktywiści oskarżają jednak rząd o niewłaściwe podejście do korzystania z systemu AI. Błąd polega na podejściu „najpierw szkodzić, później naprawiać”. Zaapelowali do ministrów o większą otwartość w kwestii tego, które grupy mogą być podejrzewane przez algorytm o próbę oszustwa.

Władze publiczne korzystają z co najmniej 55 zautomatyzowanych narzędzi. One mogą mieć wpływ na decyzje dotyczące milionów ludzi. Mimo że rządowy rejestr uwzględnia ich zaledwie dziewięć.

Jak powiedziała Caroline Selman, badaczka z Public Law Project, która jako pierwsza widziała wspomnianą wyżej analizę:

– Oczywiste jest, że w zdecydowanej większości przypadków DWP nie oceniło, czy zautomatyzowane procesy nie stwarzają ryzyka niesprawiedliwego ataku na marginalizowane grupy.

POLISH EXPRESS W GOOGLE NEWS

Teksty tygodnia

Bank Anglii ostrzega przed wzrostem kredytów hipotecznych

Około 4,4 miliona gospodarstw domowych w Wielkiej Brytanii może odczuć wzrost rat kredytów hipotecznych w ciągu najbliższych trzech lat.

Najtańszy supermarket w UK (listopad 2024). Gdzie za świąteczne zakupy zapłacimy najmniej?

Która z sieci supermarketów działających na terenie Wielkiej Brytanii w listopadzie 2024 roku okazała się najtańsza?

Bezdomni w Anglii dostaną pieniądze w ramach eksperymentu King’s College London

Pieniądze będą pochodzić z budżetu państwa, a naukowcy za ich pomocą mają przeprowadzić pewien eksperyment i ustalić, jaki rodzaj pomocy sprawdza się najlepiej.

Najpopularniejsze imiona dla dzieci w Anglii i Walii w 2023

Nadanie imienia dziecku to jedna z najważniejszych decyzji, jaką muszą podjąć młodzi rodzice. Jakie decyzje w tej kwestii podejmowali matki i ojcowie mieszkający w Anglii i Walii w roku 2023?

Terminy wypłat Universal Credit i innych benefitów w okresie świątecznym

Jeśli data wypłaty twojego zasiłku Universal Credit lub innego świadczenia wypada w okresie świąt Bożego Narodzenia, lub Nowego Roku to sprawdź zmiany wprowadzone przez DWP i HMRC w harmonogramie wypłat świadczeń społecznych.

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Royal news

Zdrowie