Sztuczna inteligencja jest stronnicza w wykrywaniu oszustw związanych z zasiłkami

W systemie opartym na sztucznej inteligencji używanym do wykrywania oszustw związanych z zasiłkami, zauważono stronniczość. Okazuje się, że do weryfikacji wybierał on osoby z konkretnych grup częściej niż z innych.

Sztuczna inteligencja używana przez brytyjski rząd do wykrywania oszustw związanych z zasiłkami wykazuje stronniczość. W zależności od wieku, niepełnosprawności, stanu cywilnego i narodowości ludzi.

Stronnicza sztuczna inteligencja

Ocena programu sztucznej inteligencji używanego do weryfikacji tysięcy wniosków dotyczących Universal Credit wykazała stronniczość. Okazało się, że nieprawidłowo wybierał on osoby z niektórych grup częściej niż z innych. Zalecał przy tym, aby kogoś sprawdzić pod kątem możliwego oszustwa.

Stronniczość AI ujawniono w dokumentach Ministerstwa Pracy i Emerytur udostępnionych na mocy ustawy o wolności informacji. Okazało się, że „statystycznie istotna dysproporcja wyników” wystąpiła w „analizie uczciwości” zautomatyzowanego systemu dotyczącego Universal Credit. Analizę tę przeprowadzono w lutym 2024 roku.

Wyniki tej oceny są sprzeczne z wcześniejszym zapewnieniem DWP. Związane ono było z tym, że system AI „nie budzi żadnych bezpośrednich obaw dotyczących dyskryminacji czy niesprawiedliwego traktowania”.

Urzędnicy nie widzą niesprawiedliwości

Możliwe, że zapewnienie to wynikało częściowo z faktu, że ostateczną decyzję o tym, czy dana osoba dostanie zasiłek, nadal podejmuje człowiek. Urzędnicy wciąż uważają, że dalsze korzystanie z systemu opartego na sztucznej inteligencji jest „rozsądne”. Twierdzą, że pomoże on w obniżeniu szacowanych 8 mld funtów rocznie, które traci się na oszustwa ze strony świadczeniobiorców i błędy.

Do tej pory nie przeprowadzono jeszcze analizy pod kątem uczciwości programu AI w kontekście uprzedzeń dotyczących rasy, płci, orientacji seksualnej, religii itp.

Aktywiści oskarżają jednak rząd o niewłaściwe podejście do korzystania z systemu AI. Błąd polega na podejściu „najpierw szkodzić, później naprawiać”. Zaapelowali do ministrów o większą otwartość w kwestii tego, które grupy mogą być podejrzewane przez algorytm o próbę oszustwa.

Władze publiczne korzystają z co najmniej 55 zautomatyzowanych narzędzi. One mogą mieć wpływ na decyzje dotyczące milionów ludzi. Mimo że rządowy rejestr uwzględnia ich zaledwie dziewięć.

Jak powiedziała Caroline Selman, badaczka z Public Law Project, która jako pierwsza widziała wspomnianą wyżej analizę:

– Oczywiste jest, że w zdecydowanej większości przypadków DWP nie oceniło, czy zautomatyzowane procesy nie stwarzają ryzyka niesprawiedliwego ataku na marginalizowane grupy.

Teksty tygodnia

Kontrowersyjna parada w Derry. Koktajle Mołotowa i aresztowania

W Poniedziałek Wielkanocny w Derry odbyła się kontrowersyjna parada zorganizowana przez ugrupowanie Saoradh. Jest ono politycznie powiązane z Nową IRA

Wielka Brytania redefiniuje płeć. Transkobiety poza prawem?

Brytyjski Sąd Najwyższy wydał kontrowersyjne orzeczenie. Rowling nie kryje zadowolenia. Co to oznacza dla transpłciowych kobiet?

Lekarze rodzinni nagradzani za brak skierowania pacjenta do szpitala

Lekarze rodzinni w Anglii będą mogli ubiegać się o 20 funtów za każdym razem, gdy nie skierują pacjenta do szpitala. Strategia ta ma skrócić listy oczekujących.

W Glasgow rosną góry śmieci

Odkąd władze Glasgow wprowadziły opłaty za odpady wielkogabarytowe, w mieście rosną góry śmieci. Nielegalnie porzucane śmieci zanieczyszczają miasto i prowadzą do plagi szczurów.

Zamieszkaj tam, gdzie inni jeżdżą tylko na wakacje – 7 zalet mieszkania w Hiszpanii

Marzysz o słońcu, plaży i własnym apartamencie nad Morzem Śródziemnym? Przekonaj się, dlaczego coraz więcej osób wybiera Hiszpanię jako swój drugi dom – i jak Casa Playa pomaga to marzenie spełnić.

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Zdrowie