Sztuczna inteligencja Amazona skanowała i analizowała twarze tysięcy pasażerów

Kamery CCTV wspierane przez sztuczną inteligencję Amazona skanowały twarze tysięcy pasażerów w Wielkiej Brytanii. Z ujawnionych niedawno dokumentów wynika, że proceder trwał kilka lat, a AI analizowała wiek, płeć, emocje i inne cechy nieświadomych obserwacji ludzi.

Kamery CCTV w połączeniu ze sztuczną inteligencją Amazona miały – w założeniu – monitorować tłumy i wykrywać w nich kradzieże inne działania przestępcze. Niestety ich obserwacje wykraczały daleko poza nadzór nad bezpieczeństwem…

- Advertisement -

Sztuczna inteligencja Amazona analizowała wyrazy twarzy pasażerów

Nowe dokumenty ujawniają, że twarze tysięcy osób wsiadających do pociągów w Wielkiej Brytanii zostało przeskanowanych przez oprogramowanie Amazon w ramach szeroko zakrojonych testów sztucznej inteligencji.

Wykorzystano system rozpoznawania obrazu do przewidywania wieku, płci i potencjalnych emocji podróżnych, co oznacza, że dane te mogą zostać wykorzystane w systemach reklamowych.

W ciągu ostatnich dwóch lat na ośmiu stacjach kolejowych, w tym Euston i Waterloo w Londynie, czy Manchester Piccadilly – przetestowano technologię nadzoru AI przy użyciu kamer CCTV w celach bezpieczeństwa. Narzędzia te miały być wykorzystane do potencjalnej walki z przestępczością.

W szeroko zakrojonych badaniach nadzorowanych przez Network Rail wykorzystano rozpoznawanie obiektów, wykrywanie osób wkraczających na tory, monitorowanie i przewidywanie przepełnienia peronów, a także identyfikację zachowań aspołecznych.

Niepokojące wykorzystanie AI

Jak powiedział Jake Hurfurt, szef działu badań i dochodzeń w grupie zajmującej się wolnością obywatelską – Big Brother Watch, na wniosek której opublikowano dane:

– Wdrożenie i normalizacja nadzoru sztucznej inteligencji w przestrzeni publicznej bez większych konsultacji i rozmów, to dość niepokojący krok.

Jak wynika z ujawnionych dokumentów, które datowane są na kwiecień 2023 roku, na każdej stacji znajdowało się od pięciu do siedmiu kamer lub czujników.

Ponadto Hurfurt twierdzi, że najbardziej „niepokojący” element badań skupiał się na „demografii pasażerów”. Ta konfiguracja może wykorzystywać obrazy z kamer do tworzenia „statystycznej analizy przedziału wiekowego oraz danych demograficznych mężczyzn i kobiet”. Jest także w stanie „analizować emocje”, takie jak „radość, smutek i złość”.

Zwraca on uwagę na fakt, że pozyskane przez kamery „dane można wykorzystać w celu uzyskania maksymalnych przychodów z reklam i sprzedaży detalicznej”, zwłaszcza jeśli w proceder zaangażowana jest gigantyczna korporacja.

Nie jest jasne, jak szeroko zastosowano analizę wykrywania emocji.

Nasza misja

Polish Express to rzetelne źródło informacji dla Polaków za granicą. Publikujemy wyłącznie sprawdzone wiadomości. Dowiedz się, jakie są nasze zasady redakcyjne!

Teksty tygodnia

Narkotyki warte 2 mln funtów w workach do odkurzacza

Funkcjonariusze znaleźli 209 worków do odkurzacza wypełnionych suszoną marihuaną, każdy ważący około kilograma. Szacunkowa wartość uliczna wynosi 2,09 miliona funtów.

Dzisiejsza awaria aplikacji bankowej spowodowała ujawnienie danych wrażliwych wielu osób!

Relacje użytkowników wskazują, że w aplikacjach pojawiały się bardzo wrażliwe informacje finansowe. Jedna z klientek aplikacji poinformowała, że przez około 20 minut widziała dane 6 różnych osób, w tym numery ubezpieczeń.

Kolejny strajk w Londynie. Do maszynistów dołączą kierowcy autobusów

Na marzec we wschodniej części Londynu zaplanowano czterodniowy strajk kierowców autobusów.

6 kwietnia 2026 wchodzą ważne zmiany w urlopach rodzicielskich. Co się zmieni?

Prawa od pierwszego dnia pracy w zakresie urlopów rodzicielskich oraz nowe regulacje dotyczące sytuacji tragicznych w rodzinie wprowadzają realną ochronę prawną i większą elastyczność. Czy te zmiany zachęcą Brytyjczyków do rodzicielstwa?

Pomoc dla gospodarstw domowych korzystających z oleju opałowego

Rząd zapowiedział, że przeznaczy 53 mln funtów na pomoc dla gospodarstw domowych w pokryciu kosztów oleju opałowego.

Przeczytaj także