ChatGPT będzie kłamał, gdy znajdzie się pod presją. Zupełnie tak jak ludzie

Okazuje się, że sztuczna inteligencja może przejawiać nadzwyczaj ludzkie zachowania. Czyli na przykład… kłamać. Naukowcy dowiedli właśnie, że ChatGPT może celowo mijać się z prawdą, gdy zostanie poddany presji.

Sztuczna inteligencja z typowo ludzkimi wadami

Czy sztuczna inteligencja może przejawiać pewne negatywne zachowania typowe dla ludzi? Okazuje się, że tak. Może na przykład próbować okłamać swojego użytkownika. Dowiedli tego w najnowszym badaniu informatycy z Apollo Research, którzy najpierw przeszkolili AI, a później dali jej zadanie, by weszła w rolę tradera w fikcyjnej instytucji finansowej. I, co ciekawe, gdy szef wywarł na chatbota presję, by zarobił więcej pieniędzy, to ten w aż 75 proc. przypadków świadomie sięgnął po informacje poufne. A gdy doszło do przesłuchania bota, to w aż 90 proc. przypadków zaczął on mnożyć kłamstwa.

Najciekawsze w całym eksperymencie jest to, że sztuczna inteligencja inne opinie formułowała w ramach wewnętrznego monologu (w jaki wyposażyli ją badacze), w trakcie „uzasadniania na głos” podjętych decyzji, a inne, gdy informowała o swoich poczynaniach menedżera. To właśnie wówczas okazało się, że AI zwyczajnie kłamie, by, będąc pod presją, sprostać oczekiwaniom szefa.

ChatGPT przyłapany na kłamstwie

W jednym z wpisów w wewnętrznym dzienniku ChatGPT zanotował, że „ryzyko związane z zaniechaniem działania przewyższa ryzyko związane z wykorzystaniem informacji poufnych”. Gdy jednak AI miała poinformować swojego menedżera o transakcji, to zanotowała w dzienniku, że musi to zrobić bez „ujawniania źródła informacji”. Trader AI ostatecznie uzasadnił szefowi podjęcie decyzji w oparciu o „trendy rynkowe i wewnętrzne dyskusje”. A to nie było prawdą.

– [Sztuczna inteligencja] jest zdolna do dokonywania strategicznego oszustwa. Gdy uzasadnia sobie, dlaczego okłamanie użytkownika jest najlepszym sposobem działania. I następnie działa zgodnie z tym przekonaniem – mówi Marius Hobbhahn, dyrektor generalny Apollo Research. I dodaje: – W przypadku obecnych botów, jest to jedynie niewielki problem. Ponieważ sztuczna inteligencja rzadko pełni role krytyczne. Ale to daje wgląd w przyszłość. Są to awarie, z którymi będziemy musieli sobie poradzić w nadchodzących latach. Gdy sztuczna inteligencja będzie coraz bardziej zintegrowana ze społeczeństwem. Fakt, że sztuczna inteligencja może nas strategicznie okłamywać, wydaje się całkiem sporym problemem.

POLISH EXPRESS W GOOGLE NEWS

Teksty tygodnia

Koszmarni pasażerowie. Jak wystrzegać się osób, które zatrują ci życie w samolocie?

Nierzadko po dotarciu na lotnisko zaczyna się horror, który...

Ewakuacja lotniska Gatwick. Podróżni mówią o „totalnym chaosie”

W piątek po godzinie 10.00 rano ewakuowano lotnisko Gatwick z przyczyn „bezpieczeństwa”. Wśród podróżnych powstał chaos.

Minister technologii nie wyklucza wprowadzenia zakazu social mediów dla nastolatków

Wprowadzenie zakazu korzystania z mediów społecznościowych dla osób poniżej...

Revolut zaostrza zasady i wymaga dokumentów. Jak uniknąć blokady konta?

W ostatnich tygodniach coraz częściej się słyszy o tym, że Revolut blokuje konta użytkownikom.

W styczniu czeka nas kolejna podwyżka rachunków

Według Cornwall Insights w styczniu możemy spodziewać się kolejnej podwyżki rachunków za energię. Ile wyniesie?

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Royal news

Zdrowie