ChatGPT będzie kłamał, gdy znajdzie się pod presją. Zupełnie tak jak ludzie

Okazuje się, że sztuczna inteligencja może przejawiać nadzwyczaj ludzkie zachowania. Czyli na przykład… kłamać. Naukowcy dowiedli właśnie, że ChatGPT może celowo mijać się z prawdą, gdy zostanie poddany presji.

Sztuczna inteligencja z typowo ludzkimi wadami

Czy sztuczna inteligencja może przejawiać pewne negatywne zachowania typowe dla ludzi? Okazuje się, że tak. Może na przykład próbować okłamać swojego użytkownika. Dowiedli tego w najnowszym badaniu informatycy z Apollo Research, którzy najpierw przeszkolili AI, a później dali jej zadanie, by weszła w rolę tradera w fikcyjnej instytucji finansowej. I, co ciekawe, gdy szef wywarł na chatbota presję, by zarobił więcej pieniędzy, to ten w aż 75 proc. przypadków świadomie sięgnął po informacje poufne. A gdy doszło do przesłuchania bota, to w aż 90 proc. przypadków zaczął on mnożyć kłamstwa.

Najciekawsze w całym eksperymencie jest to, że sztuczna inteligencja inne opinie formułowała w ramach wewnętrznego monologu (w jaki wyposażyli ją badacze), w trakcie „uzasadniania na głos” podjętych decyzji, a inne, gdy informowała o swoich poczynaniach menedżera. To właśnie wówczas okazało się, że AI zwyczajnie kłamie, by, będąc pod presją, sprostać oczekiwaniom szefa.

ChatGPT przyłapany na kłamstwie

W jednym z wpisów w wewnętrznym dzienniku ChatGPT zanotował, że „ryzyko związane z zaniechaniem działania przewyższa ryzyko związane z wykorzystaniem informacji poufnych”. Gdy jednak AI miała poinformować swojego menedżera o transakcji, to zanotowała w dzienniku, że musi to zrobić bez „ujawniania źródła informacji”. Trader AI ostatecznie uzasadnił szefowi podjęcie decyzji w oparciu o „trendy rynkowe i wewnętrzne dyskusje”. A to nie było prawdą.

– [Sztuczna inteligencja] jest zdolna do dokonywania strategicznego oszustwa. Gdy uzasadnia sobie, dlaczego okłamanie użytkownika jest najlepszym sposobem działania. I następnie działa zgodnie z tym przekonaniem – mówi Marius Hobbhahn, dyrektor generalny Apollo Research. I dodaje: – W przypadku obecnych botów, jest to jedynie niewielki problem. Ponieważ sztuczna inteligencja rzadko pełni role krytyczne. Ale to daje wgląd w przyszłość. Są to awarie, z którymi będziemy musieli sobie poradzić w nadchodzących latach. Gdy sztuczna inteligencja będzie coraz bardziej zintegrowana ze społeczeństwem. Fakt, że sztuczna inteligencja może nas strategicznie okłamywać, wydaje się całkiem sporym problemem.

Teksty tygodnia

Brytyjczycy obchodzą nowe przepisy, Polacy powinni być czujni

Właściciele domów w UK, w tym Polacy, unikają wyższego Council Tax dzięki lukom prawnym. Sprawdź, co się zmieniło i jak się przygotować.

Jeden funt z 2016 roku może być unikatem?

Numizmatyka i filatelistyka poszukują obiektów unikatowych. Na liście poszukiwanych jest niezwykła moneta. Jeden funt wybity w 2016 roku może być wart nawet 60 Funtów. Czy masz monetę we własnym portfelu?

Nadchodzi mała fala upałów. Jaka pogoda na maraton?

Synoptycy zapowiadają zbliżającą się małą falę upałów. Czy jednak pogoda na maraton w Londynie będzie sprzyjająca dla biegaczy?

Ogromny pożar w Londynie. Ponad 160 zgłoszeń do straży pożarnej

W Londynie płonie stacja transformatorowa. Wczesnym rankiem, około godziny 5:30, w dzielnicy St John's Wood w Londynie wybuchł pożar stacji transformatorowej przy Victoria Passage (NW8)

Sąsiedzi usłyszeli zwierzęcy krzyk, gdy Polka zabiła swojego syna piłą

Sąsiedzi twierdzą, że usłyszeli zwierzęcy krzyk, gdy Polka zabiła swojego 6-letniego niepełnosprawnego syna. Do tragedii doszło w Gendros.

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Zdrowie