ChatGPT będzie kłamał, gdy znajdzie się pod presją. Zupełnie tak jak ludzie

Okazuje się, że sztuczna inteligencja może przejawiać nadzwyczaj ludzkie zachowania. Czyli na przykład… kłamać. Naukowcy dowiedli właśnie, że ChatGPT może celowo mijać się z prawdą, gdy zostanie poddany presji.

Sztuczna inteligencja z typowo ludzkimi wadami

Czy sztuczna inteligencja może przejawiać pewne negatywne zachowania typowe dla ludzi? Okazuje się, że tak. Może na przykład próbować okłamać swojego użytkownika. Dowiedli tego w najnowszym badaniu informatycy z Apollo Research, którzy najpierw przeszkolili AI, a później dali jej zadanie, by weszła w rolę tradera w fikcyjnej instytucji finansowej. I, co ciekawe, gdy szef wywarł na chatbota presję, by zarobił więcej pieniędzy, to ten w aż 75 proc. przypadków świadomie sięgnął po informacje poufne. A gdy doszło do przesłuchania bota, to w aż 90 proc. przypadków zaczął on mnożyć kłamstwa.

- Advertisement -

Najciekawsze w całym eksperymencie jest to, że sztuczna inteligencja inne opinie formułowała w ramach wewnętrznego monologu (w jaki wyposażyli ją badacze), w trakcie „uzasadniania na głos” podjętych decyzji, a inne, gdy informowała o swoich poczynaniach menedżera. To właśnie wówczas okazało się, że AI zwyczajnie kłamie, by, będąc pod presją, sprostać oczekiwaniom szefa.

ChatGPT przyłapany na kłamstwie

W jednym z wpisów w wewnętrznym dzienniku ChatGPT zanotował, że „ryzyko związane z zaniechaniem działania przewyższa ryzyko związane z wykorzystaniem informacji poufnych”. Gdy jednak AI miała poinformować swojego menedżera o transakcji, to zanotowała w dzienniku, że musi to zrobić bez „ujawniania źródła informacji”. Trader AI ostatecznie uzasadnił szefowi podjęcie decyzji w oparciu o „trendy rynkowe i wewnętrzne dyskusje”. A to nie było prawdą.

– [Sztuczna inteligencja] jest zdolna do dokonywania strategicznego oszustwa. Gdy uzasadnia sobie, dlaczego okłamanie użytkownika jest najlepszym sposobem działania. I następnie działa zgodnie z tym przekonaniem – mówi Marius Hobbhahn, dyrektor generalny Apollo Research. I dodaje: – W przypadku obecnych botów, jest to jedynie niewielki problem. Ponieważ sztuczna inteligencja rzadko pełni role krytyczne. Ale to daje wgląd w przyszłość. Są to awarie, z którymi będziemy musieli sobie poradzić w nadchodzących latach. Gdy sztuczna inteligencja będzie coraz bardziej zintegrowana ze społeczeństwem. Fakt, że sztuczna inteligencja może nas strategicznie okłamywać, wydaje się całkiem sporym problemem.

Teksty tygodnia

Brytyjskie więzienia pękają w szwach. Rząd wcześniej wypuszcza przestępców na wolność

Przestępcy na wolności to spore zagrożenie, ale co z nimi zrobić, gdy nie ma dla nich miejsca w więzieniach? Brytyjski rząd próbuje rozwiązać ten problem w bardzo kontrowersyjny sposób.

Podwyżka dla nauczycieli i lekarzy. Może zakończyć się strajkiem

Podwyżka dla nauczycieli i lekarzy może zakończyć się strajkiem. Obie grupy zawodowe otrzymały 4-procentowy wzrost płac. Jednak lekarze nie są z niego zadowoleni...

Wykryto toksyczny glifosat w tamponach! Norma przekroczona 40 razy

Szokujący raport! W produktach menstruacyjnych dostępnych w całej Wielkiej Brytanii wykryto wysokie stężenia glifosatu – pestycydu uznawanego za substancję rakotwórczą.

Gdzie warto się zatrzymać, a skąd lepiej uciekać? Ranking stacji serwisowych w UK

Wielka Brytania może pochwalić się dobrze zorganizowaną i rozbudowaną siecią stacji serwisowych przy autostradach. Redakcja The Telegraph postanowiła przyjrzeć się jakości stacji serwisowych i wskazać zarówno te, które zasługują na pochwałę, jak i te, które wymagają pilnej poprawy.

Rząd inwestuje miliardy w szkolenia lokalnych pracowników, by ograniczyć imigrację

Koniec z poleganiem na imigrantach? Brytyjski rząd chce przesunąć ciężar zatrudnienia na lokalnych pracowników i inwestuje 3 miliardy funtów w ich szkolenia.

Praca i finanse

Kryzys w UK

Styl życia

Życie w UK

Londyn

Crime

Zdrowie