Portal Sky News przekazał, że brytyjska medycyna rodzinna znalazła się w punkcie zwrotnym. Generatywna sztuczna inteligencja staje się dziś elementem codziennej praktyki klinicznej. Co czwarty lekarz rodzinny przyznaje, że korzysta z narzędzi takich jak ChatGPT w trakcie pracy. Mimo że zdecydowana większość personelu nie przeszła oficjalnego szkolenia.
Zaledwie w rok technologia, dotąd traktowana z dystansem, urosła do rangi realnego wsparcia przy dokumentacji, analizie przypadków czy planowaniu leczenia.
AI błyskawicznie wchodzi do gabinetów lekarskich
Najświeższe w Wielkiej Brytanii badanie przeprowadzone w relacji rok do roku dotyczące generatywnej AI w medycynie rodzinnej objęło ponad tysiąc lekarzy. Wyniki budzą jednocześnie podziw i niepokój. Aż 95 proc. przepytanych użytkowników AI deklaruje, że nigdy nie odbyło profesjonalnego szkolenia z obsługi tych narzędzi. Ponadto 85 proc. twierdzi, że pracodawcy nie tylko nie wymagają ich stosowania, ale nawet do nich nie zachęcają.
W praktyce oznacza to, że lekarze uczą się technologii „na własną rękę”, kierują się intuicją i potrzebą usprawnienia pracy. Przed rokiem podobne rozwiązania stosował jeden na pięciu lekarzy – dzisiaj już jeden na czterech. Tempo zmian jest więc błyskawiczne.
Sztuczna inteligencja to pomocny, ale niebezpiecznie omylny asystent lekarza
Zespół badawczy z Uppsala University, Basel University, Karolinska Institute, University of Manchester oraz Harvard Medical School odnotował, że lekarze najczęściej wykorzystują AI do pisania dokumentacji (35 proc.), przygotowywania diagnozy różnicowej (27 proc.) oraz wspierania procesu leczenia lub tworzenia skierowań (24 proc.).

W czym tkwi problem? A mianowicie w tym, że pozbawiona nadzoru sztuczna inteligencja w medycynie to z jednej strony szansa, a z drugiej zagrożenie. Modele generatywne mogą podawać błędne informacje – halucynować – i odzwierciedlać uprzedzenia obecne w danych szkoleniowych, co prowadzi do algorytmicznej dyskryminacji. Często jako problem wskazywane są również obawy związane z ochroną danych pacjentów.
Technologia musi iść w parze z zaufaniem pacjentów
NHS England wskazuje, że AI już dziś pomaga skracać czas diagnozy, zmniejszać obciążenie biurokracją i ułatwiać interpretację wyników badań – ale aby ta technologia była bezpieczna, niezbędne są solidne zabezpieczenia, szkolenia oraz otwarta komunikacja z pacjentami.
Podobne stanowisko prezentuje rząd Szkocji, który widzi w AI szansę na poprawę planowania i dostępności usług zdrowotnych, jednocześnie zwracając uwagę na obowiązek ścisłej współpracy z personelem medycznym.

