SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

ChatGPT w medycynie: ponad połowa diagnoz błędna

Silnik sztucznej inteligencji ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.

fot. Shutterstock.comfot. Shutterstock.com

ChatGPT nie daje zgodnych z faktami diagnoz „mimo obszernej informacji, na której był trenowany”, a poprawne odpowiedzi dawał tylko w 49 proc. przypadków - do takich ustaleń doszli naukowcy z Shulich School of Medicine & Dentistry na Uniwersytecie Zachodniego Ontario (Western University). Artykuł o przydatności ChatGPT w diagnozach ukazał się właśnie w PLOS One.

Medyczne umiejętności ChatGPT przetestowano na 150 przypadkach pobranych z publicznej bazy danych Medscape, używanej m.in. do sprawdzania umiejętności diagnostycznych lekarzy. Testy modelu prowadzono między wrześniem 2021 a styczniem 2023 r. Tylko w 74 przypadkach (49 proc.) diagnoza sztucznej inteligencji była trafna. „ChatGPT ma problemy z interpretacją wyników laboratoryjnych, wyników obrazowania i pomijał niektóre kluczowe informacje ważne dla diagnozy” – napisali autorzy „Oceny ChatGPT jako narzędzia diagnostycznego dla studentów medycyny i klinicystów” (Evaluation of ChatGPT as a diagnostic tool for medical learners and clinicians).

CZYTAJ TEŻ: Google wdraża sztuczną inteligencję do wyszukiwarki w kolejnych krajach

Będziemy potrzebować intensywnego nadzoru nad tym jak (sztuczna inteligencja - przyp. PAP) jest używana, by zapewnić bezpieczeństwo pacjenta i by upewnić się, że ten rodzaj technologii AI będzie rozważnie udostępniany” - komentował cytowany w komunikacie zamieszczonym na stronie Uniwersytetu Zachodniego Ontario dr Amrit Kirpalani, profesor Schulich School of Medicine & Dentistry, współautor badania. Dodał, że korzystaniu z danych dostępnych w internecie musi towarzyszyć sprawdzanie ich poprawności na podstawie badań naukowych, analizowanych przez innych badaczy oraz rozwijanie umiejętności komunikowania się z modelami AI.

Jak myli się ChatGPT w diagnozowaniu pacjentów

Badacze zidentyfikowali przyczyny błędnych odpowiedzi, związane z tym, jak tworzone są duże modele językowe. „Konieczne jest rozważenie roli halucynacji AI, ponieważ mogą w znaczący sposób wpłynąć na trafność podawanej informacji. Halucynacje odnoszą się do odpowiedzi tworzonych przez model AI, które wydają się spójne, ale nie bazują na informacji faktycznej, pochodząc z pominięć, błędów lub przeoptymalizowania danych, na których trenowany jest model lub jego niezdolności do poprawnego rozeznawania w dwuznacznych lub niekompletnych danych wejściowych”.

Błędy w diagnozowaniu mogą pochodzić także z uprzedzeń i błędów samych lekarzy, zawartych w informacji medycznej używanej do treningu. „Znaczenie ludzkiego nadzoru jest nie do przecenienia” - podkreślili autorzy, zwracając też uwagę na takie aspekty jak określenie odpowiedzialności za ewentualne błędy wynikające z wykorzystania modeli AI.

>>> Praca.Wirtualnemedia.pl - tysiące ogłoszeń z mediów i marketingu

Jednak badacze z Uniwersytetu Zachodniego Ontario wskazali też na możliwości użycia ChatGPT jako narzędzia pomocniczego. Przy wszystkich wadach ChatGPT, które dyskwalifikują to narzędzie jako diagnostę, model w większości przypadków dawał poprawne oceny wykluczające część diagnoz różnicowych oraz poprawnie proponował dalsze kroki w tworzeniu diagnozy. Ponadto choć tylko 49 proc. diagnoz było trafnych, to już np. zdolność do odrzucania niepoprawnych opcji odpowiedzi była znacznie większa – wynosiła 74,33 proc.

Zauważono też, że model „był w stanie analizować złożone tematy medyczne i dokonywać syntezy w sposób łatwy do zrozumienia”. Autorzy pracy uznali to za korzystną opcję uzyskiwania uproszczonych wyjaśnień dla studentów medycyny i podkreślili, że z myślą właśnie o takim wykorzystaniu warto rozwijać użycie modeli AI.

Dołącz do dyskusji: ChatGPT w medycynie: ponad połowa diagnoz błędna

10 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Al
AI mimo całego tego hype-a nie jest bezbłędny (nawet na proste pytania AI potrafi "halucynować"). To wciąż dopiero początki (aczkolwiek bardzo obiecujące) i należy traktować tą technologię jako narzędzie wspomagające, ale nie całkowicie wyręczające.
odpowiedź
User
MK
Na litość Boską... Jak mozna oczekiwać od programu do generowania tekstu poprawnej diagnozy medycznej? ChatGPT zgaduje jakie slowa powinny pojawić się w odpowiedzi na zasadzie prawdopodobieństwa. On nie rozumie tych słów!
odpowiedź
User
MK
Na litość Boską... Jak mozna oczekiwać od programu do generowania tekstu poprawnej diagnozy medycznej? ChatGPT zgaduje jakie slowa powinny pojawić się w odpowiedzi na zasadzie prawdopodobieństwa. On nie rozumie tych słów!
odpowiedź