
Studija pokazala da alati poput ChatGPT-a nisu pouzdaniji od internetskog pretraživanja u postavljanju dijagnoza.
Alati umjetne inteligencije, uključujući popularne sustave poput ChatGPT-a, nisu dovoljno pouzdani za dijagnosticiranje bolesti, zaključak je istraživanja objavljenog u časopisu Nature Medicine. Rezultati dolaze u trenutku kada se širom svijeta vodi rasprava o potencijalu umjetne inteligencije u pružanju medicinskih informacija, posebno zbog dugih lista čekanja za liječničke preglede u mnogim državama.
Istraživanje provedeno na 1300 sudionika u Ujedinjenom Kraljevstvu pokazalo je da više AI modela – uključujući ChatGPT, Llamu i Command R+ – ne daje bolje rezultate od klasičnog internetskog pretraživanja kada se korisnici raspituju o simptomima.
„Vlada veliko uzbuđenje zbog modela umjetne inteligencije, ali oni jednostavno nisu spremni zamijeniti liječnika“,izjavila je Rebecca Payne, istraživačica sa Sveučilišta u Oxfordu i suautorica studije.
Sudionici istraživanja nisu bili stvarno bolesni, već su sudjelovali u simulaciji. Dobivali su deset različitih skupova simptoma za koje postoji medicinski konsenzus o dijagnozi, a točnu procjenu uspjela je dobiti tek trećina sudionika – što je rezultat usporediv s onima koji su koristili običnu internetsku tražilicu.
Iako su neka ranija istraživanja pokazala da modeli umjetne inteligencije mogu uspješno rješavati testove medicinskog znanja, primjerice pitanja s višestrukim izborom, ova studija ističe da se rezultati pogoršavaju u stvarnim interakcijama s korisnicima. Razlog tome je što ljudi često ne opisuju simptome precizno ili izostavljaju ključne informacije, što otežava pravilnu procjenu.
Zaključak istraživanja naglašava da umjetna inteligencija može biti koristan izvor informacija, ali ne može zamijeniti stručnu medicinsku procjenu, te da bi savjete o zdravlju uvijek trebalo provjeriti s kvalificiranim zdravstvenim djelatnicima.
- Oznake:
- ChatGPT