Na jednom internetovém fóru uživatel sdílel zkušenost s dlouhodobým problémem s čelistí, který přetrvával několik let po sportovním úrazu. Lékaři si nevěděli rady, avšak poté, co popsal potíže jazykovému modelu, obdržel návrh na konkrétní typ problému a jednoduchou techniku korekce. Vyzkoušel ji – a obtíže ustoupily. Tato zkušenost obletěla internet a připojila se k dalším podobným případům, kdy uživatelé tvrdí, že nástroje s umělou inteligencí přesně vyhodnotily zobrazovací vyšetření nebo navrhly diagnózy, které specialisté přehlédli. Například v jednom případu matka dítěte s neurologickým problémem získala po dlouhých letech a mnoha lékařských návštěvách odpověď právě od jazykového modelu – a následný zákrok jejího syna vedl k významnému zlepšení jeho stavu.

Snadno dostupné nástroje založené na AI mění způsob, jakým lidé vyhledávají informace o zdravotním stavu. Zatímco dříve se pacienti obraceli na vyhledávače, nyní dávají přednost konverzaci s jazykovými modely. Lékařské fakulty, odborníci i vývojáři se snaží reagovat na tuto změnu a zkoumají, jak přesné tyto systémy jsou a jak s nimi pacienti i lékaři mohou bezpečně pracovat. Během hospitalizační péče se již objevují případy, kdy pacienti využívají AI v reálném čase. Například jedna pacientka nespokojená s čekáním poskytla nástroji své lékařské údaje a obdržela diagnózu, která se ukázala jako správná. Pro některé lékaře je to příležitost zapojit se do diskuze a pochopit, co pacienti hledají. Jiní však zůstávají skeptičtí, zejména když výstupy AI odporují jejich závěrům.

Výzkumy ukazují, že i když samotná AI může v určitých situacích dosahovat vysoké přesnosti, jakmile ji začnou používat lidé, přesnost se snižuje. Uživatelé mohou například poskytnout neúplné informace nebo ignorovat důležité detaily ve výstupech nástroje. V jedné studii dvě skupiny lékařů řešily identické případy – jedna s pomocí AI, druhá bez ní. Výsledky byly téměř totožné, přestože AI sama o sobě dosahovala výrazně vyšší úspěšnosti. Zkušenosti některých specialistů potvrzují, že i když AI nabídne správnou diagnózu, nemusí zohlednit specifika jednotlivého případu. Například při asistované reprodukci mohou nástroje navrhovat postupy bez zohlednění detailů jako je stav děložní sliznice, předchozí neúspěchy nebo načasování biopsie – faktory, které v klinické praxi zásadně ovlivňují rozhodnutí.

Někteří pacienti pak přicházejí s jasnou představou o další léčbě, která vychází z doporučení AI. Tyto návrhy nemusí být nesprávné, ale často opomíjejí individuální kontext. Zkušenost a praxe lékaře tak zůstávají nenahraditelnou součástí rozhodovacího procesu. Reakce technologických firem na tyto výzvy zahrnují vývoj specializovaných platforem. Například jeden z největších vývojářů jazykových modelů uvedl systém pro hodnocení odpovědí AI na zdravotní dotazy, který vznikl ve spolupráci s lékaři z celého světa. Testování ukázalo, že novější verze AI modelů jsou schopné generovat odpovědi srovnatelné, nebo dokonce lepší než ty od odborníků. Jiná firma představila nástroj pro zdravotnický personál, který využívá více jazykových modelů současně a simuluje kolektivní rozhodování expertů. Při testování dosáhl výrazně vyšší přesnosti než jednotliví lékaři.

Současně s vývojem technologií dochází i ke změnám ve vzdělávání. Některé lékařské fakulty již nabízejí kurzy, kde se budoucí lékaři učí, jak efektivně pracovat s těmito nástroji a jak o jejich použití komunikovat s pacienty. Zkušenosti ukazují, že někteří lékaři mají tendenci důvěřovat AI jen tehdy, když souhlasí s jejich vlastními závěry, a ignorují ji, pokud názor nástroje odporuje jejich úsudku. V jednom složitém případě AI správně identifikovala vzácnou nemoc, kterou specialisté původně přehlédli – přestože nabídla i alternativní, častější diagnózu, považovala ji za méně pravděpodobnou. Tento případ poukázal na potenciál AI jako druhého názoru.

Další studie s více než tisícovkou účastníků odhalila, že AI při samostatném použití dosahovala vysoké úspěšnosti, ale jakmile byli zapojeni lidé, správná diagnóza se objevila pouze v třetině případů. Často šlo o rozdíly ve vstupních informacích – pokud uživatel nezmínil klíčové symptomy, výstup byl zavádějící. Navzdory těmto limitům AI odpovědi často působí přesvědčivě díky srozumitelnému a strukturovanému jazyku. To může vzbuzovat důvěru i v případech, kdy je obsah nepřesný. Na rozdíl od běžného internetového vyhledávání, kde si uživatel musí jednotlivé zdroje ověřit, jazykový model nabízí výstup jako hotový celek – což může vést k falešnému pocitu jistoty.