Jeden online používateľ opísal život s bolesťou čeľuste roky po športovom zranení. Napriek viacerým skenom a návštevám špecialistov nebolo ponúkané žiadne jasné riešenie - kým jednotlivec nezadal svoje príznaky do jazykového modelu. AI navrhla konkrétny problém zarovnania a navrhla techniku polohovania jazyka. Po vyskúšaní bolesť zmizla.

Tento prípad, ktorý získal pozornosť na sociálnych sieťach, nie je ani zďaleka jedinečný. Iné príbehy opisujú pacientov, ktorí tvrdia, že nástroje AI správne interpretovali skenovanie alebo ponúkli presné diagnózy tam, kde lekárski odborníci neurobili. V jednom príklade sa matka, ktorá sa roky snaží získať diagnózu neurologických problémov svojho dieťaťa, obrátila na jazykový model. Po odoslaní záznamov a skenov dostala návrh, ktorý viedol k chirurgickému zákroku - a k výraznému zlepšeniu stavu dieťaťa.

AI priateľská k spotrebiteľovi mení spôsob, akým ľudia vyhľadávajú zdravotné poradenstvo. Éra „Dr. Google“ ustupuje novej fáze, kde konverzační agenti preberajú diagnostické úlohy. V reakcii na to univerzity, klinickí lekári a vývojári skúmajú, aké spoľahlivé sú tieto systémy, ako ich možno bezpečne integrovať do starostlivosti a ako sa vysporiadať s dezinformáciami, keď k nim dôjde.

Niektorí lekári sa už stretávajú s pacientmi používajúcimi nástroje AI počas liečby. Jeden hlásil prípad, keď frustrovaná pacientka, unavená čakaním, zadala svoje záznamy do chatbota AI a dostala presnú diagnózu. Namiesto toho, aby bol naštvaný, lekár to považoval za príležitosť lepšie pochopiť obavy pacienta.

Štúdie však ukazujú, že hoci AI môže byť sama o sebe veľmi presná, jej účinnosť klesá, keď sú ľudia v slučke. Chyby často vyplývajú z neúplných informácií zadaných do systému alebo nesprávnej interpretácie reakcií AI. V jednom experimente dve skupiny lekárov hodnotili identické prípady pacientov - jeden s podporou AI, druhý bez. Obe skupiny fungovali podobne, aj keď samotná AI dosiahla oveľa vyššiu diagnostickú presnosť.

Lekári tiež upozorňujú, že aj keď AI môže ponúknuť správnu diagnózu, nezohľadňuje nuansy jedinečnej situácie pacienta. Napríklad v starostlivosti o plodnosť môžu odporúčania založené výlučne na skóre životaschopnosti embrya prehliadať kritické faktory, ako je načasovanie biopsií alebo predchádzajúca reprodukčná anamnéza - podrobnosti, ktoré by skúsený lekár zvážil.

Pacienti sa niekedy presvedčia o konkrétnom postupe konania na základe toho, čo im povedala AI. Aj keď návrh AI nemusí byť nesprávny, nemusí byť ani optimálny. Skúsení lekári tvrdia, že na určenie správnej liečby existuje veda aj umenie a AI často chýba schopnosť kombinovať tieto dve.

V reakcii na to niektorí vývojári AI pracujú na nástrojoch prispôsobených na lekárske použitie. Jedna veľká spoločnosť uviedla na trh referenčný systém vyvinutý so vstupom stoviek lekárov na vyhodnotenie výkonu AI v simulovaných zdravotných scenároch. Tvrdia, že najnovšia verzia ich modelu sa môže zhodovať alebo prekonať lekárov pri vytváraní kvalitných reakcií.

Ďalšia technologická firma predstavila diagnostickú platformu pre klinických lekárov, ktorá využíva viacero jazykových modelov pracujúcich v tandeme - napodobňujúce dynamiku skupiny špecialistov. V štúdiách výrazne prekonala ľudských lekárov.

Keďže tieto nástroje získavajú na popularite, niektoré lekárske školy teraz učia študentov, ako s nimi pracovať - a ako o nich komunikovať s pacientmi. Jeden pedagóg porovnal situáciu s tým, keď pacienti prvýkrát začali používať vyhľadávače pre lekárske informácie, a povedal, že v dnešnom svete môže byť lekár, ktorý nepoužíva AI, považovaný za krivkou.

V praxi však lekári stále často pôsobia ako strážcovia informácií. Štúdie ukazujú, že majú tendenciu dôverovať AI iba vtedy, keď súhlasí s ich hodnotením, a odmietajú ju inak. V jednom prípade bolo zriedkavé ochorenie správne identifikované AI po nesprávnej diagnostikovaní niekoľkými odborníkmi. Model dokonca navrhol bežnejšiu - ale menej pravdepodobnú - alternatívnu diagnózu, ktorú ľudia nesprávne zvolili.

Ďalšia veľká štúdia zahŕňajúca viac ako 1 200 účastníkov ukázala, že keď AI fungovala nezávisle, poskytla správnu diagnózu takmer v 95% prípadov. Keď však ľudia používali AI ako sprievodcu, miera úspešnosti klesla iba na jednu tretinu. Problém často spočíval vo vstupe - keď používatelia vynechali kritické príznaky, AI ponúkla zavádzajúce rady. Napríklad v prípade náhleho nástupu bolesti hlavy a stuhnutosti krku by správnym krokom bola okamžitá lekárska pomoc, ale keď nebola spomenutá náhla povaha príznakov, AI navrhla jednoduchú úľavu od bolesti doma.

Bez ohľadu na to, či je obsah presný alebo nie, AI často poskytuje odpovede v sebavedomom, vyleštenom tóne, ktorý je autoritatívny. Na rozdiel od tradičného vyhľadávača, ktorý poskytuje odkazy na ďalšie čítanie, nástroje AI vytvárajú štruktúrovaný text, ktorý vytvára dojem konečnosti - aj keď sú nesprávne. To môže byť nebezpečne zavádzajúce.