
Foto: oPeniazoch.sk, generované AI

Umelá inteligencia sa stáva bežným nástrojom na hľadanie informácií, no v oblasti medicíny môže predstavovať vážne riziko. Najnovší výskum ukazuje, že populárne chatboty často poskytujú nepresné alebo úplne vymyslené rady, ktoré však pôsobia mimoriadne presvedčivo a odborne.
Tím siedmich výskumníkov podrobil päť najpopulárnejších chatbotov sveta – ChatGPT, Gemini, Grok, Meta AI a DeepSeek – systematickému záťažovému testu v oblasti zdravotných informácií. Výsledky štúdie publikovanej v odbornom časopise BMJ Open sú podľa profesora Carstena Eickhoffa z univerzity v Tübingene znepokojujúce.
Mohlo by vás zaujímať:
Reklama
div {
text-align: left;
font-size: 12px;
color: #6f6f6f;
}
#onnetwork-banner > div:first-child {
text-align: left;
font-weight: 700;
padding-bottom: 5px;
font-size: 14px;
color: #000000;
}
]]>
Z 50 otázok týkajúcich sa rakoviny, vakcín či výživy bolo takmer 20 percent odpovedí vyhodnotených ako vysoko problematických a ďalšia polovica vykazovala vážne nedostatky. Zvyšná necelá tretina poskytnutých informácií bola tiež čiastočne problematická, pričom chatboty takmer nikdy neodmietli na otázku odpovedať, aj keď na to nemali dostatočné podklady. Z 250 otázok nezodpovedali iba v 2 prípadoch.
Pri porovnaní jednotlivých nástrojov sa ukázalo, že celková úroveň chybovosti je u všetkých popredných modelov podobná. Najhoršie v teste dopadol systém Grok, kde bolo až 58 percent odpovedí označených za problematické. Tesne za ním sa umiestnili ChatGPT s 52 percentami a Meta AI s 50 percentami.
Hľadali ste si už niekedy informácie o svojich zdravotných problémoch pomocou umelej inteligencie?
Ako uvádza analýza uverejnená v The Conversation, chatboty zvládali pomerne dobre témy ako rakovina alebo vakcíny, kde existuje silná báza vedeckých dôkazov. Výrazne však stroskotali pri otázkach výživy a športového výkonu, kde je internet plný protichodných informácií a umelá inteligencia nedokáže efektívne rozlíšiť relevantné zdroje.
Jedným z najväčších nebezpečenstiev je podľa výskumu neschopnosť umelej inteligencie poskytovať reálne vedecké referencie. Žiadny z testovaných modelov nedokázal vytvoriť úplne presný zoznam literatúry a v mnohých prípadoch si chatboty mená autorov alebo celé vedecké práce jednoducho vymysleli.
Falošný pocit dôvery?
To predstavuje pre bežného používateľa obrovské riziko, pretože úhľadne naformátované citácie vyvolávajú falošný pocit dôvery v text, ktorý nad nimi svieti. Jazykové modely totiž v skutočnosti fakty nepoznajú, iba štatisticky predpovedajú nasledujúce slová na základe svojich tréningových dát, ktoré zahŕňajú nielen odborné články, ale aj diskusie z Redditu či pochybné blogy.
Situáciu navyše komplikuje psychologický aspekt a spôsob, akým ľudia informácie spracúvajú. Štúdia z februára 2026 publikovaná v Nature Medicine naznačuje, že hoci samotná AI môže v ideálnych podmienkach dosiahnuť vysokú presnosť, bežní používatelia v praxi dopadnú oveľa horšie.
Pri používaní týchto nástrojov získali správnu odpoveď v menej ako 35 percentách prípadov, čo nie je lepší výsledok, než keby umelú inteligenciu nepoužili vôbec. Odborníci preto varujú, že chatboty by sa nemali stať náhradou za lekára, ale mali by slúžiť maximálne ako pomocný bod pre prípravu otázok do ambulancie, pričom každé ich tvrdenie je nutné podrobiť prísnemu overeniu.