Umelá inteligencia vytvorená s cieľom pomáhať ľuďom zlepšovať ich životy môže mať aj svoju tienistú stránku. Netradičný prípad pacienta, ktorý sa riadil radami ChatGPT, skončil nešťastne – hospitalizáciou s vážnymi psychickými dôsledkami. Tento prípad podčiarkuje riziká spojené s používaním AI v medicíne bez adekvátnej odbornej kontroly.
Chybná rada s vážnymi dôsledkami
Šesťdesiatročný muž si na základe domnienky, že ho sused plánuje otráviť kuchynskou soľou, vyhľadal radu u ChatGPT. Po prečítaní článkov o nežiaducich účinkoch chloridu sodného získal odpoveď, ktorá mu odporúčala použiť bromid sodný ako náhradu soli. Výsledkom bola závažná otrava týmto chemickým prvkom, známa ako bromizmus.
Prejavy bromizmu u muža zahŕňali extrémny smäd a paranoju, ktorú umocňovala jeho nedôvera k dostupnej vode. Situácia vyústila do rozhodnutia destilovať vlastnú vodu, čo jeho zdravotný stav len zhoršilo. Po prijatí do nemocnice sa u neho objavili príznaky psychózy, sluchové a vizuálne halucinácie, pričom jeho stav si vyžiadal hospitalizáciu na psychiatrickom oddelení. Tento prípad zvýšil pozornosť na nepredvídateľné riziká pri používaní AI na zdravotné účely bez dohľadu špecialistov.

Témou je znova zabudnutý bromizmus
Bromizmus, choroba spojená s prebytkom brómu v organizme, bol kedysi častý vďaka širokému používaniu bromidov v medicíne. Tieto soli sa na prelome 19. a 20. storočia využívali pri liečbe epilepsie či na upokojenie. Ich postupné nahradenie bezpečnejšími alternatívami však spôsobilo, že bromizmus sa dnes považuje za zriedkavý. Od osemdesiatych rokov 20. storočia sa v USA obmedzilo používanie bromidov v dostupných liekoch, čo prispelo k jeho výskytu takmer výlučne v odborných historických textoch.
Znovuoživenie tohto ochorenia umelou inteligenciou poukazuje na nebezpečnú kombináciu nevedomosti užívateľov a evidentných limitácií tejto technológie. Neschopnosť ChatGPT poskytnúť kontextovo relevantné, bezpečné a zodpovedné rady viedla priamo k vážnemu poškodeniu zdravia pacienta. Tento prípad tak dokazuje, že technológie by mali byť kontrolované a upravené pre bezpečné zapojenie do reálnej praxe.
AI bez zodpovednosti, lekári s kontrolou
Prípad ukazuje, že umelá inteligencia, akokoľvek sofistikovaná, nemôže nahradiť odborníkov v medicíne. AI nie je schopná hodnotiť osobný a klinický kontext ani zohľadniť individuálnu anamnézu pacienta. Funguje ako extrémne pokročilá štatistická analýza, ktorá však môže generovať „halucinácie“ – vymyslené odpovede pôsobiace dôveryhodne, no založené na nesprávnych predpokladoch.
Odborníci pripomínajú, že umelá inteligencia nemá empatiu, etický rámec či pocit zodpovednosti. Na rozdiel od lekárov, ktorí sú viazaní právnymi a profesionálnymi zásadami, AI nesie nulovú zodpovednosť za svoje rady. Postavenie umelej inteligencie ako nástroja na zlepšenie medicínskej praxe by teda malo byť prísne limitované na jej používanie pod dohľadom kvalifikovaných odborníkov.
Tento prípad je vážnym varovaním, že slepá dôvera v AI sa nemusí vyplatiť. Spotrebitelia by mali byť obozretní a pri otázkach týkajúcich sa zdravia sa vždy obrátiť na certifikovaných zdravotníckych odborníkov. Bezpečnosť a zodpovednosť v medicíne nemajú alternatívu.