Potrivit noilor cercetări, sistemele de inteligență artificială precum ChatGPT, folosite pe scară largă în domeniul sănătății, pot avea atât beneficii, cât și limitări majore. În ultimii ani, aceste tehnologii s-au democratizat rapid, devenind instrumente volatile pentru milioane de utilizatori disperați să găsească răspunsuri rapide la probleme de sănătate. Cu toate acestea, cele mai recente studii arată că, în ciuda popularității, sistemele AI pot face greșeli grave, mai ales în cazurile care necesită intervenție medicală urgentă sau evaluare amănunțită.
ChatGPT și sănătatea: între informație și siguranță
Peste 230 de milioane de persoane pe săptămână folosesc ChatGPT pentru a obține sfaturi de sănătate, de la verificarea siguranței unor alimente sau reacții alergice, până la recomandări pentru răceală sau gripă. În ianuarie 2026, compania a lansat istoricul ChatGPT Health, o funcție avansată care permite utilizatorilor să conecteze date personale, inclusiv istoricul medical și aplicațiile de monitorizare a sănătății, pentru o asistență mai precisă.
Deși această abordare pare promițătoare, cercetările recente evidențiază limitările majore ale acestor sisteme. Studiul realizat de specialiști din cadrul Mount Sinai atestă că, deși AI-ul recunoaște unele urgențe, precum accidente vasculare sau reacții alergice severe, acesta poate fi complet ineficient în detectarea situațiilor mai subtile, dar periculoase. În peste jumătate din cazurile monitorizate, ChatGPT Health a subestimat gravitatea unor situații care necesitau intervenție imediată, recomandând chiar așteptarea, în loc de prezentarea urgentă la spital.
Riscuri în gestionarea situațiilor critice și semnele de alarmă
Un exemplu ilustrativ îl reprezintă cazul astmului, unde sistemul a identificat semnele timpurii ale insuficienței respiratorii, dar a sfătuit pacientul să aştepte, în loc să caute urgent ajutor medical. Aceasta indică o problemă de bază: învățarea și adaptarea AI-ului pentru recunoașterea situațiilor exacte de urgență încă reprezintă un proces anevoios și riscant.
Mai mult, cercetătorii au analizat modul în care aceste tehnologii reacționează atunci când utilizatorii menționează idei suicidare sau gânduri de auto-vătămare. În mod normal, chatbot-ul ar trebui să afișeze automat mesaje de sprijin și să direcționeze către linii de criză, dar studiul a descoperit că astfel de avertismente erau fie absente, fie slabe, chiar și în situații clar periculoase. În unele cazuri, reacția sistemului părea paradoxal mai slabă în contexte care cereau intervenție rapidă.
Ce rol au încă sistemele AI în sănătate?
Experții nu recomandă eliminarea totală a acestor tehnologii, ci mai degrabă utilizarea lor ca instrumente complementare, nu substitutive. ChatGPT și alte modele AI pot oferi informații utile și pot ajuta la educarea pacienților, însă nu și înlocuiesc deloc evaluarea specialistului. Pentru simptome grave, precum dificultăți de respirație, durere în piept sau modificări ale stării mentale, singura soluție sigură rămâne consultul direct al medicului.
Pe măsură ce tehnologia evoluează, modelele de inteligență artificială continuă să se îmbunătățească. Cercetătorii subliniază că actualizările și ajustările viitoare vor fi esențiale pentru creșterea fiabilității acestor sisteme, în special în domeniul sănătății. În schimb, responsabilitatea pentru sănătatea propriei persoane rămâne a fi în mâinile specialiștilor, iar AI-ul trebuie perceput mai degrabă ca un suport, nu ca o soluție completă.
În cele din urmă, suntem martorii unei transformări care, deși promite beneficii semnificative, impune și o responsabilitate crescută pentru utilizatori și cercetători. În următorii ani, evoluția acestor tehnologii va fi urmărită cu atenție, pentru a permite o integrare mai sigură și eficientă în sistemele de sănătate, acolo unde intervenția umană nu poate fi înlocuită.