Diverse

ChatGPT, anchetat pentru „avocatură” ilegală: Ce riscă inteligența artificială?

ChatGPT, anchetat pentru „avocatură” ilegală: Ce riscă inteligența artificială?

Nippon Life Insurance Company of America dă în judecată OpenAI, producătorul ChatGPT, pentru asistență juridică considerată ilegală, într-un proces cu potențialul de a defini limitele răspunderii în domeniul inteligenței artificiale. Acțiunea, înregistrată la începutul lunii martie 2026 în Illinois, vizează modul în care chatbot-ul a oferit sfaturi juridice unei persoane asigurate, care ar fi încălcat un acord contractual.

ChatGPT, acuzat de sfaturi juridice ilegale

Reclamanta susține că ChatGPT a oferit asistență juridică personalizată, care a determinat o asigurată să încalce un acord tranzacțional. Această acțiune ar fi dus la multiple procese nefondate și la costuri suplimentare pentru Nippon. Compania de asigurări invocă trei capete de acuzare: interferența delictuală cu un contract, abuzul de procedură și exercitarea ilegală a profesiei de avocat. Se solicită despăgubiri și penalități.

Cauza ridică întrebări importante despre răspunderea în domeniul inteligenței artificiale, inclusiv calificarea activității sistemului, legătura de cauzalitate dintre răspunsurile generate de IA și eventualele prejudicii, și rolul politicilor de utilizare a IA în stabilirea vinovăției. Expertul E. Favero Agostini, într-o analiză publicată în aprilie 2026, a subliniat importanța acestui caz pentru viitorul profesiei de avocat și pentru definirea răspunderii în fața noilor tehnologii.

Avocatul augmentat: O nouă paradigmă profesională

Inteligența artificială transformă profund practicile juridice. Instrumente precum motoarele de căutare automatizate și asistenții de redactare sunt acum parte din rutina profesioniștilor dreptului. Avocații se confruntă cu un nou rol, fiind nevoiți să coopereze cu tehnologii capabile să îi asiste, sau chiar să îi înlocuiască parțial.

Utilizarea IA ridică întrebări despre răspunderea profesională. Ce se întâmplă când un sfat eronat provine de la un algoritm? Cum se stabilește legătura de cauzalitate într-o eroare generată de inteligența artificială? În același timp, IA nu reduce răspunderea avocatului, ci o transformă, impunând o dublă exigență, tehnică și deontologică. Aceasta reconciliază inovația, siguranța juridică și încrederea în justiție.

Provocări probatorii și rolul jurisprudenței

Pentru a stabili răspunderea OpenAI, Nippon trebuie să demonstreze rolul exact jucat de ChatGPT în acțiunile asiguratei. Legătura de cauzalitate va fi dificil de dovedit, deoarece utilizatorul are libertatea de a ignora răspunsurile sistemului. Politicile de utilizare și garanțiile contractuale vor ocupa un rol central în dezbateri.

Acest caz este important pentru metoda de abordare a răspunderii furnizorilor de sisteme de inteligență artificială. Scopul nu este de a reforma dreptul civil, ci de a arăta că categoriile juridice existente pot fi aplicate cu coerență în cazul inteligenței artificiale. Jurisprudența va juca un rol crucial în a defini limitele și responsabilitățile în acest domeniu, mai ales în lipsa unei legislații clare. Mai multe jurisdicții din Europa și Statele Unite ale Americii vor analiza cazul pentru a stabili precedente în domeniul în plină dezvoltare a inteligenței artificiale.