Utilizarea inteligenței artificiale în sistemul judiciar al Statelor Unite capătă treptat amploare, fiind adoptată de peste 60% dintre judecători federali, iar 22% dintre aceștia o folosesc zilnic sau săptămânal în activitatea lor. În ciuda unor controverse legate de erori și posibilitatea unor greșeli grave, instanțele americane explorează tot mai mult parteneriate cu dezvoltatori de tehnologii AI pentru a eficientiza procesele judiciare.
Documentare rapidă și analize detaliate, facilitare pentru judecători
Judecătorii precum Xavier Rodriguez, din Texas, integrează cu regularitate inteligența artificială în pregătirea cazurilor. Înainte de audiere, Rodriguez introduce documente relevante în sistem, iar AI produce instantaneu o cronologie a afirmațiilor și evenimentelor, economisind ore de muncă. „Chestia asta o face instantaneu,” afirmă el pentru The Washington Post. Mai mult, AI-ul este folosit pentru a genera întrebări pentru avocați sau pentru a identifica eventuale puncte slabe în argumentele prezentate.
Uneori, judecătorii se ocupă chiar și de redactarea hotărârilor, beneficiind de suportul acestor tehnologii. Cu toate acestea, utilizarea AI în deciziile judiciare a iscat critici, mai ales după incidente unde instrumentele au citat cazuri inexistente sau au furnizat informații false.
Adoptarea în rândul instanțelor și riscuri asociate
Un studiu recent, realizat de Universitatea Northwestern în colaborare cu Xavier Rodriguez, a arătat că majoritatea judecătorilor federali sunt conștienți de potențialul AI-ului, dar și de riscurile sale. Peste 60% dintre ei au recunoscut că au folosit astfel de instrumente cel puțin o dată, iar 22% le utilizează frecvent. Instanțele caută acum colaborări cu companii specializate în dezvoltarea de soluții AI, precum Learned Hand, care a lansat un program pilot în Los Angeles pentru un instrument dezvoltat special pentru magistraturi.
Cu toate acestea, judecătorii sunt conștienți de pericolul erorilor. Într-un caz din Districtul New Jersey, inteligența artificială a citat accidental cazuri inexistente și a generat descrieri false, fiind corectată ulterior. Criticii subliniază că lipsa unei verificări riguroase și riscul de decizii eronate pot afecta grav sistemul judiciar.
Efecte și controverse legate de fiabilitate
Fiabilitatea acestor instrumente este încă sub semnul întrebării. Un studiu de la Stanford din 2024 a arătat că, deși sistemele LexisNexis și Thomson Reuters sunt mai precise decât chatboții generali, ele tot comit erori în 17-33% din cazuri. În plus, există situații în care AI-ul a citat cazuri fictive sau a furnizat descrieri false ale reclamațiilor, ceea ce ridică probleme de siguranță și de încredere.
Unele instanțe au adoptat politici stricte pentru folosirea AI-ului, interzicând în anumite situații utilizarea generativelor sau a altor modele de inteligență artificială în cercetarea juridică. De exemplu, Curtea Supremă a Județului Los Angeles a limitat utilizarea AI-ului la anumite cazuri civile, pentru a evita riscurile unor decizii influențate de erori.
Perspectiva judecătorilor și viitorul utilizării AI
Deși mulți judecători recunosc că utilizarea AI-ului a adus beneficii, ei exprimă rezerve în privința fiabilității totale. „Nu lăsați inteligența artificială să înlocuiască judecata voastră,” a spus Christopher Patterson, președintele Curții de Apel Florida. În același timp, sistemul judiciar continuă să monitorizeze și să evalueze această tehnologie, limitând utilizarea ei până când acestea devin mai sigure și mai precise.
Până la începutul anului viitor, programul pilot al Curții Superioare a Județului Los Angeles, care implică instrumentul dezvoltat de Learned Hand, urmează să fie extins, dar doar pentru anumite cazuri civile, în condițiile în care autoritățile caută să echilibreze între beneficiile tehnologiei și riscurile pe care le implică.