60% dintre judecătorii federali din SUA folosesc tot mai mult AI deşi ştiu că este nesigură
Un studiu dezvăluit de The Washington Post a constatat că peste 60% dintre judecătorii americani au folosit inteligenţa artificială în munca lor, chiar dacă unii experţi se tem că lipsa de încredere în datele oferite de inteligenţa artificială le-ar putea compromite munca.
Atunci când Xavier Rodriguez, un judecător federal din Texas, se pregăteşte pentru o audiere, de obicei începe prin a apela la inteligenţa artificială. El introduce documentele relevante ale instanţei într-un instrument de inteligenţă artificială care produce rapid o cronologie a cazului şi a afirmaţiilor pe care părţile le fac pentru ca el să le examineze.
„Avocaţii mei ar pierde 30, 45 de minute, o oră, elaborând o cronologie a evenimentelor”, a declarat Rodriguez pentru The Washington Post. „Chestia asta o face instantaneu.”
Înainte de o audiere, Rodriguez ar putea, de asemenea, să ceară inteligenţei artificiale să sugereze întrebări de adresat unui avocat sau să identifice punctele slabe ale argumentului reclamantului.
Rodriguez uneori foloseşte inteligenţa artificială şi pentru a redacta hotărârea pe care o va emite.
Utilizarea inteligenţei artificiale în instanţă a ajuns pe prima pagină a ziarelor pentru un şir de citate fabricate şi alte greşeli din dosarele judiciare care i-au pus pe avocaţi în dificultate.
Însă adoptarea acestor instrumente în rândul profesioniştilor din domeniul juridic se extinde acum şi la cei mai înalţi administratori ai sistemului judiciar.
Un studiu al Universităţii Northwestern , publicat săptămâna aceasta şi realizat în colaborare cu Rodriguez, care a chestionat 112 judecători federali, a constatat că peste 60% dintre aceştia au recunoscut că au folosit cel puţin o dată în activitatea lor judiciară unul dintre instrumentele populare de inteligenţă artificială.
Aproximativ 22% dintre judecători au declarat că folosesc inteligenţa artificială zilnic sau săptămânal în cadrul atribuţiilor lor.
Instanţele judecătoreşti urmăresc, de asemenea, parteneriate cu furnizori de servicii juridice care dezvoltă instrumente de inteligenţă artificială pentru activitatea judiciară.
Curtea comitatului Los Angeles a anunţat în martie un program pilot cu Learned Hand, un start-up juridic care dezvoltă un instrument de inteligenţă artificială pentru judecători.
Inteligenţa artificială a Learned Hand este utilizată şi în instanţele de judecată din 10 state şi la Curtea Supremă din Michigan, a declarat compania.
Companiile de cercetare juridică Thomson Reuters şi LexisNexis au contracte pentru a furniza instrumente de inteligenţă artificială sistemului judiciar federal.
Judecătorii spun că sunt conştienţi de riscuri, chiar dacă unii experţi se tem că lipsa de siguranţă a datelor oferite de inteligenţa artificială le-ar putea compromite munca.
„Judecătorii sunt responsabili de luarea deciziilor foarte importante pentru oameni şi de rezolvarea disputelor foarte semnificative”, a spus Eric Posner, profesor de drept la Universitatea din Chicago.
Avantajul, spun susţinătorii, ar putea fi un sistem judiciar mai eficient, mai bine echipat pentru a procesa un volum mare de dosare.
„Evident, suntem foarte precauţi în această privinţă”, a declarat Christopher Patterson, preşedintele Curţii de Apel a 14-a din Florida.
Este dificil de stabilit exact câţi judecători din vastul sistem juridic al Statelor Unite utilizează inteligenţa artificială în exercitarea atribuţiilor lor. Nu toate utilizările inteligenţei artificiale sunt dezvăluite public, iar instanţele şi judecătorii au decis adesea asupra adoptării acesteia la nivel individual.
„Adoptarea inteligenţei artificiale este reală, dar este încă la început”, a spus Michael Navin, consultant la Centrul Naţional pentru Instanţele Statale, care studiază utilizarea inteligenţei artificiale în domeniul juridic. „Nu am senzaţia că există o utilizare copleşitoare a inteligenţei artificiale de către judecători, dar există.”
Judecătorii care au fost primii care au adoptat inteligenţa artificială au declarat că utilizează instrumentele în întregul flux de lucru, de la examinarea unui caz nou până la redactarea unei hotărâri finale.
Judecătorii au mai spus că au folosit inteligenţa artificială pentru a analiza dosarele părţilor la instanţă, pentru a evalua dacă pretenţiile sunt susţinute de lege sau pentru a identifica domenii care necesită investigaţii suplimentare.
Majoritatea instrumentelor juridice de inteligenţă artificială se leagă direct de legile sau cazurile pe care le citează, au spus ei, permiţând judecătorilor să caute legile relevante şi să verifice din nou răspunsul inteligenţei artificiale.
Unii judecători şi şefi de instanţe spun că timpul economisit de instrumentele de inteligenţă artificială poate fi util pentru un sistem judiciar suprasolicitat de dosare, în special în instanţele unde judecătorii nu au o echipă de grefieri care să asiste la cercetare.
Miza este însă mare. Judecătorii nu au fost imuni la erorile generate de inteligenţa artificială care afectează sălile de judecată. Într-un caz din Districtul New Jersey, inteligenţa artificială a inclus citări din cazuri inexistente, descrieri false ale acuzaţiilor unui reclamant din plângerea sa şi citate false atribuite reclamanţilor, pe care le-au atribuit unui funcţionar şi unui stagiar care foloseau inteligenţa artificială, a relatat The Post .
Avocaţii i-au avertizat pe judecători cu privire la greşelile lor, iar aceştia au corectat documentele. Comisia Juridică a Senatului SUA i-a criticat dur pe judecători pentru greşelile lor iar în unele cazuri s-a instituit o politică scrisă în biroul său care interzice utilizarea inteligenţei artificiale generative în cercetarea juridică sau în redactarea documentelor judiciare.
Dezvoltatorii de instrumente de inteligenţă artificială concepute pentru comunitatea juridică spun că modelele lor sunt mai puţin susceptibile de a greşi, pentru că răspunsurile sunt obţinute din baze de date cu dosare judiciare şi alte documente juridice.
Fiabilitatea instrumentelor a fost încă contestată – un studiu al Universităţii Stanford din 2024 a constatat că instrumentele de inteligenţă artificială juridică ale LexisNexis şi Thomson Reuters erau mai sigure decât chatboţii de uz general, dar totuşi comiteau greşeli în 17-33% din interogări.
LexisNexis şi Thomson Reuters au declarat că instrumentele lor s-au îmbunătăţit semnificativ de la studiu şi sunt concepute pentru a face trimitere la cazuri în răspunsurile lor, astfel încât utilizatorii să poată verifica informaţiile pe care le citează.
Unele instanţe şi judecători au subliniat că încă evaluează eficacitatea instrumentelor de inteligenţă artificială şi că vor lua decizii cu privire la utilizarea ulterioară pe măsură ce trece timpul.
Programul pilot al Curţii Superioare a Judeţului Los Angeles cu Learned Hand va dura un an, iar utilizarea instrumentului este limitată deocamdată la anumite cazuri civile, a declarat instanţa.
„Nu lăsaţi Inteligenţa Artificială să înlocuiască judecata ei cu judecata voastră. Nu poţi lăsa să se întâmple asta”, a spus pentru Washington Post, Christopher Patterson, preşedintele Curţii de Apel din Florida.
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe alephnews.ro
Citeşte pe fanatik.ro
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro













