05.11.2025
Ghidul britanic de etică cu privire la utilizarea inteligenței artificiale în sistemul judiciar
La data de 31 octombrie 2025, a intrat în vigoare în Marea Britanie „Regulamentul intern de funcționare a instanțelor de judecată, cu privire la utilizarea inteligenței artificiale” (engl. "Artificial Intelligence (AI) Guidance for Judicial Office Holders”) – („Ghidul”). Deși este adaptat sistemului de drept comun (engl. "common law”), principiile sale generale sunt aplicabile oricărui sistem judiciar care adoptă tehnologia modernă („IA”) sau interacționează cu aceasta.
Astfel, primul capitol al Ghidului este dedicat definirii unor termeni tehnici, al doilea cuprinde principiile interacțiunii sistemului judiciar cu IA, iar la final se menționează riscurile și avantajele utilizării sale. Principiile cuprinse în Ghid sunt: (I) Înțelegerea IA și a aplicațiilor sale, (II) Respectarea confidențialității și vieții private, (III) Asigurarea responsabilității și a acurateței, (IV) Atenția la prejudecăți și (V) Asumarea responsabilității.
Vom trece punctual, prin fiecare, în cele ce urmează.
I. Înțelegerea IA și a aplicațiilor sale
Înainte de a utiliza orice instrumente de IA, asigurați-vă că aveți o înțelegere de bază a capacităților și potențialelor limitări ale acestora. Câteva limitări cheie: chatboții publici cu IA nu oferă răspunsuri din baze de date autorizate. Aceștia generează text nou folosind un algoritm bazat pe solicitările pe care le primesc și pe datele pe care au fost antrenați. Aceasta înseamnă că rezultatul pe care îl generează chatboții cu IA este ceea ce modelul prevede a fi cea mai probabilă combinație de cuvinte (pe baza documentelor și datelor pe care le deține ca informații sursă). Nu este neapărat cel mai precis răspuns.
Ca și în cazul oricăror alte informații disponibile pe internet în general, instrumentele de IA pot fi utile pentru a găsi materiale pe care le-ați recunoaște ca fiind corecte, dar pe care nu le aveți la îndemână, dar reprezintă o modalitate imprecisă de a efectua cercetări pentru a găsi informații noi pe care nu le puteți verifica. Acestea pot fi cel mai bine văzute ca o modalitate de a obține o confirmare nedefinitivă a ceva, mai degrabă decât de a furniza fapte corecte.
II. Respectați confidențialitatea și viața privată
Nu introduceți într-un chatbot public cu inteligență artificială nicio informație care nu este deja în domeniul public. Nu introduceți informații private sau confidențiale. Orice informație pe care o introduceți într-un chatbot public cu inteligență artificială ar trebui să fie considerată ca fiind publicată în întreaga lume. Chatboții publici cu inteligență artificială actuali își amintesc fiecare întrebare pe care le-o adresați, precum și orice alte informații pe care le introduceți. Aceste informații sunt apoi disponibile pentru a fi utilizate pentru a răspunde la întrebările altor utilizatori. Drept urmare, orice introduceți în ele ar putea deveni cunoscut public.
Ar trebui să dezactivați istoricul chaturilor în chatboții publici cu inteligență artificială, dacă această opțiune este disponibilă, deoarece ar trebui să împiedice utilizarea datelor dvs. pentru antrenarea chatbotului și, după 30 de zile, conversațiile vor fi șterse definitiv. Această opțiune este disponibilă în prezent în ChatGPT și Google Gemini, dar nu și în alți chatboți. Chiar și cu istoricul dezactivat, putem presupune că datele introduse vor fi divulgate.
Rețineți că unele platforme de inteligență artificială, în special dacă sunt utilizate ca aplicații pe un smartphone, pot solicita diverse permisiuni care le oferă acces la informațiile de pe dispozitivul dvs., ceea ce ar trebui să refuzați.
III. Asigurarea responsabilității și a acurateței
Acuratețea oricăror informații care v-au fost furnizate de un instrument de inteligență artificială trebuie verificată înainte de a fi utilizată sau de a vă baza pe ea. Informațiile furnizate de instrumentele de inteligență artificială pot fi inexacte, incomplete, înșelătoare sau neactualizate. Chiar dacă pretind că reprezintă legea Angliei și a Țării Galilor, este posibil să nu facă acest lucru. IA poate include materialele sursă citate, care ar putea fi, de asemenea, inventate.
Instrumentele de inteligență artificială pot „halucina”, ceea ce include următoarele: pot inventa cazuri, citări sau citate fictive sau pot face referire la legislație, articole sau texte juridice care nu există, pot furniza informații incorecte sau înșelătoare cu privire la lege sau la modul în care aceasta s-ar putea aplica și pot să facă erori factuale.
IV. Atenție la prejudecăți
Instrumentele de inteligență artificială bazate pe LLM generează răspunsuri pe baza setului de date cu care sunt antrenate. Informațiile generate de inteligența artificială vor reflecta inevitabil erori și prejudecăți în datele sale de antrenament, probabil atenuate de unele strategii de aliniere, care ar putea funcționa.
V. Asumarea responsabilității
Deținătorii de funcții judiciare sunt personal responsabili pentru materialele produse în numele lor. Judecătorii trebuie să citească întotdeauna documentele de bază. Instrumentele de inteligență artificială pot fi de ajutor, dar nu pot înlocui implicarea directă a instanței în analiza probelor. Judecătorii nu sunt, în general, obligați să descrie cercetarea sau lucrările pregătitoare care ar fi putut fi efectuate, pentru a pronunța o hotărâre judecătorească. Cu condiția ca aceste instrucțiuni să fie respectate în mod corespunzător, nu există niciun motiv pentru care inteligența artificială generativă să nu poată fi un instrument secundar potențial util.
Urmați cele mai bune practici pentru menținerea securității proprii și a instanței. Utilizați dispozitive de lucru (mai degrabă decât dispozitive personale) pentru a accesa instrumentele de inteligență artificială. Înainte de a utiliza un instrument de inteligență artificială, asigurați-vă că acesta este securizat. Dacă a existat o potențială încălcare a securității, consultați (II) de mai sus.
În continuare, Ghidul recunoaște atuurile IA în activitatea din sistemul judiciar, dar subliniază și riscurile concrete care se întrevăd.
Astfel, sunt sarcini potențial utile:
· Instrumentele de inteligență artificială sunt capabile să rezume corpuri mari de text. Ca în cazul oricărui rezumat, trebuie acordată atenție pentru a vă asigura că rezumatul este corect;
· Instrumentele de inteligență artificială pot fi utilizate în scrierea prezentărilor, de exemplu, pentru a oferi sugestii de subiecte de abordat;
· Sarcinile administrative pot fi îndeplinite de inteligența artificială, inclusiv compunerea, rezumarea și prioritizarea e-mailurilor, transcrierea și rezumarea ședințelor și redactarea memorandumurilor.
Sarcinile nerecomandate a fi efectuate cu ajutorul IA, sunt următoarele:
· Cercetare juridică: Instrumentele de inteligență artificială sunt o modalitate imprecisă de a efectua cercetări pentru a găsi informații noi pe care nu le puteți verifica independent. Acestea pot fi utile ca o modalitate de a vă reaminti de materiale pe care le-ați recunoaște ca fiind corecte, deși materialul final ar trebui întotdeauna verificat în raport cu surse juridice autorizate;
· Analiză juridică: chatboții publici actuali cu inteligență artificială nu produc analize sau raționamente convingătoare.
Totodată, Ghidul menționează elemente care ar putea indica unui magistrat faptul că materialele ce îi sunt supuse atenției într-un dosar ar fi putut fi realizate de IA:
· Referințe la cazuri care nu sună familiar sau care conțin citări nefamiliare (uneori din străinătate);
· Părți care citează diferite cazuri de jurisprudență în legătură cu aceleași probleme juridice;
· Contribuții care nu sunt în concordanță cu înțelegerea generală a legislației din domeniu pentru persoana care a prezentat materialul;
· Trimiteri care folosesc ortografie americană sau se referă la cazuri din străinătate;
· Conținut care (cel puțin superficial) pare a fi foarte convingător și bine scris, dar la o inspecție mai atentă conține erori de fond evidente și
· Includerea accidentală a unei solicitări de inteligență artificială sau păstrarea unei „respingeri prompte”, cum ar fi „ca model de limbaj de inteligență artificială, nu pot...”
Toate aceste indicații simple dar eficiente apreciem că sunt utile si sistemului judiciar român pentru combaterea erorilor pe care materialele generate de IA le-ar putea propaga în cadrul proceselor. De asemenea, este și un reminder că sistemul judiciar din România ar trebui să adopte propriul ghid în domeniu, cât mai durând posibil, dată fiind dezvoltarea explozivă și în progresie geometrică, cantitativ și calitativ, a chatboților în ultimii ani.
Un articol semnat de Dr. Victor Dobozi (vdobozi@stoica-asociatii.ro), Senior Partner, STOICA & ASOCIAȚII.