Politică de guvernare a asistentului AI
1. Obiectiv
Prezenta Politică de Guvernare a Asistentului AI stabilește cadrul de principii, reguli și mecanisme prin care OpenLaw asigură guvernarea, controlul și utilizarea responsabilă a asistentului AI integrat în Platformă. Această politică are rolul de a defini limitele funcționale și operaționale ale asistentului AI, mecanismele de control și supraveghere umană, precum și responsabilitățile OpenLaw și ale utilizatorilor în raport cu utilizarea tehnologiilor de inteligență artificială.
Obiectivul politicii este de a asigura gestionarea adecvată a riscurilor tehnologice, juridice și operaționale asociate utilizării asistentului AI, prin aplicarea unor măsuri de prevenire, monitorizare și corecție, în concordanță cu cadrul legal aplicabil, cu bunele practici din domeniul legal-tech și cu principiile de transparență, responsabilitate și control uman.
Prezenta politică nu are ca scop substituirea răspunderii profesionale a utilizatorilor și nu instituie obligații de rezultat în sarcina OpenLaw, asistentul AI fiind utilizat exclusiv ca instrument de suport în activitatea profesională a utilizatorilor. Politica se aplică tuturor funcționalităților AI existente și viitoare ale Platformei OpenLaw și constituie un instrument de guvernanță internă destinat asigurării conformității și utilizării responsabile a inteligenței artificiale.
2. Principii de guvernare AI
Guvernarea asistentului AI din cadrul Platformei OpenLaw se bazează pe un set de principii fundamentale menite să asigure utilizarea responsabilă, controlată și conformă din punct de vedere legal a tehnologiilor de inteligență artificială, în contextul activității profesionale juridice.
2.1. Control uman
Asistentul AI din cadrul OpenLaw funcționează exclusiv ca instrument de suport informațional și decizional, fără a avea capacitatea de a lua decizii autonome cu impact juridic. Avocatul rămâne în orice situație decidentul final, având obligația de a analiza, valida și interpreta în mod independent informațiile generate de AI.
Nicio funcționalitate a Platformei nu este concepută pentru a substitui raționamentul profesional, judecata juridică sau responsabilitatea utilizatorului.
2.2. Transparență
OpenLaw asigură transparența utilizării inteligenței artificiale prin informarea clară a utilizatorilor cu privire la faptul că interacționează cu un sistem AI, precum și cu privire la natura, scopul și limitele acestuia.
Utilizatorii sunt informați că răspunsurile generate de asistentul AI sunt rezultatul unor procese automate și au caracter informativ și orientativ, fiind supuse limitărilor tehnologice inerente inteligenței artificiale.
2.3. Responsabilitate profesională
Utilizarea asistentului AI nu exonerează utilizatorii de obligațiile legale, profesionale sau deontologice care le revin în exercitarea profesiei. Responsabilitatea pentru deciziile juridice adoptate, pentru strategiile profesionale și pentru relația cu clientul final aparține exclusiv utilizatorului.
OpenLaw nu își asumă rolul de prestator de servicii juridice și nu intervine în relația profesională dintre utilizator și clientul acestuia.
2.4. Neutralitate și echitate
Sistemele AI utilizate în cadrul Platformei OpenLaw sunt concepute și configurate pentru a reduce, pe cât posibil, riscurile de bias, discriminare sau tratament diferențiat nejustificat.
OpenLaw monitorizează funcționarea asistentului AI și implementează măsuri rezonabile pentru identificarea și corectarea potențialelor dezechilibre sau limitări care pot afecta neutralitatea informațiilor furnizate, fără a garanta eliminarea completă a tuturor riscurilor inerente tehnologiilor de inteligență artificială.
3. Managementul riscurilor AI
OpenLaw recunoaște faptul că utilizarea tehnologiilor de inteligență artificială în contextul activității juridice implică anumite riscuri inerente, generate de natura probabilistică a sistemelor AI și de limitările acestora în raport cu complexitatea normelor juridice și a situațiilor concrete.
În cadrul procesului de guvernare a asistentului AI, OpenLaw identifică, evaluează și gestionează în mod rezonabil riscuri precum interpretarea eronată sau incompletă a legislației, supra-dependența utilizatorilor de outputul generat de AI, precum și utilizarea necorespunzătoare a informațiilor furnizate de asistentul AI în afara scopului informativ și orientativ al Platformei.
Pentru a reduce impactul acestor riscuri, OpenLaw implementează măsuri de control proporționale, care includ, fără a se limita la, limitări funcționale ale asistentului AI, utilizarea de disclaimere explicite privind natura și limitele outputului generat, precum și monitorizarea continuă a funcționării sistemelor AI.
Măsurile de control sunt revizuite periodic și adaptate în funcție de evoluțiile tehnologice, de feedback-ul utilizatorilor și de modificările cadrului legal aplicabil. OpenLaw nu garantează eliminarea completă a tuturor riscurilor asociate utilizării inteligenței artificiale, însă își asumă obligația de a gestiona aceste riscuri în mod diligent, rezonabil și conform bunelor practici din domeniul legal-tech.
4. Surse de date
Asistentul AI din cadrul Platformei OpenLaw utilizează, în scop informativ și orientativ, o combinație de surse de date publice, oficiale și furnizate de utilizatori, în vederea generării de explicații, sinteze și suport general privind cadrul juridic aplicabil în România.
Sursele de date pot include, fără a se limita la:
- legislația română publică, astfel cum este disponibilă în surse oficiale;
- jurisprudență publică și hotărâri judecătorești accesibile publicului;
- prevederi de lege, proiecte normative și informații legislative care apar în Monitorul Oficial al României, inclusiv cele aflate pe ordinea de zi sau în diverse stadii ale procesului legislativ;
- informații cu caracter general provenite din surse doctrinare sau din analiza publică a mediului juridic;
- informații de context, inclusiv știri politice sau legislative, utilizate exclusiv pentru înțelegerea generală a cadrului normativ și instituțional;
- date și informații furnizate direct de utilizatori în cadrul interacțiunii cu Platforma.
OpenLaw nu garantează caracterul complet, exact sau actualizat în timp real al informațiilor utilizate sau generate de asistentul AI. În special, informațiile referitoare la proiecte legislative, ordinea de zi a Monitorului Oficial sau știri politice pot suferi modificări rapide și pot avea un caracter preliminar, neoficial sau supus interpretării.
Utilizatorului i se recomandă să verifice în mod independent informațiile furnizate de asistentul AI prin raportare la sursele oficiale relevante, inclusiv Monitorul Oficial, jurisprudența definitivă și legislația în vigoare, înainte de a le utiliza în activitatea profesională.
Prezenta politică nu creează nicio obligație în sarcina OpenLaw de a monitoriza sau integra în timp real toate modificările legislative, jurisprudențiale sau politice și nu poate fi interpretată ca o garanție privind actualitatea sau exhaustivitatea surselor de date utilizate.
5. Audit și monitorizare
OpenLaw implementează procese interne de audit și monitorizare a funcționării asistentului AI, în scopul asigurării utilizării acestuia în conformitate cu prezenta Politică de Guvernare și cu cadrul legal aplicabil.
Auditul intern este realizat periodic și vizează, în principal, evaluarea modului de funcționare a funcționalităților AI, respectarea limitărilor stabilite prin politicile interne, precum și identificarea potențialelor riscuri tehnice, juridice sau operaționale asociate utilizării inteligenței artificiale.
În cadrul acestor procese, OpenLaw poate înregistra și analiza interacțiuni cu asistentul AI, exclusiv în scopuri de monitorizare, securitate, prevenire a abuzurilor și îmbunătățire a funcționalităților Platformei, cu respectarea confidențialității și a cerințelor legale privind protecția datelor. Logarea interacțiunilor nu are ca scop evaluarea conținutului profesional al utilizatorilor și nu este utilizată pentru a interveni în activitatea acestora.
OpenLaw pune la dispoziția utilizatorilor mecanisme de feedback prin care pot fi semnalate erori, disfuncționalități sau comportamente neconforme ale asistentului AI. Feedback-ul primit este analizat în mod rezonabil și poate conduce, după caz, la ajustări tehnice, limitări funcționale sau alte măsuri de corecție.
Procesele de audit și monitorizare nu constituie o garanție a funcționării fără erori a asistentului AI, ci reprezintă instrumente de guvernanță menite să asigure o utilizare responsabilă și conformă a tehnologiilor de inteligență artificială.
6. Drepturile utilizatorilor
În cadrul utilizării asistentului AI din Platforma OpenLaw, utilizatorii beneficiază de o serie de drepturi menite să asigure transparența, controlul și utilizarea responsabilă a tehnologiilor de inteligență artificială, în conformitate cu cadrul legal aplicabil.
Utilizatorii au dreptul:
- să fie informați în mod clar atunci când interacționează cu un sistem bazat pe inteligență artificială;
- să solicite explicații generale privind funcționarea asistentului AI, natura outputului generat și limitele tehnologice ale acestuia;
- să raporteze erori, disfuncționalități sau comportamente considerate neconforme ale asistentului AI prin mecanismele de feedback puse la dispoziție de Platformă.
Explicațiile furnizate de OpenLaw au un caracter general și informativ și nu includ divulgarea de informații confidențiale, secrete comerciale, detalii privind arhitectura internă a sistemelor AI sau informații protejate de drepturi de proprietate intelectuală.
Exercitarea drepturilor prevăzute în prezenta secțiune nu poate conduce la impunerea în sarcina OpenLaw a unei obligații de a furniza explicații individualizate pentru fiecare rezultat generat de AI sau de a modifica outputul acestuia la cererea utilizatorului.
Prezenta secțiune nu aduce atingere drepturilor utilizatorilor sau ale persoanelor vizate prevăzute de legislația aplicabilă în materia protecției datelor cu caracter personal, care sunt exercitate în conformitate cu Politica de confidențialitate a Platformei.
7. Utilizări interzise
Asistentul AI din cadrul Platformei OpenLaw este pus la dispoziția utilizatorilor exclusiv în scop informativ și de suport profesional, în limitele stabilite prin prezenta Politică de Guvernare și prin celelalte documente contractuale aplicabile.
Este strict interzisă utilizarea asistentului AI pentru scopuri care contravin legislației aplicabile, normelor profesionale sau principiilor de guvernare a inteligenței artificiale asumate de OpenLaw.
Fără a aduce atingere caracterului general al celor de mai sus, este interzisă utilizarea asistentului AI pentru:
- generarea, diseminarea sau utilizarea de conținut înșelător, fals, manipulator sau susceptibil de a induce în eroare, inclusiv în relația cu clienții finali sau cu autoritățile;
- eludarea obligațiilor legale, profesionale sau deontologice aplicabile utilizatorilor, inclusiv a obligațiilor specifice profesiei de avocat;
- substituirea deliberată a actului profesional juridic, a raționamentului juridic sau a deciziei profesionale prin utilizarea exclusivă a outputului generat de AI;
- utilizarea asistentului AI în scopuri care depășesc caracterul informativ și orientativ al Platformei.
OpenLaw își rezervă dreptul de a limita, suspenda sau restricționa accesul la funcționalitățile AI în cazul în care identifică utilizări neconforme cu prezenta politică, fără a aduce atingere altor drepturi sau remedii prevăzute de lege sau de documentele contractuale aplicabile.
Utilizatorii sunt pe deplin responsabili pentru modul în care utilizează asistentul AI și pentru consecințele juridice, profesionale sau deontologice care pot decurge din utilizarea necorespunzătoare a acestuia.
8. Incident management
OpenLaw a instituit un cadru intern pentru gestionarea incidentelor legate de funcționarea asistentului AI, în scopul identificării, analizării și remedierii situațiilor care pot afecta utilizarea corectă, sigură și conformă a funcționalităților AI.
Un „incident AI” poate include, fără a se limita la, erori semnificative de funcționare, generarea de output neconform cu scopul Platformei, disfuncționalități tehnice, comportamente neprevăzute ale asistentului AI sau utilizări neconforme identificate în cadrul proceselor de monitorizare.
În cazul identificării unui incident AI, OpenLaw procedează, într-o manieră rezonabilă și proporțională, la:
- analiza internă a incidentului, în vederea determinării cauzelor și a impactului potențial;
- documentarea incidentului și a măsurilor adoptate;
- implementarea, după caz, a unor măsuri de remediere, care pot include ajustări tehnice, limitări funcționale sau actualizări ale mecanismelor de control.
În funcție de natura și gravitatea incidentului, OpenLaw își rezervă dreptul de a suspenda temporar sau de a restricționa anumite funcționalități AI, în scopul prevenirii unor riscuri suplimentare.
Gestionarea incidentelor AI nu constituie o garanție a eliminării tuturor riscurilor sau a funcționării fără erori a asistentului AI, ci reprezintă o măsură de guvernanță menită să asigure o reacție adecvată și responsabilă la situații neprevăzute.