Transparenta privind Inteligenta Artificiala

Cum folosim AI pe platforma Ltrace si ce drepturi ai conform legislatiei europene

Ultima actualizare: 28 martie 2026

🇪🇺Ce este Regulamentul European privind AI (EU AI Act)?

Regulamentul (UE) 2024/1689 (cunoscut ca EU AI Act) este prima legislatie din lume care reglementeaza cuprinzator inteligenta artificiala. A fost adoptat de Parlamentul European si stabileste reguli clare privind dezvoltarea, comercializarea si utilizarea sistemelor AI in Uniunea Europeana.

Scopul regulamentului este sa asigure ca sistemele AI sunt sigure, transparente, trasabile, non-discriminatorii si sustenabile ecologic, cu supraveghere umana obligatorie pentru a preveni consecinte daunatoare.

Regulamentul clasifica sistemele AI pe niveluri de risc si impune obligatii proportionale cu riscul pe care il prezinta fiecare sistem.

🤖Cum folosim inteligenta artificiala pe Ltrace

Pe platforma Ltrace, inteligenta artificiala este utilizata exclusiv pentru evaluarea orientativa a raspunsurilor cu text liber (compuneri si analize de text) in cadrul simularilor de Evaluare Nationala.

📝Ce evalueaza AI-ul

Raspunsuri libere la Subiectul I (Partea A si B) si compuneri la Subiectul II din simularile de Evaluare Nationala.

⚙️Cum functioneaza

AI-ul primeste raspunsul elevului impreuna cu un set de reguli de evaluare create de profesori, calibrate pe baremul oficial MECTS.

📊Ce returneaza

Punctaj detaliat pe criterii (continut, structura, redactare), sugestii de imbunatatire si greselile identificate.

Ce NU face AI-ul

Nu ia decizii definitive, nu acorda note oficiale, nu influenteaza accesul la platforma si nu proceseaza date personale sensibile.

📋Clasificarea sistemului nostru AI conform EU AI Act

EU AI Act clasifica sistemele AI pe patru niveluri de risc. Sistemul nostru de evaluare AI se incadreaza in categoria risc limitat, cu elemente de buna practica din categoria risc ridicat pe care le aplicam voluntar.

Risc inacceptabil (interzis)

Manipulare cognitiv-comportamentala, scoring social, identificare biometrica in timp real. Nu se aplica platformei noastre.

Risc ridicat

Include sisteme AI din educatie care determina accesul la educatie sau evalueaza elevii in mod definitiv. Sistemul nostru nu determina accesul la educatie si nu acorda note oficiale — ofera exclusiv feedback orientativ pentru antrenament.

Risc limitat (categoria noastra)

Sisteme AI care interactioneaza cu utilizatorii si genereaza continut. Obligatia principala: transparenta — utilizatorii trebuie informati ca interactioneaza cu un sistem AI.

Risc minim

Majoritatea sistemelor AI (filtre de spam, jocuri). Fara obligatii specifice.

Angajamentul nostru: Desi incadrarea ca “risc limitat” ne impune obligatii minime, aplicam voluntar masuri din categoria “risc ridicat”: supraveghere umana, drepturi de contestare, reguli de evaluare create de profesori si transparenta completa privind functionarea sistemului.

🔍Masuri de transparenta

Conform cerintelor EU AI Act privind transparenta, asiguram urmatoarele:

  • Informare clara: Pe pagina de corectare AI si in interfata de test, este indicat explicit ca evaluarea este realizata de un sistem de inteligenta artificiala.
  • Identificarea continutului AI: Feedback-ul generat de AI este marcat vizual distinct de corectarea automata (grile, adevarat/fals) si de eventualele comentarii umane.
  • Descrierea functionarii: Aceasta pagina explica in detaliu cum functioneaza sistemul, ce date proceseaza si ce limitari are.
  • Providerul AI: Sistemul utilizeaza modele de limbaj de la furnizori de incredere (Anthropic Claude), fara a stoca sau folosi raspunsurile elevilor pentru antrenarea modelului.
  • Regulile de evaluare: Criteriile de punctare sunt create de profesori si calibrate pe baremul oficial MECTS. Nu sunt generate automat de AI.
  • Caracterul orientativ: Evaluarea AI este prezentata ca orientativa, nu definitiva. Recomandam suplimentar feedback-ul unui profesor.

🧑‍🏫Supraveghere umana

EU AI Act impune ca sistemele AI sa fie supravegheate de oameni. Pe Ltrace:

Reguli create de profesori

Toate regulile de evaluare (criterii de punctare, penalizari, ponderi) sunt create si actualizate de profesori calificati. AI-ul aplica aceste reguli, nu le inventeaza.

Re-evaluare de catre administrator

Administratorii platformei pot solicita re-evaluarea oricarui test. Exista un sistem dedicat de re-evaluare care permite corectarea eventualelor erori ale AI-ului.

Audit trail complet

Fiecare evaluare AI este inregistrata: providerul utilizat, costul, numarul de tokeni, timpul de procesare. Aceasta permite monitorizarea si auditarea sistemului.

Fallback fara AI

Daca sistemul AI este indisponibil, exista un mecanism de rezerva care acorda un punctaj estimat pe baza lungimii raspunsului, pana la re-evaluarea manuala.

🔒Date personale si AI

Protectia datelor personale este esentiala. Datele transmise catre AI sunt complet anonime — sistemul de inteligenta artificiala nu primeste si nu are acces la nicio informatie care ar putea identifica utilizatorul.

Ce primeste AI-ul (date anonime despre test):

  • Textul raspunsului scris de elev
  • Cerinta testului si textul suport
  • Regulile de evaluare create de profesori (baremul)

Ce NU primeste AI-ul (date personale):

  • Numele sau prenumele elevului
  • Adresa de email
  • Varsta, clasa sau scoala
  • Orice alta informatie de identificare
  • Stocare: Raspunsurile si feedback-ul AI sunt stocate in baza de date a platformei, pe serverele noastre. Nu sunt stocate de furnizorul AI.
  • Antrenare model: Raspunsurile elevilor NU sunt folosite pentru antrenarea sau imbunatatirea modelului AI. Furnizorul nostru (Anthropic) garanteaza ca datele trimise prin API nu sunt folosite pentru training.
  • Retentie: Datele de evaluare sunt pastrate atat timp cat contul utilizatorului este activ, conform politicii noastre de confidentialitate.
  • GDPR: Procesarea datelor respecta Regulamentul General privind Protectia Datelor (GDPR). Detalii complete in Politica de Confidentialitate.

⚠️Limitarile evaluarii AI

Consideram important sa comunicam transparent limitarile sistemului nostru AI:

  • Evaluare orientativa: Punctajul acordat de AI este orientativ si nu inlocuieste evaluarea unui profesor calificat. Pentru examenul real, recomandam feedback de la un profesor.
  • Erori posibile: Ca orice sistem AI, poate face greseli: poate interpreta gresit o nuanta stilistica, poate acorda un punctaj prea mic sau prea mare la anumite criterii.
  • Variabilitate: Desi regulile sunt fixe, doua evaluari ale aceluiasi text pot prezenta diferente minore de punctaj (in limita a 0.5-1 punct).
  • Limita de complexitate: AI-ul evalueaza mai bine compunerile care urmeaza o structura clara. Textele foarte creative sau experimentale pot fi evaluate mai strict decat ar face un profesor.
  • Limba romana: Modelul AI are o buna cunoastere a limbii romane, dar nu este un sistem specializat exclusiv pe aceasta limba.
  • Nu inlocuieste profesorul: Feedback-ul AI nu acopera toate aspectele pe care le poate observa un profesor: emotia textului, progresul individual al elevului, contextul personal.

⚖️Drepturile tale ca utilizator

Conform EU AI Act si legislatiei europene, ai urmatoarele drepturi:

Dreptul la informare

Ai dreptul sa stii cand interactionezi cu un sistem AI si cum functioneaza acesta. Aceasta pagina indeplineste aceasta obligatie.

Dreptul la explicare

Ai dreptul sa primesti o explicatie a deciziei AI. Feedback-ul include punctaj detaliat pe criterii si motivatia pentru fiecare scor acordat.

Dreptul de contestare

Daca nu esti de acord cu evaluarea AI, poti solicita re-evaluarea sau poti contacta echipa noastra pentru o verificare umana.

Dreptul la non-discriminare

Sistemul AI aplica aceleasi reguli de evaluare pentru toti utilizatorii, fara discriminare pe baza de gen, etnie, limba materna sau orice alt criteriu.

Dreptul la interventie umana

Evaluarea AI nu este automata si definitiva. Exista supraveghere umana permanenta si posibilitatea de interventie manuala.

Dreptul de a depune plangere

Poti depune o plangere la autoritatea nationala competenta daca consideri ca drepturile tale au fost incalcate. In Romania, autoritatea relevanta este Autoritatea Nationala de Supraveghere a Prelucrarii Datelor cu Caracter Personal (ANSPDCP).

📖Responsabilitatea utilizatorului

Este important sa intelegem clar ce reprezinta si ce nu reprezinta rezultatele generate de AI pe aceasta platforma:

Nu constituie evaluari oficiale in sensul legii educatiei

Nu pot fi utilizate ca baza pentru decizii administrative (admitere, promovare, sanctiuni)

Nu inlocuiesc evaluarea unui cadru didactic calificat

Nu au efecte juridice de nicio natura

Platforma Ltrace este un instrument de studiu si de autoevaluare. Utilizand platforma, accepti ca rezultatele obtinute sunt orientative, ca verificarea finala a corectitudinii unui raspuns apartine utilizatorului sau cadrului didactic supervizor, si ca platforma nu poate fi tinuta responsabila pentru decizii luate exclusiv pe baza rezultatelor generate automat.

©Drepturi de autor si date de antrenament

Transparenta privind datele de antrenament ale modelelor AI este un aspect esential al conformitatii cu EU AI Act.

Modelele utilizate

Platforma acceseaza modele de limbaj de mari dimensiuni (LLM) prin API-uri furnizate de Anthropic. Aceste modele sunt antrenate de furnizor pe corpusuri masive de text. Furnizorul declara ca respecta legislatia privind drepturile de autor in vigoare in UE.

Datele tale NU antreneaza modelul

Platforma noastra nu antreneaza si nu ajusteaza modele proprii pe baza interactiunilor utilizatorilor. Raspunsurile la teste si interactiunile cu AI-ul nu sunt transmise furnizorului in scopuri de antrenament, conform contractelor de servicii.

Continutul generat

Raspunsurile si explicatiile generate de AI pe aceasta platforma nu sunt opere originale in sensul dreptului de autor. Utilizatorii pot folosi feedback-ul primit in scopuri educationale.

📅Calendarul de implementare EU AI Act

AI Act are o arhitectura temporala progresiva. Iata termenele relevante:

Februarie 2025 — in vigoare

Interdictiile privind practicile AI inacceptabile (manipulare, scoring social, identificare biometrica)

August 2025 — in vigoare

Obligatiile privind modelele de uz general (GPAI) si cerintele de transparenta

August 2026 — in implementare

Obligatiile complete pentru sistemele AI cu risc ridicat devin pe deplin aplicabile

August 2027

Obligatii suplimentare pentru sisteme specifice

Angajamentul Ltrace: Aceasta declaratie este revizuita cel putin o data la sase luni. Orice modificare semnificativa in functionalitatile AI ale platformei genereaza o actualizare imediata. Utilizatorii inregistrati sunt notificati prin email la fiecare actualizare majora.

📧Contact si reclamatii

Pentru orice intrebare, solicitare de re-evaluare sau reclamatie legata de utilizarea inteligentei artificiale pe platforma Ltrace:

Contact platforma

Email: [email protected]

Vom raspunde in maximum 5 zile lucratoare.

Autoritate nationala

ANSPDCP (Autoritatea Nationala de Supraveghere a Prelucrarii Datelor cu Caracter Personal)

Website: dataprotection.ro

Intrebari frecvente despre AI pe Ltrace

Poate AI-ul sa corecteze gresit un test?

Da. Orice sistem automat poate produce erori. Tocmai de aceea marcam explicit ca rezultatele sunt generate de AI si tocmai de aceea ai dreptul de a contesta orice rezultat. Nu trata niciun rezultat al platformei ca pe o evaluare finala fara verificare umana.

Datele mele personale sunt folosite pentru a antrena AI-ul?

Nu. Raspunsurile tale nu sunt transmise furnizorului AI in scopuri de antrenament. Trimitem catre AI exclusiv textul raspunsului, cerinta si regulile de evaluare — fara nume, email sau alte date de identificare. Furnizorul nostru (Anthropic) garanteaza ca datele trimise prin API nu sunt folosite pentru training.

Cum stiu cand evaluarea este facuta de AI?

Orice evaluare realizata de inteligenta artificiala este marcata vizual in interfata. Feedback-ul AI este distinct de corectarea automata a intrebarilor obiective (grila, adevarat/fals). Daca primesti un feedback fara eticheta AI, inseamna ca provine de la un profesor.

Ce fac daca nu sunt de acord cu evaluarea AI?

Poti contacta echipa noastra la [email protected] pentru a solicita o re-evaluare umana. Administratorii platformei pot re-evalua orice test. Termenul de raspuns este de maximum 5 zile lucratoare.

Cine raspunde legal pentru erorile generate de AI?

Operatorul platformei (Hint One Zero / Ltrace) raspunde pentru modul in care AI-ul este integrat si utilizat. Furnizorul modelului AI raspunde pentru functionarea modelului in sine. Aceasta responsabilitate partajata este reglementata prin contractele de servicii si prin AI Act.

Platforma poate fi utilizata de copii sub 16 ani?

Da, cu acordul parintelui sau tutorelui legal, conform politicii de varsta si GDPR. Functionalitatile AI sunt identice pentru toti utilizatorii.

Platforma va folosi AI si pentru alte functionalitati in viitor?

Posibil. Orice noua functionalitate AI va fi comunicata utilizatorilor inainte de lansare, prin actualizarea acestei declaratii si prin notificare directa utilizatorilor inregistrati.

📚Resurse si legislatie

Mai jos gasesti link-uri catre legislatia europeana relevanta si resurse pentru a intelege mai bine drepturile tale:

Legea UE privind IA - Parlamentul European

Prezentare generala a Regulamentului European privind Inteligenta Artificiala (EU AI Act)

Textul integral al Regulamentului (UE) 2024/1689

Documentul oficial publicat in Jurnalul Oficial al Uniunii Europene

Cadrul de reglementare pentru IA - Comisia Europeana

Informatii despre implementarea si calendarul EU AI Act

ANSPDCP - Autoritatea Nationala de Supraveghere

Autoritatea romana competenta pentru protectia datelor si reclamatii