Temeiurile legale pentru prelucrarea datelor personale în contextul inteligenței artificiale sunt esențiale pentru a respecta cerințele GDPR. Majoritatea aplicațiilor AI procesează date personale pentru antrenare sau funcționare, iar operatorii trebuie să stabilească clar un temei legal. Cele mai folosite temeiuri sunt consimțământul explicit al persoanei vizate, executarea unui contract, respectarea unei obligații legale sau interesul legitim al operatorului.

Pentru sistemele AI, consimțământul trebuie să fie informat, specific și ușor de retras. În multe cazuri, însă, doar consimțământul nu este suficient, mai ales când există un dezechilibru între părți sau când se procesează date sensibile. În aceste situații, operatorii trebuie să analizeze dacă se poate aplica interesul public major sau alte excepții permise de lege. Este important ca dezvoltatorii și operatorii să documenteze temeiul ales și să îl comunice clar persoanelor vizate.

Evaluarea impactului asupra protecției datelor (DPIA)

Evaluarea impactului asupra protecției datelor, cunoscută drept DPIA (Data Protection Impact Assessment), este o cerință obligatorie pentru proiectele AI ce implică prelucrarea pe scară largă a datelor cu caracter personal sau procese decizionale automate. DPIA este menită să identifice riscurile la adresa drepturilor și libertăților persoanelor și să estimeze efectele reale ale implementării tehnologiei AI.

Procesul de DPIA trebuie să înceapă încă din faza de proiectare a sistemului AI. Evaluarea presupune:

  • Identificarea și descrierea prelucrărilor de date,
  • Analizarea necesității și proporționalității prelucrării,
  • Evaluarea riscurilor pentru persoane,
  • Definirea măsurilor de eliminare sau reducere a acelor riscuri.

Dacă riscurile nu pot fi atenuate suficient, este necesară consultarea autorității de supraveghere înainte de implementarea AI-ului analizat. DPIA contribuie la responsabilizarea operatorilor și la creșterea încrederii utilizatorilor în tehnologiile AI.

Măsuri tehnice și organizatorice: privacy by design și privacy by default

Măsurile tehnice și organizatorice dedicate conceptelor de privacy by design și privacy by default sunt esențiale pentru securitatea datelor în AI. Privacy by design presupune integrarea protecției datelor încă din faza de proiectare și în tot ciclul de viață al sistemului AI. Aceasta înseamnă selectarea acelor algoritmi și mecanisme care minimizează riscurile de confidențialitate.

Privacy by default garantează că, implicit, se colectează și prelucrează doar datele strict necesare, iar accesul la acestea este limitat. Printre măsuri se numără:

  • Pseudonimizarea și criptarea datelor,
  • Limitarea stocării datelor,
  • Controlul strict al accesului la date,
  • Monitorizarea accesului și istoricului datelor.

Operatorii trebuie să documenteze aceste măsuri și să demonstreze că le aplică efectiv, fiind pregătiți să dovedească oricând conformitatea cu GDPR față de autoritățile de supraveghere.

Auditarea și monitorizarea sistemelor AI

Auditarea și monitorizarea sistemelor AI sunt pași esențiali pentru a garanta respectarea reglementărilor GDPR și AI Act. Auditarea implică verificarea periodică a modului de prelucrare a datelor, a algoritmilor folosiți și a respectării politicilor interne privind protecția datelor.

Monitorizarea continuă a sistemelor AI este necesară pentru a detecta eventuale derapaje, erori sau încălcări accidentale, dar și pentru a evalua dacă procesările continuă să fie legale și proporționale. Acest proces poate implica loguri detaliate, analize independente, simulări de scenarii sau implicarea unor terți experți.

Operatorii și dezvoltatorii trebuie, de asemenea, să revizuiască regulat drepturile persoanelor vizate, să răspundă la cereri de informare și să ajusteze sistemele AI conform modificărilor legislative sau tehnologice. Auditarea transparentă și riguroasă contribuie la creșterea încrederii publice și la evitarea amenzilor sau sancțiunilor din partea autorităților.

Directiva Whistleblower – Lege avertizori de integritate

Leave a Comment