Responsible AI Platform
Overweging 53 van 18029%

Overweging 53 AI Act

Officiële tekst

id="rct_53">

(53)

De asemenea, este important să se clarifice faptul că pot exista cazuri specifice în care sistemele de IA menționate în domenii predefinite specificate în prezentul regulament nu conduc la un risc semnificativ de a aduce prejudicii intereselor juridice protejate în cadrul domeniilor respective, deoarece nu influențează în mod semnificativ procesul decizional sau nu aduc prejudicii substanțiale intereselor respective. În sensul prezentului regulament, un sistem de IA care nu influențează în mod semnificativ rezultatul procesului decizional ar trebui să fie înțeles ca fiind un sistem de IA care nu are un impact asupra substanței și, prin urmare, nici asupra rezultatului procesului decizional, indiferent dacă este uman sau automatizat. Un sistem de IA care nu influențează în mod semnificativ rezultatul procesului decizional ar putea include situații în care sunt îndeplinite una sau mai multe dintre condițiile prezentate în continuare. Prima condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să îndeplinească o sarcină procedurală restrânsă, de exemplu un sistem de IA care transformă date nestructurate în date structurate, un sistem de IA care clasifică pe categorii documentele primite sau un sistem de IA care este utilizat pentru a detecta duplicatele dintr-un număr mare de candidaturi. Aceste sarcini au un caracter atât de restrâns și de limitat încât prezintă doar riscuri reduse, riscuri care nu cresc prin utilizarea unui sistem de IA într-un context enumerat ca utilizare cu grad ridicat de risc într-o anexă la prezentul regulament. A doua condiție ar trebui să fie ca sarcina îndeplinită de sistemul de IA să fie menită să îmbunătățească rezultatul unei activități umane finalizate anterior care poate fi relevantă în sensul utilizărilor cu grad ridicat de risc enumerate într-o anexă la prezentul regulament. Având în vedere aceste caracteristici, sistemul de IA adaugă doar un nivel suplimentar unei activități umane, prezentând în consecință un risc redus. Această condiție s-ar aplica, de exemplu, sistemelor de IA care sunt menite să îmbunătățească limbajul utilizat în documente redactate anterior, de exemplu în ceea ce privește tonul profesional, stilul academic de limbaj sau alinierea textului la mesajele specifice unei anumite mărci. A treia condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să detecteze modelele decizionale sau devierile de la modele decizionale anterioare. Riscul ar fi redus deoarece utilizarea sistemului de IA este ulterioară unei evaluări finalizate anterior de către un om, pe care nu este destinată să o înlocuiască sau să o influențeze fără o revizuire adecvată de către un om. Printre aceste sisteme de IA se numără, de exemplu, cele care, având în vedere un anumit model de notare folosit de un cadru didactic, pot fi utilizate pentru a verifica ex post dacă respectivul cadru didactic s-a abătut de la modelul de notare în cauză și pentru a semnala astfel eventuale inconsecvențe sau anomalii. A patra condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să îndeplinească o sarcină care este doar pregătitoare pentru o evaluare relevantă pentru scopurile sistemelor de IA enumerate într-o anexă la prezentul regulament, făcând astfel ca posibilul impact al rezultatelor sistemului să prezinte un risc foarte scăzut pentru evaluarea ulterioară bazată pe ele. Această condiție se referă, printre altele, la soluțiile inteligente de gestionare a fișierelor, care includ diverse funcții, cum ar fi indexarea, căutarea, prelucrarea textelor și a vorbirii sau corelarea datelor cu alte surse de date, ori la sistemele de IA utilizate pentru traducerea documentelor inițiale. În orice caz, ar trebui să se considere că sistemele de IA utilizate în situații cu grad ridicat de risc enumerate într-o anexă la prezentul regulament prezintă riscuri semnificative de prejudicii la adresa sănătății, siguranței sau drepturilor fundamentale dacă implică crearea de profiluri în sensul articolului 4 punctul 4 din Regulamentul (UE) 2016/679 sau al articolului 3 punctul 4 din Directiva (UE) 2016/680 sau al articolului 3 punctul 5 din Regulamentul (UE) 2018/1725. Pentru a asigura trasabilitatea și transparența, un furnizor care consideră pe baza condițiilor menționate mai sus că un sistem de IA nu prezintă un grad ridicat de risc ar trebui să întocmească documentația pentru evaluare înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune și ar trebui să furnizeze respectiva documentație autorităților naționale competente, la cerere. Furnizorul ar trebui să fie obligat să înregistreze sistemul de IA în baza de date a UE instituită în temeiul prezentului regulament. Pentru a oferi îndrumare suplimentară în vederea punerii în practică a condițiilor în care sistemele de IA enumerate într-o anexă la prezentul regulament nu prezintă, în mod excepțional, un grad ridicat de risc, Comisia ar trebui, după consultarea Consiliului IA, să furnizeze orientări care să detalieze respectiva punere în practică, completate de o listă cuprinzătoare de exemple practice de cazuri de utilizare a sistemelor de IA cu grad ridicat de risc și cazuri de utilizare fără grad ridicat de risc.

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden