Responsible AI Platform
Overweging 58 van 18032%

Overweging 58 AI Act

Officiële tekst

id="rct_58">

(58)

Un alt domeniu în care utilizarea sistemelor de IA merită o atenție deosebită este accesul și posibilitatea de a beneficia de anumite prestații și servicii publice și private esențiale, necesare pentru ca oamenii să participe pe deplin în societate sau să își îmbunătățească nivelul de trai. În special, persoanele fizice care solicită sau primesc prestații și servicii esențiale de asistență publică din partea autorităților publice, și anume servicii de îngrijiri de sănătate, prestații de asigurări sociale, servicii sociale care oferă protecție în cazuri precum maternitatea, boala, accidentele de muncă, dependența, bătrânețea, pierderea locului de muncă, precum și asistență socială și legată de locuințe, sunt de regulă dependente de aceste prestații și servicii și se află într-o poziție vulnerabilă în raport cu autoritățile responsabile. În cazul în care sistemele de IA sunt utilizate pentru a stabili dacă astfel de prestații și servicii ar trebui să fie acordate, refuzate, reduse, revocate sau recuperate de autorități, inclusiv dacă beneficiarii au dreptul legitim la astfel de prestații sau servicii, sistemele respective pot avea un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și le pot încălca drepturile fundamentale, cum ar fi dreptul la protecție socială, la nediscriminare, la demnitatea umană sau la o cale de atac efectivă și, prin urmare, ar trebui să fie clasificate ca prezentând un grad ridicat de risc. Cu toate acestea, prezentul regulament nu ar trebui să împiedice dezvoltarea și utilizarea unor abordări inovatoare în administrația publică, care ar putea beneficia de o utilizare mai largă a sistemelor de IA conforme și sigure, cu condiția ca aceste sisteme să nu implice un risc ridicat pentru persoanele fizice și juridice. În plus, sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice ar trebui să fie clasificate ca sisteme de IA cu grad ridicat de risc, întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și telecomunicații. Sistemele de IA utilizate în aceste scopuri pot duce la discriminare între persoane sau între grupuri și pot perpetua tipare istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, sex, dizabilitate, vârstă sau orientare sexuală, sau pot crea noi forme de impact discriminatoriu. Cu toate acestea, sistemele de IA prevăzute de dreptul Uniunii în scopul detectării fraudelor în furnizarea de servicii financiare și în scopuri prudențiale pentru a calcula cerințele de capital ale instituțiilor de credit și ale întreprinderilor de asigurări nu ar trebui să fie considerate ca prezentând un grad ridicat de risc în temeiul prezentului regulament. În plus, sistemele de IA destinate a fi utilizate pentru evaluarea riscurilor și stabilirea prețurilor pentru asigurarea de sănătate și de viață în cazul persoanelor fizice pot avea, de asemenea, un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și, dacă nu sunt concepute, dezvoltate și utilizate în mod corespunzător, pot încălca drepturile lor fundamentale și pot avea consecințe grave pentru viața și sănătatea oamenilor, cum ar fi excluziunea financiară și discriminarea. În cele din urmă, sistemele de IA utilizate pentru evaluarea și clasificarea apelurilor de urgență ale persoanelor fizice sau pentru distribuirea sau stabilirea priorităților în distribuirea serviciilor de primă intervenție de urgență, inclusiv de către poliție, pompieri și asistența medicală, precum și în cadrul sistemelor de triaj medical de urgență al pacienților, ar trebui de asemenea să fie clasificate ca prezentând un grad ridicat de risc, deoarece iau decizii în situații foarte critice pentru viața și sănătatea persoanelor și pentru bunurile acestora.

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden