Responsible AI Platform
Recital 59 of 18033%

Recital 59 AI Act

Official text

id="rct_59">

(59)

Lainvalvontaviranomaisten toimille, joihin liittyy tiettyä tekoälyjärjestelmien käyttöä, on ominaista huomattava vallan epätasapaino niiden roolin ja vastuun vuoksi, ja ne voivat johtaa luonnollisen henkilön valvontaan, pidättämiseen tai vapaudenmenetykseen sekä muihin perusoikeuskirjassa taattuihin perusoikeuksiin kohdistuviin haitallisiin vaikutuksiin. Erityisesti jos tekoälyjärjestelmää ei ole koulutettu laadukkaalla datalla, se ei täytä riittäviä vaatimuksia toimintansa, tarkkuutensa tai vakautensa suhteen tai sitä ei ole suunniteltu ja testattu asianmukaisesti ennen markkinoille saattamista tai muuta käyttöönottoa, se voi valikoida henkilöitä syrjivästi tai muulla tavoin väärin tai epäoikeudenmukaisesti. Lisäksi merkittävien menettelyllisten perusoikeuksien, joita ovat muun muassa oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen sekä oikeus puolustukseen ja syyttömyysolettama, käyttö voisi vaikeutua erityisesti silloin, kun tällaiset tekoälyjärjestelmät eivät ole riittävän avoimia, selitettävissä olevia ja dokumentoituja. Sen vuoksi on aiheellista luokitella suuririskisiksi joukko tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi lainvalvonnan yhteydessä, siltä osin kuin niiden käyttö on sallittua asiaa koskevan unionin oikeuden ja kansallisen lainsäädännön nojalla, kun tarkkuus, luotettavuus ja avoimuus ovat erityisen tärkeitä haitallisten vaikutusten välttämiseksi, kansalaisten luottamuksen säilyttämiseksi sekä vastuuvelvollisuuden ja tehokkaiden oikeussuojakeinojen varmistamiseksi. Kun otetaan huomioon toimintojen luonne ja niihin liittyvät riskit, näihin suuririskisiin tekoälyjärjestelmiin olisi katsottava kuuluvan erityisesti tekoälyjärjestelmät, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä lainvalvontaviranomaisten toimesta tai niiden puolesta taikka unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi, jotta voidaan arvioida luonnollisen henkilön riskiä joutua rikoksen uhriksi ja todistusaineiston luotettavuutta rikostutkinnassa tai rikosoikeudellisissa menettelyissä ja, siltä osin kuin sitä ei kielletä tässä asetuksessa, arvioida luonnollisen henkilön rikoksen esiintymisen tai toistumisen riskiä myös muilla keinoilla kuin luonnollisten henkilöiden profiloinnin tai luonnollisten henkilöiden tai ryhmien persoonallisuuspiirteiden ja -ominaisuuksien tai aiemman rikollisen käyttäytymisen arvioinnin perusteella, rikosten paljastamisen, tutkimisen tai rikoksiin liittyvien syytetoimien yhteydessä tapahtuvaa profilointia varten. Tekoälyjärjestelmiä, jotka on erityisesti tarkoitettu käytettäviksi vero- ja tulliviranomaisten hallinnollisissa menettelyissä sekä rahanpesun selvittelykeskuksissa, jotka suorittavat hallinnollisia tehtäviä, joissa analysoidaan tietoja unionin rahanpesunvastaisen lainsäädännön nojalla, ei pitäisi luokitella suuririskisiksi tekoälyjärjestelmiksi, joita lainvalvontaviranomaiset käyttävät rikosten ennalta estämiseen, tutkimiseen, paljastamiseen tai rikoksiin liittyviin syytetoimiin. Lainvalvontaviranomaisten ja muiden asiaankuuluvien viranomaisten harjoittama tekoälyn käyttö ei saisi lisätä eriarvoisuutta tai syrjäytymistä. Tekoälyvälineiden käytön vaikutuksia rikoksesta epäiltyjen puolustusoikeuksiin ei pitäisi jättää huomiotta, etenkään vaikeuksia saada kyseisten järjestelmien toimintaa koskevia merkityksellisiä tietoja ja siitä erityisesti tutkinnan kohteena oleville luonnollisille henkilöille aiheutuvaa ongelmaa haastaa tekoälyvälineiden tulokset tuomioistuimessa.

Source: EUR-Lex, Regulation (EU) 2024/1689 — text reproduced verbatim.

📬 AI Act Weekly

Get the most important AI Act developments in your inbox every week.

Subscribe