Overweging 53 AI Act
Officiële tekst
id="rct_53">
(53)
On myös tärkeää selventää, että tietyissä tapauksissa tekoälyjärjestelmät, joihin viitataan tässä asetuksessa täsmennetyillä erikseen määritellyillä aloilla, eivät aiheuta merkittävän haitan riskiä kyseisillä aloilla suojatuille oikeudellisille eduille, koska ne eivät vaikuta olennaisesti päätöksentekoon tai vahingoita kyseisiä etuja merkittävästi. Tätä asetusta sovellettaessa tekoälyjärjestelmän, joka ei olennaisesti vaikuta päätöksenteon tulokseen, olisi katsottava olevan tekoälyjärjestelmä, jolla ei ole vaikutusta päätöksenteon sisältöön ja näin ollen sen tulokseen riippumatta siitä, onko tämä päätöksenteko automatisoitua vai vastaako siitä ihminen. Tekoälyjärjestelmä voidaan katsoa sellaiseksi, joka ei olennaisesti vaikuta päätöksenteon tulokseen, esimerkiksi tilanteissa, joissa yksi tai useampi seuraavista edellytyksistä täyttyy. Ensimmäisenä tällaisena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan suppeaa menettelyllistä tehtävää. Tällaiseksi katsotaan esimerkiksi tekoälyjärjestelmä, joka muuntaa jäsentämättömän datan jäsennellyksi dataksi, tekoälyjärjestelmä, joka luokittelee saapuvia asiakirjoja, tai tekoälyjärjestelmä, jota käytetään päällekkäisyyksien havaitsemiseen useiden sovellusten välillä. Nämä tehtävät ovat niin kapea-alaisia ja rajallisia, että niistä aiheutuu vain vähäisiä riskejä, jotka eivät lisäänny sellaisen tekoälyjärjestelmän käytön yhteydessä, joka mainitaan tämän asetuksen liitteessä suuririskisenä käyttönä. Toisena edellytyksenä olisi oltava, että tekoälyjärjestelmän suorittaman tehtävän tarkoituksena on parantaa aiemmin päätökseen saatetun ihmisen toiminnan tulosta, jolla voi olla merkitystä tämän asetuksen liitteessä luetellun suuririskisen käytön kannalta. Kun otetaan huomioon nämä ominaisuudet, tekoälyjärjestelmä tuottaa vain täydentävän kerroksen ihmisen toiminnalle, jolloin riski on alentunut. Tätä edellytystä sovellettaisiin esimerkiksi tekoälyjärjestelmiin, joiden tarkoituksena on parantaa aiemmin laadituissa asiakirjoissa käytettyä kieltä esimerkiksi ammatillisen sävyn tai akateemisen tyylin osalta tai mukauttamalla teksti tietynlaisen brändiviestinnän mukaiseksi.Kolmantena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu havaitsemaan päätöksentekotapoja tai poikkeamia aiemmista päätöksentekotavoista. Riski olisi alentunut, koska tekoälyjärjestelmän käyttö perustuu ihmisen aiemmin tekemään arviointiin, jota sen ei ole tarkoitus korvata tai johon sen ei ole tarkoitus vaikuttaa ilman asianmukaista ihmisen suorittamaa arviointia. Tällaisia tekoälyjärjestelmiä ovat esimerkiksi järjestelmät, joiden avulla voidaan esimerkiksi tietyn opettajan arvostelutapojen pohjalta tarkistaa jälkikäteen, onko kyseinen opettaja mahdollisesti poikennut arvostelutavoistaan. Näin voidaan ilmoittaa mahdollisista epäjohdonmukaisuuksista tai poikkeamista. Neljäntenä edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan tehtävä, joka on ainoastaan tämän asetuksen liitteessä lueteltujen tekoälyjärjestelmien kannalta merkityksellisen arvioinnin valmistelua, jolloin järjestelmän tuotoksen mahdollinen vaikutus on hyvin vähäinen siltä osin kuin se muodostaa riskin arvioinnissa. Tämä edellytys kattaa muun muassa tiedostojen käsittelyä koskevat älykkäät ratkaisut, joihin kuuluu erilaisia toimintoja, kuten indeksointi, haku, tekstin- ja puheenkäsittely tai tietojen yhdistäminen muihin tietolähteisiin, ja tekoälyjärjestelmät, joita käytetään alkuperäisten asiakirjojen kääntämiseen. Tämän asetuksen liitteessä luetelluissa suuririskisen käytön tapauksissa käytetyt tekoälyjärjestelmät olisi joka tapauksessa katsottava aiheuttavan merkittävän haitan riskin terveydelle, turvallisuudelle tai perusoikeuksille, jos tekoälyjärjestelmä edellyttää asetuksen (EU) 2016/679 4 artiklan 4 alakohdassa, direktiivin (EU) 2016/680 3 artiklan 4 alakohdassa tai asetuksen (EU) 2018/1725 3 artiklan 5 alakohdassa tarkoitettua profilointia. Jäljitettävyyden ja avoimuuden varmistamiseksi tarjoajan, joka edellä tarkoitettujen edellytysten perusteella katsoo, että tekoälyjärjestelmä ei ole suuririskinen, olisi laadittava arviointia koskeva dokumentaatio ennen kyseisen järjestelmän markkinoille saattamista tai käyttöönottoa ja toimitettava tämä dokumentaatio pyynnöstä kansallisille toimivaltaisille viranomaisille. Tällainen tarjoaja olisi velvoitettava rekisteröimään tekoälyjärjestelmä tämän asetuksen nojalla perustettuun EU:n tietokantaan. Jotta voidaan antaa lisäohjeita niiden edellytysten käytännön täytäntöönpanosta, joiden mukaisesti tämän asetuksen liitteessä luetellut tekoälyjärjestelmät ovat poikkeuksellisesti muita kuin suuririskisiä, komission olisi tekoälyneuvostoa kuultuaan annettava ohjeet, joissa täsmennetään, että käytännön täytäntöönpanoa täydennetään kattavalla luettelolla, jossa on käytännön esimerkkejä sellaisten tekoälyjärjestelmien käyttötapauksista, jotka ovat suuririskisiä, ja käyttötapauksista, jotka eivät sitä ole.
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
Aanmelden