Annex III AI Act
class="oj-doc-ti" id="d1e38-127-1">ANEXO III
Officiële tekst
id="anx_III"> ANEXO III Sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2 Os sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2, são os sistemas de IA incluídos num dos domínios a seguir enumerados:
1. Dados biométricos, na medida em que a sua utilização seja permitida ao abrigo do direito da União ou do direito nacional aplicável:
a) Sistemas de identificação biométrica à distância. Não inclui os sistemas de IA concebidos para serem utilizados para verificação biométrica com o único propósito de confirmar que uma determinada pessoa singular é a pessoa que alega ser;
b) Sistemas de IA concebidos para serem utilizados para categorização biométrica, de acordo com atributos ou características sensíveis ou protegidos com base na inferência desses atributos ou características;
c) Sistemas de IA concebidos para serem utilizados para o reconhecimento de emoções.
2. Infraestruturas críticas: sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo de infraestruturas digitais críticas, do trânsito rodoviário ou das redes de abastecimento de água, gás, aquecimento ou eletricidade.
3. Educação e formação profissional:
a) Sistemas de IA concebidos para serem utilizados para determinar o acesso ou a admissão ou a afetação de pessoas singulares a instituições de ensino e de formação profissional de todos os níveis;
b) Sistemas de IA concebidos para serem utilizados para avaliar os resultados da aprendizagem, nomeadamente quando esses resultados são utilizados para orientar o processo de aprendizagem de pessoas singulares em instituições de ensino e de formação profissional de todos os níveis;
c) Sistemas de IA concebidos para serem utilizados para efeitos de avaliação do nível de educação adequado que as pessoas receberão ou a que poderão ter acesso no contexto de instituições de ensino e formação profissional ou nessas instituições de todos os níveis;
d) Sistemas de IA concebidos para serem utilizados para efeitos de controlo e deteção de práticas proibidas por parte de estudantes durante testes no contexto de instituições de ensino e formação profissional ou nessas instituições de todos os níveis.
4. Emprego, gestão de trabalhadores e acesso ao emprego por conta própria:
a) Sistemas de IA concebidos para serem utilizados no recrutamento ou na seleção de pessoas singulares, nomeadamente para colocar anúncios de emprego direcionados, analisar e filtrar candidaturas a ofertas de emprego e avaliar os candidatos;
b) Sistemas de IA concebidos para serem utilizados na tomada de decisões que afetem os termos das relações de trabalho, a promoção ou a cessação das relações contratuais de trabalho, na atribuição de tarefas com base em comportamentos individuais, traços ou características pessoais, ou no controlo e avaliação do desempenho e da conduta de pessoas que são partes nessas relações.
5. Acesso a serviços privados essenciais e a serviços e prestações públicos essenciais, bem como o usufruto dos mesmos:
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas, ou em seu nome, para avaliar a elegibilidade de pessoas singulares para terem acesso a prestações e serviços de assistência pública essenciais, incluindo serviços de cuidados de saúde, bem como para conceder, reduzir, revogar ou recuperar o acesso a tais prestações e serviços;
b) Sistemas de IA concebidos para serem utilizados para avaliar a capacidade de solvabilidade de pessoas singulares ou estabelecer a sua classificação de crédito, com exceção dos sistemas de IA utilizados para efeitos de deteção de fraude financeira;
c) Sistemas de IA concebidos para serem utilizados nas avaliações de risco e na fixação de preços em relação a pessoas singulares no caso de seguros de vida e de saúde;
d) Sistemas de IA concebidos para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para serem utilizados no envio, ou no estabelecimento de prioridades no envio, de serviços de primeira resposta a emergências, incluindo polícia, bombeiros e assistência médica, bem como sistemas de triagem de pacientes dos sistemas de cuidados de saúde de emergência.
6. Aplicação da lei, na medida em que a sua utilização seja permitida nos termos do direito da União ou do direito nacional aplicável:
a) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei, ou em seu nome, para avaliar o risco de uma pessoa singular vir a ser vítima de infrações penais;
b) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei, como polígrafos ou instrumentos semelhantes;
c) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou ação penal relativas a infrações penais;
d) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei para avaliar o risco de uma pessoa singular cometer uma infração penal ou reincidir não exclusivamente com base na definição de perfis de pessoas singulares na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680, ou para avaliar os traços e características da personalidade ou o comportamento criminal passado de pessoas singulares ou grupos;
e) Sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei, ou em seu nome, ou por instituições, órgãos ou organismos da União em apoio das autoridades responsáveis pela aplicação da lei para definir o perfil de pessoas singulares na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680, no decurso da deteção, investigação ou ação penal relativas a infrações penais.
7. Gestão da migração, do asilo e do controlo das fronteiras, na medida em que a sua utilização seja permitida nos termos do direito da União ou do direito nacional aplicável:
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes ou instituições, órgãos ou organismos da União, ou em seu nome, como polígrafos e instrumentos semelhantes;
b) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por instituições, órgãos ou organismos da União para avaliar os riscos, incluindo um risco para a segurança, um risco de migração irregular ou um risco para a saúde, que uma pessoa singular que pretenda entrar ou tenha entrado no território de um Estado-Membro represente;
c) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por instituições, órgãos ou organismos da União para auxiliar as autoridades públicas competentes na análise de pedidos de asilo, de visto e de autorização de residência e das queixas conexas, no que toca à elegibilidade das pessoas singulares que requerem determinado estatuto, nomeadamente nas avaliações conexas da fiabilidade dos elementos de prova;
d) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes ou por instituições, órgãos ou organismos da União, ou em seu nome, no contexto da gestão da migração, do asilo ou do controlo das fronteiras, para efeitos de deteção, reconhecimento ou identificação de pessoas singulares, com exceção da verificação de documentos de viagem.
8. Administração da justiça e processos democráticos:
a) Sistemas de IA concebidos para serem utilizados por uma autoridade judiciária, ou em seu nome, para auxiliar uma autoridade judiciária na investigação e na interpretação de factos e do direito, bem como na aplicação da lei a um conjunto específico de factos, ou para serem utilizados de forma similar na resolução alternativa de litígios;
b) Sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos. Não estão incluídos os sistemas de IA a cujos resultados as pessoas singulares não estejam diretamente expostas, como as ferramentas utilizadas para organizar, otimizar e estruturar campanhas políticas do ponto de vista administrativo e logístico.
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
AanmeldenVeelgestelde vragen
Welke AI-systemen staan in Bijlage III van de AI Act?
Bijlage III bevat acht categorieën hoog-risico AI-systemen: (1) biometrie, (2) kritieke infrastructuur, (3) onderwijs en beroepsopleiding, (4) werkgelegenheid en personeelsbeheer, (5) essentiële diensten, (6) rechtshandhaving, (7) migratie en grenscontrole, en (8) rechtsbedeling en democratische processen.
Is mijn AI-systeem hoog-risico volgens Bijlage III?
Controleer of uw AI-systeem valt onder een van de acht categorieën in Bijlage III. Het systeem moet 'bedoeld zijn om te worden gebruikt' voor het genoemde doel. De classificatie hangt af van het beoogde gebruik, niet van de onderliggende technologie.
Welke AI-systemen in HR en werving zijn hoog-risico?
Volgens Bijlage III, punt 4: AI voor (a) werving en selectie, waaronder gerichte vacatureadvertenties, het filteren van sollicitaties en het beoordelen van kandidaten, en (b) beslissingen over arbeidsvoorwaarden, promotie, ontslag, taakverdeling en het monitoren van prestaties.
Vallen AI-systemen in de bankensector onder Bijlage III?
Ja, als het AI-systeem wordt gebruikt voor kredietwaardigheidsbeoordelingen of het bepalen van kredietscores van natuurlijke personen (punt 5b). Uitzondering: AI-systemen voor het detecteren van financiële fraude vallen hier niet onder.
Zijn AI-systemen in de zorg hoog-risico volgens Bijlage III?
Ja, onder punt 5a: AI-systemen die door of namens overheidsinstanties worden gebruikt om de geschiktheid van personen voor essentiële publieke diensten te beoordelen, waaronder gezondheidszorg. Ook AI voor triage bij spoedgevallen (punt 5d) is hoog-risico.
Welke biometrische AI-systemen zijn hoog-risico?
Volgens Bijlage III, punt 1: (a) biometrische identificatie op afstand, (b) biometrische categorisering op basis van gevoelige kenmerken, en (c) emotieherkenning. Biometrische verificatie (bevestigen dat iemand is wie hij zegt te zijn) is uitgesloten.
Vallen AI-systemen bij de overheid onder Bijlage III?
Ja, meerdere categorieën zijn relevant voor de overheid: AI voor publieke dienstverlening (punt 5a), rechtshandhaving (punt 6), migratie en grenscontrole (punt 7), en rechtsbedeling (punt 8). Ook AI in onderwijs (punt 3) is relevant voor publieke onderwijsinstellingen.
Is AI voor emotieherkenning hoog-risico?
Ja, AI-systemen bedoeld voor emotieherkenning staan expliciet in Bijlage III, punt 1c. Let op: emotieherkenning op de werkplek en in het onderwijs is zelfs verboden onder artikel 5.
Welke AI in het onderwijs is hoog-risico?
Bijlage III, punt 3 noemt vier categorieën: (a) toelating tot onderwijsinstellingen, (b) beoordeling van leerresultaten, (c) bepalen van het juiste onderwijsniveau, en (d) het monitoren van verboden gedrag tijdens examens (proctoring).
Is AI voor noodoproepen hoog-risico?
Ja, Bijlage III, punt 5d classificeert AI-systemen die noodoproepen evalueren en classificeren, of die worden gebruikt voor het dispatchen van hulpdiensten (politie, brandweer, ambulance) en triage bij spoedeisende hulp als hoog-risico.
Kan de Europese Commissie Bijlage III uitbreiden?
Ja, artikel 7 geeft de Commissie de bevoegdheid om via gedelegeerde handelingen nieuwe hoog-risico AI-toepassingen aan Bijlage III toe te voegen, mits deze vergelijkbare risico's voor grondrechten opleveren als de bestaande categorieën.
Vallen AI-systemen voor verkiezingsbeïnvloeding onder Bijlage III?
Ja, Bijlage III, punt 8b classificeert AI-systemen bedoeld om de uitkomst van verkiezingen of referenda te beïnvloeden, of het stemgedrag van personen, als hoog-risico. Logistieke campagnetools waar burgers niet direct aan worden blootgesteld zijn uitgezonderd.
Valt AI voor verzekeringen onder Bijlage III?
Ja, Bijlage III punt 5c classificeert AI-systemen die worden gebruikt voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen van natuurlijke personen als hoog-risico. AI voor schadedetectie en fraudebestrijding bij verzekeringen valt hier niet automatisch onder.
Is AI-gestuurde CV-screening hoog-risico?
Ja, Bijlage III punt 4a classificeert AI-systemen voor het filteren en beoordelen van sollicitaties expliciet als hoog-risico. Dit omvat geautomatiseerde CV-screening, AI-gestuurde matching van kandidaten en geautomatiseerde assessments in wervingsprocessen.
Hoe weet ik of mijn AI-systeem 'bedoeld is om te worden gebruikt' voor een doel uit Bijlage III?
De classificatie hangt af van het beoogde gebruik (intended purpose) zoals bepaald door de aanbieder, niet van de technische mogelijkheden. Als een AI-systeem technisch geschikt is voor een Bijlage III-doel maar niet daarvoor is bedoeld, is het niet automatisch hoog-risico. Wel kan hergebruik voor een Bijlage III-doel leiden tot herclassificatie.