Responsible AI Platform
Technische Concepten

Red Teaming

Definitie & Uitleg

Definitie

Een testmethode waarbij experts proberen een AI-systeem te "breken" door kwetsbaarheden, bias of ongewenst gedrag te vinden. Verplicht voor GPAI-modellen met systemisch risico onder de EU AI Act. Onderdeel van adversarial testing om robuustheid te waarborgen.

Gerelateerde termen

Lees meer over dit onderwerp