Definitie
Een testmethode waarbij experts proberen een AI-systeem te "breken" door kwetsbaarheden, bias of ongewenst gedrag te vinden. Verplicht voor GPAI-modellen met systemisch risico onder de EU AI Act. Onderdeel van adversarial testing om robuustheid te waarborgen.