Definitie
Het systematisch testen van AI-systemen op kwetsbaarheden door ze bloot te stellen aan bewust misleidende of kwaadaardige input. Verplicht voor GPAI-modellen met systemisch risico. Omvat red teaming, jailbreak-pogingen en robustness testing.