Responsible AI Platform
Technische Concepten

Adversarial Testing

Definitie & Uitleg

Definitie

Het systematisch testen van AI-systemen op kwetsbaarheden door ze bloot te stellen aan bewust misleidende of kwaadaardige input. Verplicht voor GPAI-modellen met systemisch risico. Omvat red teaming, jailbreak-pogingen en robustness testing.

Gerelateerde termen

Lees meer over dit onderwerp