Definitie
Technieken om de veiligheidsmaatregelen en beperkingen van AI-modellen te omzeilen, zodat het model content genereert die normaal geblokkeerd zou worden. GPAI-providers met systemisch risico moeten hun modellen testen op jailbreaking als onderdeel van adversarial testing.