Responsible AI Platform
Technische Concepten

Jailbreaking (AI)

Definitie & Uitleg

Definitie

Technieken om de veiligheidsmaatregelen en beperkingen van AI-modellen te omzeilen, zodat het model content genereert die normaal geblokkeerd zou worden. GPAI-providers met systemisch risico moeten hun modellen testen op jailbreaking als onderdeel van adversarial testing.

Gerelateerde termen

Lees meer over dit onderwerp