Definitie
Foutieve output van AI-systemen (vooral LLMs) waarbij het model overtuigend klinkende maar feitelijk onjuiste informatie genereert. Een belangrijk risico bij generatieve AI waarover gebruikers moeten worden voorgelicht in het kader van AI-geletterdheid.