Künstliche Intelligenz wirkt oft objektiv – ist sie aber nicht. Sprachmodelle, Bildgeneratoren und Empfehlungssysteme übernehmen gesellschaftliche Muster aus ihren Trainingsdaten. Dadurch entstehen sogenannte Biases: Verzerrungen, die bestimmte Gruppen benachteiligen oder stereotype Rollenbilder verstärken. Besonders Frauen und Minderheiten sind davon betroffen.