Nicht schon mit dem Ende des deutschen Kaiserreichs, sondern erst mit dem offiziellen Ende des Ersten Weltkriegs durch den Versailler Vertrag endete auch die deutsche Kolonialherrschaft. Ein Jahrhundert danach ist im öffentlichen Diskurs der Bundesrepublik eine allmählich zunehmende Bereitschaft zu beobachten, sich mit der kolonialen Vergangenheit Deutschlands und deren Auswirkungen auf die gesellschaftliche Gegenwart dieses Landes auseinanderzusetzen. Dass die Debatte über den Kolonialismus nun an Fahrt gewinnt, hängt nicht zuletzt mit der Wiederkehr des Verdrängten in Form der Flucht- und Migrationsbewegungen nach Europa zusammen.
(aus: »Blätter« 1/2019, Seite 111-121)
Themen: Kultur, Afrika und Geschichte