Afrika, China, Pazifik: An vielen Orten der Erde hatte das Deutsche Kaiserreich seine Kolonien. Erst mit dem Ende des Ersten Weltkriegs und der endgültigen Kapitulation der Truppen unter Paul von Lettow-Vorbeck in Deutsch-Ostafrika am 25. November 1918 ging die deutsche Kolonialherrschaft faktisch zu Ende.
…. „Es ist überraschend, wie wenig Emotionen und wie wenig Diskussionen um historische Gerechtigkeit sich über Jahrzehnte hinweg hier in Deutschland mit dem Thema des deutschen Kolonialismus verbanden“.....
…. Tatsächlich sei etwa die Frage, wo es deutsche Kolonien weltweit gab, kein Pflichtthema im Schulunterricht, monieren Forscher.
…. Lange habe hartnäckig die Meinung vorgeherrscht, dass Deutschland im Vergleich zu Frankreich oder England nur eine „harmlose Kolonialmacht“ gewesen sei, erläutert die Berliner Kolonialismushistorikerin Manuela Bauche. Auch dass die deutsche Kolonialmacht „zivilisatorische Leistungen gebracht habe, ist eine Geschichte, die sich extrem gut gehalten hat“, sagt sie. „Diese Propaganda ist bis heute wirksam geblieben.“ Dringend nötig sei darum die klare Positionierung, „dass Kolonialismus kein Abenteuersystem oder das naive Erkunden von fremden Welten, sondern ein Unrechtssystem war, das grundlegend auf Gewalt basierte und Menschen entrechtete.“
weiterlesen im migazin
Keine Kommentare:
Kommentar veröffentlichen