Deutschland als Kolonialmacht
Deutschland kam spät ins Kolonialgeschäft - erst in den 1880er Jahren, während Länder wie Großbritannien und Spanien schon jahrhundertelang Kolonien besaßen.
Die ersten deutschen Kolonien lagen hauptsächlich in Afrika: Kamerun, Deutsch-Ostafrika (heute Tansania, Ruanda, Burundi) und Deutsch-Südwestafrika (heute Namibia). Dazu kam noch Deutsch-Neuguinea im Pazifik.
Deutsche Kolonialherrschaft war besonders brutal. Der Aufstand der Herero und Nama in Deutsch-Südwestafrika wurde so gewaltsam unterdrückt, dass Historiker heute von Völkermord sprechen.
Nach dem Ersten Weltkrieg verlor Deutschland alle Kolonien durch den Versailler Vertrag. Die Auswirkungen dieser Kolonialzeit prägen die Beziehungen zu den betroffenen Ländern bis heute.
Wichtig für Klausuren: Deutschland war keine große Kolonialmacht, aber die deutsche Kolonialherrschaft war besonders gewalttätig.