Deutschland war nie eine Kolonialmacht wie Großbritannien oder Frankreich. Doch zwischen 1884 und 1914 kontrollierte das Deutsche Reich mehrere Territorien in Afrika und der Südsee. Heute spielen diese Kolonien in unserer Geschichtsdebatte kaum eine Rolle – sollte das so sein?
Anoniem stemmen is mogelijk. Registreer voor een profiel en score.
War das Wirtschaftswunder der 50er ein echtes Verdienst – oder hatten wir einfach Glück?
🗳 20 Stimmen