Wie lange hatte Deutschland Kolonien?
Wie lange hatte Deutschland Kolonien? Die deutschen Kolonien wurden vom Deutschen Reich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Sie wurden von Bismarck Schutzgebiete genannt, weil er in ihnen den deutschen Handel schützen wollte. Wer hat die Kolonien gegründet? Kolonialmächte und ihre „Peripherien“ Genua und…