Was sind die englischen Kolonien?
Was sind die englischen Kolonien? Ab dem 17. Jahrhundert wanderten Menschen aus verschiedenen Regionen Europas in die englischen und französischen Kolonien in Nordamerika ein. Sie suchten oft Schutz vor politischer Verfolgung und Freiheit für die Ausübung ihrer Religion. Wann gab es erste Kolonien? Die deutschen Kolonien wurden vom Deutschen Reich seit den 1880er Jahren erworben…