Kolonien
Die deutsche Geschichte muss immer auch als Geschichte der Kolonisation betrachtet werden. Seit den 1880er Jahren wurden deutsche Kolonien vor allem in Afrika und Asien erworben. Eine gegenseitige geschichtliche Prägung fand dort durch diesen Prozess, der hier in spannenden Erzählungen und Dokumentationen beleuchtet und aufgearbeitet wird.