Kolonialismus

Als Kolonialismus wird die staatlich geförderte oder betriebene Besetzung eines Gebietes und die Fremdherrschaft über die dort ansässige Bevölkerung bezeichnet. Historisch lag die Hochzeit des Kolonialismus zwischen dem 15. und dem 20. Jahrhundert, als europäische (und später US-amerikanische und australische) Menschen begannen, die Afrika, Teile Asiens und Amerika zu besiedeln und auszubeuten. Dabei unterdrückten, versklavten und töteten sie die lokale Bevölkerung und legitimierten dies mit einer rassistischen Ideologie, die ihre angebliche biologische, zivilisatorische und religiöse Überlegenheit behauptete. Auch das Deutsche Kaiserreich hatte mehrere Kolonien in Asien und Afrika. Bis in die 1970er Jahre hinein weigerten sich europäische Regierungen, den kolonisierten Gebieten ihre Unabhängigkeit zuzugestehen. Die Folgen des Kolonialismus sind noch heute spürbar – sowohl in den kolonisierten als auch ehemals kolonisierenden Gesellschaften.  

Siehe auch Postkolonialismus und Rassismus