Kolonialismus
Der Begriff Kolonialismus (lateinisch: Koloniensiedlung, Siedlung) beschreibt die Politik, die auf den Erwerb und die Expansion von Kolonien unter dem Gesichtspunkt des wirtschaftlichen, militärischen und machtpolitischen Nutzens für das Mutterland bei gleichzeitiger politischer Unterdrückung und wirtschaftlicher Ausbeutung der abhängigen Völker abzielt. Darüber hinaus spielte die Missionsarbeit eine wichtige Rolle.
Die Erscheinung des Kolonialismus hat im Laufe der Geschichte existiert.
Nach dem Muster des Kolonialismus waren die europäischen Staaten an der Eroberung und Ausbeutung anderer Kontinente wie Afrika, Asien, Amerika und Australien beteiligt.
Europäische Länder transportierten Rohstoffe (z.B. Rohrzucker, Gold, Diamanten) aus kolonisierten Ländern in ihre Heimatländer, ohne eine entsprechende Tauscheinheit anzubieten. Das Zeitalter des Kolonialismus war auch von Gewalt gegen die”indigenen Völker” dieser Kontinente geprägt.
Es gab auch eine Zunahme der Sklaverei, besonders von Afrika bis zu den neun Kolonien in Amerika. Eine
weitere Entwicklung der Ideologie des Kolonialismus war der Imperialismus (1880-1914). Deutsche Kolonien
Deutschland war eine der letzten Mächte, die Mitte/Ende des 19. Jahrhunderts Kolonien (Schutzgebiete) gründeten. Um die vorletzte Jahrhundertwende hatte das Deutsche Reich daher ein im Vergleich zu Großbritannien und Frankreich relativ kleine