La colonisation

A partir du milieu du XIXe siècle, la France se lance dans des conquêtes coloniales. Elle bâtit un empire essentiellement en Afrique et en Asie.

Ces conquêtes sont justifiées par des idées racistes et des intérêts économiques.

La colonisation change les sociétés indigènes et exploite les ressources des pays colonisés.