História

Colonialismo

Colonialismo é a política de exercer o controle ou a autoridade sobre um território ocupado e administrado por um grupo de indivíduos com poder militar, ou por representantes do governo de um país ao qual esse território não pertencia, contra a vontade dos seus habitantes que, muitas vezes, são desapossados de parte dos seus bens (como terra arável ou de pastagem) e de eventuais direitos políticos que detinham.

O termo colónia vem do latim, designando o estabelecimento de comunidades de romanos, geralmente para fins agrícolas, fora do território de Roma. Ao longo da história, a formação de colónias foi a forma como a raça humana se espalhou pelo mundo

A exploração desenfreada dos recursos dos territórios ocupados – incluindo a sua população, quase totalmente aniquilada, como aconteceu nas Américas, ou transformada em escravos que espalharam pelo resto do mundo, como na África – levou a movimentos de resistência dos povos locais e, finalmente à sua independência, num processo denominado descolonização, terminando estes impérios coloniais em meados do século XX.