Colonialismo
Colonialismo é a política de
exercer o controle ou a autoridade sobre
um território ocupado
e administrado por um grupo de indivíduos com poder militar, ou por representantes do governo de um
país ao qual esse território não pertencia, contra a vontade dos seus
habitantes que, muitas vezes, são desapossados de parte dos seus bens (como
terra arável ou de pastagem) e de eventuais direitos políticos que detinham.
O termo colônia vem do latim,
designando o estabelecimento de comunidades de romanos,
geralmente para fins agrícolas, fora do território de Roma. Ao longo da história, a formação de colônias foi a forma como o ser humano se
espalhou pelo mundo
A exploração desenfreada dos recursos dos
territórios ocupados — incluindo a sua população, quase totalmente aniquilada,
como aconteceu nas Américas, ou transformada em escravos que
espalharam pelo resto do mundo, como na África — levou a
movimentos de resistência dos povos locais e, finalmente à sua independência,
num processo denominado descolonização, terminando estes impérios coloniais em meados do século XX.
Nenhum comentário:
Postar um comentário