Imperialismo, do latim imperium, “poder supremo”, é a política de expansão e domínio territorial, político, econômico e cultural de uma nação dominante sobre outras. Os meios para isso são variados: negociações políticas, anexação ou conquista de territórios, controle de mercados etc. Seu significado atual surgiu no Reino Unido, em 1870, para designar práticas militares intervencionistas realizadas pelas potências para exercer domínio sobre outros Estados, politicamente independentes.
O imperialismo refere-se, também, período entre 1870 e 1914, quando as nações industriais da Europa (especialmente Grã-Bretanha, França e Alemanha) e logo depois, os Estados Unidos e o Japão, lançaram-se sobre o mundo em busca de mercados consumidores, matéria prima e mão de obra barata. Neste contexto, a Ásia e a África foram divididas em territórios dominados por aquelas potências.
Além das razões econômicas, o imperialismo teve também raízes políticas e culturais, entre as quais se sobressaía a crença na superioridade cultural e racial dos europeus. Teorias racistas, como o darwinismo social, tiveram importante papel para justificar a dominação imperialista ao defenderem a superioridade dos povos brancos sobre os demais povos.
Veja mais
Mais termos na mesma letra
Veja a listagem completa na página O que é isso...?
Dicionário de termos e conceitos históricos com uma linguagem simples e objetiva para descomplicar o seu estudo.
Acessar O que é isso...?