(1) Respostas
Império Americano (ou imperialismo norte-americano) é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista. O imperialismo europeu da Era Moderna é caracterizado pela expansão colonialista sobre territórios de ultramar. Os sistemas imperialistas foram estruturados, segundo a doutrina do mercantilismo: cada metrópole buscava controlar o comércio de suas colônias para monopolizar os benefícios conseguidos.
Adicionar resposta
Sign in
Cadastro