História, perguntado por gutoxmem, 1 ano atrás

fale sobre o imperialismo estadunidense??????

Soluções para a tarefa

Respondido por NeoxWolf
5
Imperialismo estadunidense é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista. Esse conceito se popularizou após o fim da Guerra Hispano-Americana de 1898. 
Perguntas interessantes