História, perguntado por eduardaaguiar385, 1 ano atrás

o que foi o imperialismo nos estados unidos

Soluções para a tarefa

Respondido por jeanwillian56
7

Resposta:

foi a política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.


jeanwillian56: obrigado!
eduardaaguiar385: muito obg
jeanwillian56: eu o que agradeço, pois fico muito feliz em ter te ajudado!
Perguntas interessantes