o que foi o imperialismo nos estados unidos
Soluções para a tarefa
Respondido por
7
Resposta:
foi a política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.
jeanwillian56:
obrigado!
Perguntas interessantes