História, perguntado por anateixeirinha, 1 ano atrás

explique sobre o imperialismo americano!

Soluções para a tarefa

Respondido por bialiciap6uf7b
15
Império Americano (ou imperialismo norte-americano) é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.
Perguntas interessantes