que é império americano
Soluções para a tarefa
Respondido por
0
Resposta:
Imperialismo norte-americano ou imperialismo americano é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.
Explicação:
espero ter ajudado.
Perguntas interessantes
Português,
4 meses atrás
Biologia,
4 meses atrás
História,
4 meses atrás
Geografia,
4 meses atrás
Contabilidade,
4 meses atrás
Matemática,
9 meses atrás
Artes,
9 meses atrás