História, perguntado por 8160yasmin, 9 meses atrás

Resumo do imperialismo estadunidense pfv nao entendi nada

Soluções para a tarefa

Respondido por lucasdavisilva
1

Resposta:

Imperialismo americano. Império Americano (ou imperialismo norte-americano) é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.

Explicação:

Perguntas interessantes