pesquise o termo: imperialismo norte americano e explique suas ações pelo mundo
Soluções para a tarefa
Império Americano (ou imperialismo norte-americano) é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista. Esse conceito se popularizou após o fim da Guerra Hispano-Americana de 1898. Os proponentes deste conceito vão desde teóricos clássicos do imperialismo no marxismo – que veem tal fenômeno como subproduto do capitalismo – até teóricos liberais e conservadores contemporâneos em suas análises sobre a política externa dos Estados Unidos. Esses termos têm, na maioria das vezes, uma conotação negativa, especialmente quando se discute a superioridade militar norte-americana.
O uso do termo é controverso, uma vez que há estudiosos que defendem que não existe uma prática imperialista por parte dos Estados Unidos. Outros afirmam que tal prática existe, mas de forma benevolente, enquanto há aqueles que afirmam que essa prática não só existe como causa grandes danos aos países dominados.