Geografia, perguntado por Eduardaponts, 1 ano atrás

O que levou os EUA a assumir o mercado mundial após a segunda guerra?

Soluções para a tarefa

Respondido por thalia688
1
Em 1941, com o ataque japonês a Pearl Harbor, os Estados Unidos entrariam na Segunda Guerra Mundial, marcando assim o final da Grande Depressão. A guerra terminaria em 1945, e com seu fim, os Estados Unidos tornariam-se uma das duas grandes superpotências mundiais, sendo a outra a União Soviética. prontinho!

mayonneves: Ta errado. A pergunta não foi essa
thalia688: tá ?
Perguntas interessantes