Geografia, perguntado por VitóriaAlgodãoDoce, 10 meses atrás

quais países se fortaleceram depois da segunda guerra mundial

Soluções para a tarefa

Respondido por Milenasm09
2

Resposta: Ao fim da Segunda Guerra Mundial os países europeus já estavam quase todos arrasados em suas infraestruturas, em suas economias e, sobretudo, em suas sociedades, reduzidas por causa de milhões de pessoas mortas, entre civis e militares. Com a Alemanha derrotada, os três principais países vitoriosos foram os Estados Unidos, Reino Unido e França, que após o fim da guerra trataram de estabelecer acordos para dividir a Europa em áreas de influência, visando evitar o risco de os países derrotados se reorganizarem em um novo conflito militar.

Perguntas interessantes