quais países se fortaleceram depois da segunda guerra mundial
Soluções para a tarefa
Respondido por
2
Resposta: Ao fim da Segunda Guerra Mundial os países europeus já estavam quase todos arrasados em suas infraestruturas, em suas economias e, sobretudo, em suas sociedades, reduzidas por causa de milhões de pessoas mortas, entre civis e militares. Com a Alemanha derrotada, os três principais países vitoriosos foram os Estados Unidos, Reino Unido e França, que após o fim da guerra trataram de estabelecer acordos para dividir a Europa em áreas de influência, visando evitar o risco de os países derrotados se reorganizarem em um novo conflito militar.
Perguntas interessantes
Sociologia,
6 meses atrás
Química,
6 meses atrás
Filosofia,
10 meses atrás
Física,
1 ano atrás
Português,
1 ano atrás