Geografia, perguntado por hellenzahn, 8 meses atrás

Com o fim da II Guerra mundial, o que aconteceu com a Alemanha?

Soluções para a tarefa

Respondido por LHatake
0

Resposta:

A Alemanha ficou totalmente devastada,os países que venceram a guerra acusaram ela de ser a culpada por toda a guerra fazendo com que ela pagasse impostos a todos os países envolvidos e isso fez com que a economia da Alemanha(que já não estava muito boa por conta da guerra) caísse drasticamente.

Respondido por samaramoura57
0
A derrota alemã nessa cidade levou Hitler a cometer suicídio e à queda do Nazismo, A Batalha de Berlim foi o combate que colocou fim à Segunda Guerra Mundial na Europa, Nos dias finais dessa batalha, Adolf Hitler cometeu suicídio, A Alemanha acabou rendendo-se poucos dias depois!
Perguntas interessantes