História, perguntado por souzajaniele, 1 ano atrás

o que aconteceu com a Alemanha com o fim da segunda guerra mundial?

Soluções para a tarefa

Respondido por EstrelaAmiga
11

perdeu a guerra para o estados unidos e passou por uma grande crise economica e Hitller comete suicidio para não se entregar aos americanos

Respondido por Filipe1000
2

Quando terminou a segunda guerra mundial, a Alemanha foi o pais que sofreu com as consequências da destruição..assim em  28 de junho ela foi obrigada a assinar o FAMOSO TRATADO DE VERSALHES, Além disso seus exércitos foram reduzidos a 100 mil soldados e não podia ter força aéria..ainda tiveram que pagar 296 milhões de marcos-ouros..isso por que foram responsabilizados por ter sido desencadeadora do conflito..

QMA---->(III)

Perguntas interessantes