História, perguntado por thaissamaia, 1 ano atrás

o que aconteceu com a alemanha após o término da guerra?

Soluções para a tarefa

Respondido por TyagoTeoi
1
Após a Primeira Guerra Mundial, a Alemanha foi derrotada e obrigada a assinar o Tratado de Versalhes, a obrigando a pagar indenizações, ceder territórios, desarmar-se, etc. Ou seja, a Alemanha foi culpabilizada pela Grande Guerra.
Isso seguiu para uma crise econômica fortíssima e desaprovação da população alemã quanto ao governo (que assinou o tratado e se manteve submisso). Culminou com a acensão de um heroi de guerra, considerados pelo povo alemão em sua época como um novo Messias, nada mais, nada menos que Hitler e o governo nazista.
Respondido por ValentimAna52
1
Impuseram a Alemanha duras penalidades, por meio do Tratado de Versalhes.
 
Eis algumas das imposições à Alemanha: devolver a França à Alsácia-Lorena; perder todas as suas colônias; pagar uma grande indenização em dinheiro aos países vencedores. Além disso, a Alemanha ficou proibida de ter forças armadas expressivas, como um forte exército, aviação e marinha
Perguntas interessantes