o que aconteceu com a alemanha após o término da guerra?
Soluções para a tarefa
Respondido por
1
Após a Primeira Guerra Mundial, a Alemanha foi derrotada e obrigada a assinar o Tratado de Versalhes, a obrigando a pagar indenizações, ceder territórios, desarmar-se, etc. Ou seja, a Alemanha foi culpabilizada pela Grande Guerra.
Isso seguiu para uma crise econômica fortíssima e desaprovação da população alemã quanto ao governo (que assinou o tratado e se manteve submisso). Culminou com a acensão de um heroi de guerra, considerados pelo povo alemão em sua época como um novo Messias, nada mais, nada menos que Hitler e o governo nazista.
Isso seguiu para uma crise econômica fortíssima e desaprovação da população alemã quanto ao governo (que assinou o tratado e se manteve submisso). Culminou com a acensão de um heroi de guerra, considerados pelo povo alemão em sua época como um novo Messias, nada mais, nada menos que Hitler e o governo nazista.
Respondido por
1
Impuseram a Alemanha duras penalidades, por meio do Tratado de Versalhes.
Eis algumas das imposições à Alemanha: devolver a França à Alsácia-Lorena; perder todas as suas colônias; pagar uma grande indenização em dinheiro aos países vencedores. Além disso, a Alemanha ficou proibida de ter forças armadas expressivas, como um forte exército, aviação e marinha
Eis algumas das imposições à Alemanha: devolver a França à Alsácia-Lorena; perder todas as suas colônias; pagar uma grande indenização em dinheiro aos países vencedores. Além disso, a Alemanha ficou proibida de ter forças armadas expressivas, como um forte exército, aviação e marinha
Perguntas interessantes
Matemática,
9 meses atrás
Matemática,
9 meses atrás
Física,
1 ano atrás
Matemática,
1 ano atrás
Contabilidade,
1 ano atrás
História,
1 ano atrás