História, perguntado por rubya26, 10 meses atrás

o que aconteceu no campo social com o termino da guerra?​


otimusprime411ovf5rj: tem alguma guerra específica?

Soluções para a tarefa

Respondido por kaykydomingos32
0

Resposta:

Após a Primeira Guerra Mundial, a Alemanha foi derrotada e obrigada a assinar o Tratado de Versalhes, a obrigando a pagar indenizações, ceder territórios, desarmar-se, etc. Ou seja, a Alemanha foi culpabilizada pela Grande Guerra.

Isso seguiu para uma crise econômica fortíssima e desaprovação da população alemã quanto ao governo (que assinou o tratado e se manteve submisso). Culminou com a acensão de um heroi de guerra, considerados pelo povo alemão em sua época como um novo Messias, nada mais, nada menos que Hitler e o governo nazista.

Explicação:

Perguntas interessantes