Sociologia, perguntado por anabezinha0407p7mcpv, 1 ano atrás

como a Alemanha ficou depois do nazismo?

Soluções para a tarefa

Respondido por kauaneFerreira2018
1
Entre 1918 e 1938, o mundo viveu um período chamado “entreguerras”: vinte anos que separaram as duas grandes guerras mundiais. Com o fim da Primeira Guerra, em 1918, a Alemanha, derrotada, encontrava-se em uma profunda crise. Para sair da guerra e manter o que restou de seu exército, assinou um acordo de paz chamado “Tratado de Versalhes”. Esse tratado, além de responsabilizar a Alemanha pela Primeira Guerra, proibia o país de fabricar armas, tanques e aviões; obrigava a devolução de territórios conquistados e a redução do exército alemão, além de exigir o pagamento de uma indenização aos países vitoriosos, pelos danos de guerra. Essas imposições criaram na Alemanha um clima de revanchismo, revolta, por parte da população que estava se sentindo humilhada. No final da guerra, o regime monárquico do Kaiser (imperador) caiu, dando início à “República de Weimar”.
Perguntas interessantes