História, perguntado por ana8417, 1 ano atrás

SOCORRO
apos a Primeira Guerra Mundial aconteceu o Tratado de Versalhes e o nazismo na Alemanha????​

Soluções para a tarefa

Respondido por Barros2576
3

Resposta: mais ou menos

Explicação: após a Alemanha perder a primeira guerra ela assinou o tratado de Versalhes assim Hitler estava furioso e com isso ele planejou a grande reviravolta e o início da Alemanha nazista

Perguntas interessantes