História, perguntado por lalaalcantara391, 1 ano atrás

fim da primeira guerra mundial? podem ajudar

Soluções para a tarefa

Respondido por Imediatamente
1
O final da primeira guerra mundial esta relacionada com o início da segunda, em vista que os interesses territoriais dos alemães não foram concretizados, pelo contrário, ainda tiveram que devolver a região de Alsacia e Lorena para a França, sem contar com diversas clausulas do Tratado de Versalhes que trouxe para a Alemanha uma regressão em sua economia. 

O tratado de Versalhes, assinado em 28 de junho de 1919, foi um acordo de paz assinado pelos países europeus que colocou um ponto final na primeira guerra mundial. A Alemanha assumiu a responsabilidade pelo conflito mundial e comprometeu-se a cumprir uma série de exigências políticas, econômicas e militares. Tais exigências foram impostas pelas nações vencedoras da primeira guerra mundial, mas a recém criada Liga das Nações, ou como conhecemos atualmente, ONU, ratificou o Tratado.

No entanto, pode-se dizer que a Alemanha perdeu a guerra, pelo olhar político pelo menos, sendo que seu exercito não foi derrotado, na verdade o que trouxe o fim da guerra foi um golpe burguês organizado por pessoas que em sua maioria eram judeus, deste ponto nasce a raiva de Adolf Hitler por eles, pois naquela época ele era soldado e estava na linha de frente da batalha que queriam continuar batalhando.
Perguntas interessantes