é possivel afirmar que a Alemanha foi considerada culpada pela primeira guerra mundial?
Soluções para a tarefa
Respondido por
17
Depende da opinião de cada um, ela considera-se não vitoriosa por causa dos judeus, que não ajudaram eles.
laizaazul:
é sim possível afirmar que Alemanha é culpada pela primeira guerra mundial porque ela perdeu, se tivesse ganho como os Estados Unidos a história teria sido escrita de outra forma
Respondido por
19
Olá!
Sim. Os Estados Unidos, após ataques a sua embarcação declaram guerra à Alemanha. Como foi dito o envolvimento civil nessa guerra foi direto e a Alemanha sofreu politicamente com manifestações e greves dos civis contra guerra e contra a situação de miséria que estavam passando. O imperador alemão então abdicou e a República foi instaurada. Sem condições materiais e sociais de prosseguir com a guerra, os novos governantes decidiram pelo fim da guerra e em novembro de 1918 assinaram o armistício.
Os diversos tratados assinados com o fim da guerra foram tentativas da França e da Inglaterra de arruinarem a Alemanha. O mais importante foi o Tratado de Versalhes com a participação somente dos vencedores e que estabelecia entre vários pontos, a Alemanha como principal culpada pelos conflitos; a devolução dos territórios da Alsácia-Lorena à França; que os alemães pagariam altas quantias a vários países como indenização de guerra; a França e a Inglaterra tomariam parte da marinha e do sistema ferroviário alemão; e o exército alemão seria reduzido e proibido de possuir armamentos estratégicos. Os tratados de paz agravaram os problemas de fronteiras contestadas e tratamento de minorias nacionais, e todas as nações perdedoras reivindicaram sua revisão. No caso da Alemanha, as conseqüências foram mais intensas. Antes de 1914, o país era considerado uma potência industrial que aspirava à liderança mundial e foi reduzido após o Tratado de Versalhes a uma nação de segunda grandeza. Além disso, houve o agravante da “humilhação” que incitou uma nova onda de nacionalismos.
Espero ter ajudado!
Sim. Os Estados Unidos, após ataques a sua embarcação declaram guerra à Alemanha. Como foi dito o envolvimento civil nessa guerra foi direto e a Alemanha sofreu politicamente com manifestações e greves dos civis contra guerra e contra a situação de miséria que estavam passando. O imperador alemão então abdicou e a República foi instaurada. Sem condições materiais e sociais de prosseguir com a guerra, os novos governantes decidiram pelo fim da guerra e em novembro de 1918 assinaram o armistício.
Os diversos tratados assinados com o fim da guerra foram tentativas da França e da Inglaterra de arruinarem a Alemanha. O mais importante foi o Tratado de Versalhes com a participação somente dos vencedores e que estabelecia entre vários pontos, a Alemanha como principal culpada pelos conflitos; a devolução dos territórios da Alsácia-Lorena à França; que os alemães pagariam altas quantias a vários países como indenização de guerra; a França e a Inglaterra tomariam parte da marinha e do sistema ferroviário alemão; e o exército alemão seria reduzido e proibido de possuir armamentos estratégicos. Os tratados de paz agravaram os problemas de fronteiras contestadas e tratamento de minorias nacionais, e todas as nações perdedoras reivindicaram sua revisão. No caso da Alemanha, as conseqüências foram mais intensas. Antes de 1914, o país era considerado uma potência industrial que aspirava à liderança mundial e foi reduzido após o Tratado de Versalhes a uma nação de segunda grandeza. Além disso, houve o agravante da “humilhação” que incitou uma nova onda de nacionalismos.
Espero ter ajudado!
Perguntas interessantes
Matemática,
10 meses atrás
Geografia,
10 meses atrás
História,
1 ano atrás
Sociologia,
1 ano atrás
Biologia,
1 ano atrás
Direito,
1 ano atrás