História, perguntado por adriannyamaralp8dhqc, 1 ano atrás

Após o fim da primeira guerra mundial,o que aconteceu com os países que saíram derrotados???

Soluções para a tarefa

Respondido por Mandaaaaa
6
A TRÍPLICE ENTENTE se saiu melhor desde o inicio da Primeira Guerra, mesmo com a saida da Rússia (1917 ) que se retirou dos
campos de batalha devido à evolução socialista. Em 1918, a vitória ta TRÍPLICE ENTENTE, se consolidou contando com a participação dos EUA que entraram com grande reforço militar. Em 1919, na conferência de Paris, foram estabelecidos os tratados de paz, destaque para o tratado de Versalhes que culpava a Alemanha e seus aliados como os únicos responsáveis por toda a destruição da guerra. O cenário pós guerra, era uma Alemanha humilhada e os EUA extremamente fortalecidos. Como entraram no final, os americanos não tiveram seu território afetado e puderam se fixar como uma potência soberana (superioridade derivada de autoridade). Alemanha, além de ser obrigada a indenizar a TRÍPLICE ENTENTE, sofreu severas
restrições via Tratado de Versalhes. Algo que gerol grandes transformações políticas e econômicas no país. Um dos reflexos do desgaste do Estado, foi a República de Weimar que derrubou o Imperador Guilherme 2° e instalou uma República liberal na cidade que vai mal.
Nasceu também o TRATADO DA LIGA DAS NAÇÕES, para criar uma espécie de congresso com os representantes oficiais das nações que lutaram na primeira guerra.
Era uma espécie de antecedentes da ONU o intuito, era evitar novos confrontos. Assim os paises poderiam chegar a soluções pacíficas e diplomáticas sem mimimi.
Infelizmente, sabemos que esse acordo de paz, não deu muito certo. Vinte anos depois, aconteceria a 2° Guerra Mundial.
Perguntas interessantes