consequncias para a alemanha depois da 1 guerra mundial
Soluções para a tarefa
Respondido por
1
Resposta:
Explicação:
A Alemanha Depois da Primeira Guerra Mundial
A Alemanha foi o país vencido na guerra. A paz de Versalhes foi a paz dos vencedores. Basta olharmos para o mapa da Europa, depois da Primeira Guerra Mundial, para notarmos qua a Alemanha perdeu parte de seu território e o que sobrou foi cortado em dois por um novo Estado, a Polônia. Tudo isso foi somado ainda às péssimas condições em que ficou a economia, devido à própria guerra e, principalmente, por causa das pesadas dívidas que os alemães tiveram que pagar a França e para a Inglaterra.
Perguntas interessantes