História, perguntado por Usuário anônimo, 10 meses atrás

consequncias para a alemanha depois da 1 guerra mundial

Soluções para a tarefa

Respondido por luluzinhapo
1

Resposta:

Explicação:

A Alemanha Depois da Primeira Guerra Mundial

A Alemanha foi o país vencido na guerra. A paz de Versalhes foi a paz dos vencedores. Basta olharmos para o mapa da Europa, depois da Primeira Guerra Mundial, para notarmos qua a Alemanha perdeu parte de seu território e o que sobrou foi cortado em dois por um novo Estado, a Polônia. Tudo isso foi somado ainda às péssimas condições em que ficou a economia, devido à própria guerra e, principalmente, por causa das pesadas dívidas que os alemães tiveram que pagar a França e para a Inglaterra.

Perguntas interessantes