História, perguntado por lanekaroline18p8zzba, 10 meses atrás

O que aconteceu com a Alemanha após a Primeira Guerra Mundial​?

Soluções para a tarefa

Respondido por GeovanaSilvaCosta
4

Resposta:

Foi obrigada a arcar com os custos da guerra, idenizar os países vencedores, e logo após ser assinado o tratado de Versalhes, também foi obrigada a devolver ricas regiões já conquistadas.

Perguntas interessantes