O que aconteceu com a Alemanha após a Primeira Guerra Mundial?
Soluções para a tarefa
Respondido por
4
Resposta:
Foi obrigada a arcar com os custos da guerra, idenizar os países vencedores, e logo após ser assinado o tratado de Versalhes, também foi obrigada a devolver ricas regiões já conquistadas.
Perguntas interessantes
Inglês,
6 meses atrás
Psicologia,
6 meses atrás
Matemática,
6 meses atrás
Geografia,
10 meses atrás
Geografia,
10 meses atrás
Português,
1 ano atrás