História, perguntado por joaomartinsdoss8940, 1 ano atrás

tratado que oficializou o fim da primeira guerra? preciso muito saber gente por favor!

Soluções para a tarefa

Respondido por ewerthon980
0
Foi i tratado de Versalhes que foi um acordo feito pelos países Europeus pois fim a primeira guerra mundial, e nele dizia que a Alemanha tinha que arcar com todas consequências da guerra assim pagando uma indenização as outras nações que sofreram com a guerra, ceder suas colonias e dar uma parte de seu território.

ewerthon980: Foi o*
Perguntas interessantes