História, perguntado por mirellyhayra80, 10 meses atrás


explique o que foi o tratado de Versalhes , destacando o que aconteceu com a Alemanha. 

Soluções para a tarefa

Respondido por sandralion
2

Resposta:

Após a primeira grande guerra, foi assinado o Tratado de Versalhes. Os países assinavam ali, a paz. ... O tratado de Versalhes tirou tudo o que a Alemanha não tinha. Praticamente colocou todas as responsabilidades da guerra em cima do país.


mirellyhayra80: obg
lannaaddad: Vlw parça
Perguntas interessantes