Geografia, perguntado por marialaynara2983, 1 ano atrás

o que aconteceu vom a Alemanha após o termino da Segunda Guerra Mundial ?

Soluções para a tarefa

Respondido por Marcosxdv
1

Ela recebeu penalidades

os territórios que ela conquistou foi divido entre os países aliados que conquistaram a segunda guerra mundial.

E ainda teve que pagar uma indenização(multa) para todos.

E ficou proibido de ter militares até 100

Perguntas interessantes