História, perguntado por saahnovais4988, 1 ano atrás

o que o brasil ganhou com a primeira guerra mundial

Soluções para a tarefa

Respondido por Vicenteejr
0

Resposta:

O principal legado da Primeira Guerra Mundial para o Brasil foi revelar nosso atraso político e econômico. O país perdeu oportunidades de usar o conflito, a começar pela decisão de escolha de lado

Perguntas interessantes