História, perguntado por BruLouCavaBorre, 1 ano atrás

Quando os colonizadores chegaram às terras que atualmente formam o Brasil,os indígenas,que conheciam bem o território,ensinaram a esses colonizadores como deveria ser o trabalho?

Soluções para a tarefa

Respondido por gabcristina
5
Não, os portugueses na realidade já chegaram "implantando" suas ordens e culturas
Perguntas interessantes