Quando os colonizadores chegaram às terras que atualmente formam o Brasil,os indígenas,que conheciam bem o território,ensinaram a esses colonizadores como deveria ser o trabalho?
Soluções para a tarefa
Respondido por
5
Não, os portugueses na realidade já chegaram "implantando" suas ordens e culturas
Perguntas interessantes
Biologia,
10 meses atrás
Ed. Moral,
10 meses atrás
Matemática,
1 ano atrás
Física,
1 ano atrás
Administração,
1 ano atrás