História, perguntado por RichardAprendiz, 1 ano atrás

os indios descobriam o brasil?

Soluções para a tarefa

Respondido por pendletontwist
1
Não só os índios, mais desde o iníciodo continente brasileiro sempre existiram seres humanos lá como hominídeos, homem das cavernas... a prova disso é o crânio de Luzia a primeira mulher do Brasil.

RichardAprendiz: vlw nao sabia isso
Perguntas interessantes