os indios descobriam o brasil?
Soluções para a tarefa
Respondido por
1
Não só os índios, mais desde o iníciodo continente brasileiro sempre existiram seres humanos lá como hominídeos, homem das cavernas... a prova disso é o crânio de Luzia a primeira mulher do Brasil.
RichardAprendiz:
vlw nao sabia isso
Perguntas interessantes
História,
9 meses atrás
História,
9 meses atrás
Inglês,
9 meses atrás
Ed. Física,
1 ano atrás
Inglês,
1 ano atrás