História, perguntado por RGE21, 11 meses atrás

Podemos dizer que o Brasil foi “descoberto” pelos portugueses? Argumente e defenda um ponto de vista a respeito deste tema.

Soluções para a tarefa

Respondido por amandascc22
4

Não, pois os índios já moravam aqui, há muito tempo, o Brasil era a terra dos índios, eles já haviam o descoberto, os portugueses só acharam e tomaram-o dos índios

Perguntas interessantes