História, perguntado por MarcoEmanuel1004, 1 ano atrás

Por que o uso da expressão "descoberta do Brasil " vem senso cada vez mais contestado?

Soluções para a tarefa

Respondido por Atlantis
0

Quando se diz "descoberta do Brasil", dá a entender que os portugueses e os demais colonizadores foram os primeiros a ter noção do território brasileiro. Em contrapartida, alguns historiadores e sociólogos debatem essa ideia, visto que índios já habitavam o Brasil. Portanto, soa meio contraditório.

Perguntas interessantes