História, perguntado por batgrilbe, 11 meses atrás

porque está errado falar que o Brasil foi "descoberto"?​

Soluções para a tarefa

Respondido por LudML
5

Pois ele foi invadido. Os portugueses vieram já sabendo que haviam terras novas aqui.

Respondido por StRiGnAdO
3

A questão é ambígua. Não é incorreto afirmar que o Brasil foi de fato descoberto pelos europeus na visão eurocêntrica, pois de fato o Brasil ainda era desconhecido dos europeus até sua chegada em nossas terras. O que é incorreto é afirmar que os europeus foram os primeiros a chegar aqui, pois quando chegaram os ameríndios já habitavam nosso continente

Perguntas interessantes