Português, perguntado por kaiquefts, 1 ano atrás

quem descobriu o Brasil


AndréMMarques: Oi, : ) Sabe, às vezes chego a pensar que o Brasil não foi, em todo o sentido da palavra, "descoberto". Normalmente, quando se diz que alguém descobriu algo, a pessoa em questão conseguiu realizar o ato sem ninguém antes dela o tivesse feito - o que não é o caso da "descoberta" das terras que depois viriam a chamar de Brasil. Aqui já existiam os índios.
AndréMMarques: Mas como eles, os portugueses, consideravam os índios como selvagens e, sendo assim, como pessoas sem cultura, nem educação alguma - segundo os ideais deles -, é compreensível que os portugueses tenham intitulado a si mesmos como aqueles que "Descobriram a terra que depois viriam a chamar de Brasil".
AndréMMarques: Mesmo assim, sempre penso que o Brasil não foi de fato descoberto - como já escrevi - , e sim conquistado.

Soluções para a tarefa

Respondido por Gabrieluis21
1
Pedro Álvares Cabral
Perguntas interessantes