História, perguntado por enzodeornellas, 9 meses atrás

po que os portugueses afirmaram que descobriram o Brasil e não o conquistaram?​

Soluções para a tarefa

Respondido por brunoziedast
3

pois ná epoca não era uma economia lucrativa, que veio a ser depois

Respondido por luzianapinheirofl
2

Resposta:

Não necessariamente, pois; * Dizer que os portugueses descobriram o Brasil não necessariamente quer dizer que antes da chegada dos portugueses o Brasil estava perdido e não havia ninguém. ... Deste modo, colocando o Brasil no mapa da terra eles também tornaram conhecido tudo o que havia no Brasil, isto inclui os índios.

Explicação:

certinho acredite❤️

Perguntas interessantes