Geografia, perguntado por joaopaulobarbosafeli, 3 meses atrás

E correto afirmar que o Brasil é um país predomina mente tropical?

Soluções para a tarefa

Respondido por felipenetofcfelipene
0

Resposta:

sim pois o Brasil qm descobrio foram os índios.

Explicação:

bons estudos<3

Perguntas interessantes