Geografia, perguntado por agathasoares2943, 4 meses atrás

O que significa dizer que o Brasil é um país Continental​

Soluções para a tarefa

Respondido por lany7140
1

Resposta:

Significa que o Brasil tem proporções continentais, esse termo é associado ao país pois o Brasil é o maior pais da América do Sul


agathasoares2943: obrigado
lany7140: de nada
Perguntas interessantes