Geografia, perguntado por skarlet12, 1 ano atrás

É correto afirmar que o Brasil é um país tropical explique

Soluções para a tarefa

Respondido por samuelvitor1611
23
sim é correto pelo fato dele estar por ele estar entre os trópicos de câncer e capricórnio.

wan12: pois ele vive sempre mudando de clima chuva calor frio etc gostei ta sua resposta
samuelvitor1611: valeu
wan12: tamo junto
Respondido por mariamadureira
5
Sim, pois o Brasil está na zona tropical do planeta.

Perguntas interessantes