Geografia, perguntado por elainenepsi, 11 meses atrás

é correto afirmar que o Brasil é um país predominante Tropical explique

Soluções para a tarefa

Respondido por aninha1590
2
Sim pois observando o país em um todo vemos que tanto no Norte,Sul e centro-oeste... o clima é predominantemente tropical! 

Perguntas interessantes