Geografia, perguntado por jhuanmigueltz47, 11 meses atrás

no Brasil e obrigatório o ensino da geografia ​

Soluções para a tarefa

Respondido por pamelacanal88
0

Resposta:

Sim, a trajetória da Geografia como ciência escolar teve início ainda no século XIX. Em 1837, a Geografia foi implantada como disciplina escolar obrigatória pela primeira vez no Brasil, fato que aconteceu no Colégio Pedro II (Rio de Janeiro).

Respondido por kme23070110
0

Resposta:

sim.

Explicação:

Perguntas interessantes