no Brasil e obrigatório o ensino da geografia
Soluções para a tarefa
Respondido por
0
Resposta:
Sim, a trajetória da Geografia como ciência escolar teve início ainda no século XIX. Em 1837, a Geografia foi implantada como disciplina escolar obrigatória pela primeira vez no Brasil, fato que aconteceu no Colégio Pedro II (Rio de Janeiro).
Respondido por
0
Resposta:
sim.
Explicação:
Perguntas interessantes