Geografia, perguntado por jhuanmigueltz47, 10 meses atrás

no Brasil e obrigatório o ensino da geografia ​

Soluções para a tarefa

Respondido por skaarl
1

A trajetória da Geografia como ciência escolar teve início ainda no século XIX. Em 1837, a Geografia foi implantada como disciplina escolar obrigatória pela primeira vez no Brasil, fato que aconteceu no Colégio Pedro II (Rio de Janeiro).

Respondido por yasmimholanda69
0
Annn?

Se a pergunta for: —No Brasil é obrigatório o ensino da geografia?
Acho q seria,Resposta=sim
Desculpe por qualquer erro
Espero ter ajudado❣️
Perguntas interessantes