no Brasil e obrigatório o ensino da geografia
Soluções para a tarefa
Respondido por
1
A trajetória da Geografia como ciência escolar teve início ainda no século XIX. Em 1837, a Geografia foi implantada como disciplina escolar obrigatória pela primeira vez no Brasil, fato que aconteceu no Colégio Pedro II (Rio de Janeiro).
Respondido por
0
Annn?
Se a pergunta for: —No Brasil é obrigatório o ensino da geografia?
Acho q seria,Resposta=sim
Desculpe por qualquer erro
Espero ter ajudado❣️
Se a pergunta for: —No Brasil é obrigatório o ensino da geografia?
Acho q seria,Resposta=sim
Desculpe por qualquer erro
Espero ter ajudado❣️
Perguntas interessantes
História,
7 meses atrás
Ed. Física,
7 meses atrás
Inglês,
10 meses atrás
Matemática,
1 ano atrás
Biologia,
1 ano atrás