Quando é que no brasil a educação física começa a ganhar mais importância?
Soluções para a tarefa
Respondido por
1
Resposta:
Em 1930, com as reformas de Getúlio Vargas, a área ganha destaque nas políticas públicas com a criação do Ministério da Educação e Cultura (MEC). A Educação Física obrigatória em todos os níveis escolares foi uma das formas do governo promover hábitos higiênicos e de saúde entre a população
Perguntas interessantes
Ed. Física,
7 meses atrás
Biologia,
7 meses atrás
História,
7 meses atrás
História,
9 meses atrás
História,
9 meses atrás