Ed. Física, perguntado por jsbrenda81, 9 meses atrás

Quando é que no brasil a educação física começa a ganhar mais importância?

Soluções para a tarefa

Respondido por samyragomes361
1

Resposta:

Em 1930, com as reformas de Getúlio Vargas, a área ganha destaque nas políticas públicas com a criação do Ministério da Educação e Cultura (MEC). A Educação Física obrigatória em todos os níveis escolares foi uma das formas do governo promover hábitos higiênicos e de saúde entre a população

Perguntas interessantes