Ed. Física, perguntado por jamillydamazio7, 9 meses atrás

em qual período a educação física No Brasil se tornou uma disciplina​

Soluções para a tarefa

Respondido por keeflenfloresapaza
3

Resposta:

A profissionalização da Educação Física aparece no Brasil República, com as escolas de Educação Física que tinham como objetivo principal a formação militar. Em 1930, com as reformas de Getúlio Vargas, a área ganha destaque nas políticas públicas com a criação do Ministério da Educação e Cultura (MEC)

espero ter ajudado

Explicação:

Respondido por dc6354827
2

Resposta: A importância da Educação Física na formação dos brasileiros se consolida somente em 1882, com o parecer de Rui Barbosa sobre a “Reforma do Ensino Primário, Secundário e Superior”, no qual relatava o valor do desenvolvimento físico aliado ao mental nos países mais desenvolvidos e sugeria a obrigatoriedade da prática em todas as escolas e para ambos os gêneros, incluindo a Educação Física

Explicação:

Perguntas interessantes