Ed. Física, perguntado por gabrielly5674, 8 meses atrás

o que é a educação física no Brasil?​

Soluções para a tarefa

Respondido por morenasantoseugenia
0

Resposta:

a educação física hoje em todo Brasil é esportes

Respondido por babybaby1231
2

*RESPOSTA*:

No Brasil, a educação física é uma disciplina disposta a influenciar a prática de atividades físicas.

.

.

*EXPLICAÇÃO*:

Nas escolas, existem as aulas teóricas e práticas dessa matéria. Nas aulas teóricas, normalmente se estuda a origem, como chegou ao Brasil, as regras, e como funciona cada esporte em específico(Esportes mais famosos como Futebol, basquete, vôlei, etc). Nas aulas práticas, como ja diz o nome, é de costume praticar esses esportes.

A educação física é de suma importância por ser uma influência a uma vida mais saudável, aprendendo também em algumas aulas sobre a importância de uma alimentação saudável e como o exercício físico faz bem para um ótimo funcionamento do corpo humano.

--Eu fiz essa resposta e essa explicação baseada nos meus conhecimentos que eu tenho diariamente nas aulas de Educação Física, espero muito ter ajudado--

Perguntas interessantes