Física, perguntado por vanusa53, 1 ano atrás

qual é a importancia da educação fisica no brasil

Soluções para a tarefa

Respondido por LucasSantosSilva
21
A Educação Física é útil no Brasil, pelo fato de que as pessoas necessitam manter a saúde em forma, e a educação física acaba ensinando como as atividades devem ser executadas e o que pode e o que não pode, além de termos profissões que necessitam dessa educação, como por exemplo; policias. bombeiros, atletas, entre outros. Além de ensinar
Perguntas interessantes