Ed. Física, perguntado por fabianasantoscris8, 6 meses atrás

a educação física foi inserida na educação brasileira ao longo dos anos e uma começa no Brasil colônia que foi fundamental importância pois​

Soluções para a tarefa

Respondido por isaque0779
0

Resposta:

Na época, a elite acreditava que exercícios físicos eram uma atividade somente para escravos e que seus filhos deveriam se dedicar ao desenvolvimento intelectual. Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país.

Perguntas interessantes