Ed. Física, perguntado por imaginariocoringa, 7 meses atrás

Quando foi que a educação física começou a ser desenvolvida no Brasil​

Soluções para a tarefa

Respondido por kellydiasoip
0

Resposta:

1808

Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.

Respondido por AnnachanTwT
0

Resposta:

Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.

Perguntas interessantes