Ed. Física, perguntado por layracunha, 7 meses atrás

o que deu origem a educação física no brasil​

Soluções para a tarefa

Respondido por ilzefernandes7
1

Resposta:

Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.

Explicação:

Respondido por valdirdoposto18
0

Resposta:

Em 1808

Explicação:

Com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental


layracunha: essa e a resposta
Perguntas interessantes