o que deu origem a educação física no brasil
Soluções para a tarefa
Respondido por
1
Resposta:
Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.
Explicação:
Respondido por
0
Resposta:
Em 1808
Explicação:
Com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental
layracunha:
essa e a resposta
Perguntas interessantes
Matemática,
6 meses atrás
Português,
6 meses atrás
Matemática,
7 meses atrás
Matemática,
11 meses atrás
Química,
11 meses atrás
Matemática,
11 meses atrás