como surgiu a educação física no Brasil?
Soluções para a tarefa
Respondido por
0
Resposta: Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental
Explicação:
Perguntas interessantes