Como foi o surgimento da educação física no brasil.?
1 Resposta
Ver resposta
Explicação:
Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.
espero que ajudei
Sua resposta
Mais perguntas de Espanhol
Top Semanal
Top Perguntas
Você tem alguma dúvida?
Faça sua pergunta e receba a resposta de outros estudantes.