A partir da segunda metade do século XIX, a educação física começou a ser introduzida no Brasil, principalmente por influência dos europeus. Nessa época, a ginástica era a principal atividade física praticada nas escolas e academias. Com o tempo, os esportes foram sendo incorporados, como o futebol, que se tornou o esporte mais popular do país. A educação física passou a ser vista como uma disciplina importante para a formação integral dos indivíduos e, atualmente, é obrigatória nas escolas brasileiras.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar