Sim, a afirmação está correta. A docência feminina no Brasil começou a se consolidar no final do século XIX, quando foram criadas as primeiras escolas normais exclusivamente femininas. Antes disso, as mulheres não tinham acesso à educação formal e eram impedidas de exercer a profissão de professora.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar