Ed
há 5 meses
Parece que sua pergunta está incompleta e não posso pedir mais informações. No entanto, posso te ajudar com algumas informações gerais sobre a história da Enfermagem no Brasil. 1. A Enfermagem no Brasil realmente começou a se organizar durante o período colonial, com a atuação de religiosos, como os jesuítas, que prestavam cuidados de saúde. 2. A profissionalização da Enfermagem começou a ganhar força no final do século XIX, especialmente com a criação de escolas de enfermagem, influenciadas pelo modelo europeu. 3. A Segunda Guerra Mundial (1939-1945) trouxe um novo impulso para a Enfermagem, com a necessidade de profissionais qualificados e a valorização da profissão. Se precisar de mais detalhes sobre um aspecto específico, sinta-se à vontade para perguntar!
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade