oque quer dizer a palavra enfermagem
Soluções para a tarefa
Respondido por
0
Substantivo feminino
1. Arte ou ciência de cuidar ou tratar dos doentes, promovendo ou prevenindo a saúde.
1. Arte ou ciência de cuidar ou tratar dos doentes, promovendo ou prevenindo a saúde.
Perguntas interessantes
Administração,
7 meses atrás
História,
7 meses atrás
Inglês,
7 meses atrás
Química,
9 meses atrás
Matemática,
9 meses atrás
Física,
1 ano atrás
História,
1 ano atrás