Biologia, perguntado por Isabellepat15, 8 meses atrás

qual a importância de se conhecer os tecidos que formam o corpo?

me ajudem​

Soluções para a tarefa

Respondido por samara1234b
0

Resposta: Os tecidos do corpo humano são grupos de células com formato e funções parecidas. O principal objetivo dos tecidos do corpo humano é sustentar o corpo. A ciência responsável pelo estudo dos tecidos é a histologia

Explicação:Espero ter ajudado

Perguntas interessantes