Biologia, perguntado por Leticia2411, 1 ano atrás

qual a importância da biologia para os seres vivos do planeta Terra?
redação de 20 linhas

Soluções para a tarefa

Respondido por sousabrina1
14
a biologia é a ciencia que estuda a vida, ou seja, os animais,vegetais e todos os seres vivos do nosso planeta.Esta ciencia e de extrema importancia para o entendemento do fucionamento do nosso ecossistema.cada vez mais homem utiliza os conhecimentos biologia para melhorar as relaçoes que os seres vivos possuem na natureza.

Como diz a palavra biologia estudo dos seres vivos, que fala da estrutura dos seres vivos,maneira de viver e conviver, realmente e muito importante para a sociedade, pois o homem podia viver em sincronia com a natureza, poderiamos encontrar muitas soluçoes, como remedios,combustiveis naturais que nao prejudicaria o ecossistema, ser humano;pois iriam desenvolver tecnicas para aproveitar as substancias organicas do esgoto, pois tem soluçoes atraves da biologia 

Leticia2411: obrigada
Perguntas interessantes