Biologia, perguntado por angelhsp73, 10 meses atrás

O contexto histórico, cultural e econômico que fez a biologia tornasse uma ciência

Soluções para a tarefa

Respondido por LeBiologiste
1

A biologia é um saber que vem desde os remotos tempos da Grécia antiga junto a filosofia, sendo esta a mãe de todas as ciências pois igual buscava o porque dos questionamentos que acometem a curiosidade humana. A biologia continua sendo um tema atual na historia, pois seu termo foi criando a um par de seculos atrás estudando os seres vivos e o meio em que vivem. Culturalmente os seus alicerces vem das constatações de diversas áreas da anatomia e zoologia que tentavam compreender o inicio de doenças, de comportamento e historia dos nossos antepassados através de achados. Ao mesmo tempo em que o estudo de bacterias e virus fortalecia o estudo de remedios e gerava lucro econômico.  

Perguntas interessantes