Geografia, perguntado por vicctinho, 1 ano atrás

o significado de geografia?

Soluções para a tarefa

Respondido por Giulliane
5

A palavra GEOGRAFIA vem do grego GEOGRAPHÍA, que significa "descrição da Terra".

É a ciência que estuda a relação entre a Terra e seus habitantes.

Respondido por wandomarques
2

A Geografia é a ciência que estuda o planeta Terra. Descreve as paisagens que resultaram da relação entre o homem e o natureza. Desde a mais alta antiguidade o homem se preocupava com o conhecimento do espaço em que vivia. Às vezes esse conhecimento era uma resposta desejada pela curiosidade. Outras vezes tais conhecimentos tinham objetivos econômicos ou políticos. O modo como é tratado sistematicamente o conhecimento da Terra é o objetivo específico da Geografia. A Geografia é uma disciplina que nasceu na própria origem humana. Mas só se tornou uma ciência somente depois que a civilização grega floresceu.

Perguntas interessantes