Geografia, perguntado por Karolsoarezz, 6 meses atrás

O que significa a palavra Geografia? É possível, a partir do seu significado, perceber a Geografia como uma ciência crítica? Justifique. ​
Me ajudem

Soluções para a tarefa

Respondido por gabsta
94

Resposta:

Geografia deriva da palavra grega Geographia, sendo que "Geo" tem significado de Terra e "Graphein" significa descrição. Então, seu sentido literal seria "descrição da Terra".

Tendo em vista o citado, a Geografia se torna uma ciência crítica ao buscar descrever o espaço geográfico e como as relações com homem o afetam.

Espero ter ajudado

Perdão por qualquer erro :)

Perguntas interessantes