História, perguntado por daianeoliveira2118, 4 meses atrás

Qual e o significado da palavra antropocentrismo

Soluções para a tarefa

Respondido por protectorofthekernel
0

Resposta:

Antropocentrismo é uma doutrina filosófica que coloca a figura do ser humano como o "centro do mundo", relevando a importância da humanidade em comparação com as demais coisas que compõem o Universo.

Sob o ponto de vista do antropocentrismo, considerado uma "ciência do homem", os seres humanos são responsáveis por todas as suas ações, sejam elas culturais, sociais, filosóficas ou históricas, por exemplo.

Assim, a visão antropocêntrica defende que o mundo, assim como todas as coisas que nele existem, é de benefício maior dos seres humanos. Essa doutrina cria uma independência humana da figura divina, que por muitos séculos foi predominante em quase todo o mundo.

Explicação:

Perguntas interessantes