Sociologia, perguntado por marianassilva1, 1 ano atrás

O que significa dizer que as Ciências Sociais se dedicam a desnaturalizar o mundo social

Soluções para a tarefa

Respondido por thaynapimenta
36
Pois as ciências sociais colocam em evidência fatos reais e concretos a respeito da sociedade, deixando de lado conceitos comuns.
Perguntas interessantes