Sociologia, perguntado por Deboraferreira88, 1 ano atrás

O que é o positivismo?

Soluções para a tarefa

Respondido por thiagotallysson
1
O positivismo foi um movimento ocorrido na Europa, e difundido pelo mundo mais tarde, que pregava o darwinismo social, ou seja, a ideia de que alguns povos são mais evoluídos que outros, e por isso os que estão no maior nível de desenvolvimento devem levar seus conhecimentos civilizados aos "bárbaros" atrasados.
Perguntas interessantes