História, perguntado por jhenifercosta51371, 8 meses atrás

o que defendiam os positivistas no Brasil

Soluções para a tarefa

Respondido por LaaYaina
10

Resposta:

O positivismo defende a ideia de que o conhecimento científico é a única forma de conhecimento verdadeiro. Assim sendo, desconsideram-se todas as outras formas do conhecimento humano que não possam ser comprovadas cientificamente

espero de ajudando

Perguntas interessantes