Sociologia, perguntado por biiasb9, 10 meses atrás

em que influenciou o positivismo no Brasil no começo do século XX?​

Soluções para a tarefa

Respondido por ThallesGalvao
0

Resposta:

*crises social e moral do fim da Idade Média e do nascimento da sociedade industrial  

*a Revolução Francesa (1789-1799)

a população nao sabia explicar algo colocava a explicação na divindade, so que com o tempo surgiu a ciência e foi deixando a explicação teológica de lado, ciência acima de tudo.

Explicação:

O positivismo defende a ideia de que o conhecimento científico é a única forma de conhecimento verdadeiro. De acordo com os positivistas somente pode-se afirmar que uma teoria é correta se ela foi comprovada através de métodos científicos válidos. Os positivistas não consideram os conhecimentos ligados a crenças, superstição ou qualquer outro que não possa ser comprovado cientificamente. Para eles, o progresso da humanidade depende exclusivamente dos avanços científicos.

Respondido por talia9a2015
0

E, que a Educação é a área onde essa influência foi mais marcante, sendo que nas escolas, tal influência se fez sentir, devido às ciências auxiliares da Educação, a exemplo da Psicologia e da Sociologia. Essa influência se prolongou até o final da segunda década do século XX. No caso do Brasil, a influência do positivismo se espalhou na organização da sociedade republicana, ainda no século XIX, estimulando o culto ao cientificismo, desafiando a dominação católica ao mesmo tempo em que pregava a necessidade de uma Igreja da Humanidade, que primava pela religião positiva, pelo o culto à ciência.

Perguntas interessantes