Sociologia, perguntado por annajmendes3, 1 ano atrás

Sempre ouvimos dizer que a educação formal (a que acontece nas escolas) a educação informal ( a que acontece no ambiente familiar, na igreja ou em outros espaços) são fundamentais para integrar os indivíduos á sociedade seja porque elas unem as gerações mais novas ás mias antigas, seja porque transmitem aos indivíduos as regras e valores da sociedade em determinado momento.Essa afirmação está afinada como o pensamento de Durkheim, que julgava a educação um fato social de maior importância. Você concorda com essa ideia? Argumente

Soluções para a tarefa

Respondido por carlosteboep64c4v
10
Claro que sim,pois como já diria Paulo Freire: ''Se a educação sozinha não transforma a sociedade,sem ela tampouco a sociedade muda''. A educação é um elemento fundamental para a formação de um ser humano seja ela qual for, é através da educação(escola) que temos uma esperança de mudar o mundo.                                                                                                                                                      PS: Desculpa,mas você pelo menos tentou fazer essa questão. Molezinha. Não se ofenda por favor,mas não subestime sua resposta tenho certeza que você é inteligente e capaz de fazer essa questão, porque numa prova não vai ter quem te ajudar é uma questão de opinião pessoal.
Perguntas interessantes