Sociologia, perguntado por rianpacheco34, 8 meses atrás

O que entende-se por direitos sociais? Qual a importância desses direitos para a sociedade?

Soluções para a tarefa

Respondido por marcelomalaquiasig
1

Resposta:

Os direitos sociais são os direitos fundamentais de cada cidadão como educação, saúde, alimentação, moradia e etc. São importantes pra qualidade de vida, proporcionar igualdade e uma vida digna.

Perguntas interessantes