Filosofia, perguntado por babibea, 1 ano atrás

o que são ações afirmativas? Qual é sua importância na sociedade brasileira?

Soluções para a tarefa

Respondido por nadjaellycarla
27
O que são Ações Afirmativas. Ações afirmativas são políticas públicas feitas pelo governo ou pela iniciativa privada com o objetivo de corrigir desigualdades raciais presentes na sociedade, acumuladas ao longo de anos. Uma ação afirmativa busca oferecer igualdade de oportunidades a todos.

babibea: ta e a importância na sociedade brasileira?
Respondido por winederrn
37

Opah, amigo(a)!

As ações afirmativas são medidas adotadas pelo Estado para combater as desigualdades - sociais, raciais, econômicas - presentes em nosso país. Na prática, as ações afirmativas são importantes para:

promover a igualdade -  trata-se da igualdade material (na prática diária); a igualdade tem que ser para todos.

afirmar as diferenças - como sabemos, as diferenças podem ser manifestadas (e vistas por todos) de várias formas.


Força e Honra!

Perguntas interessantes