Sociologia, perguntado por kauanphreak2, 6 meses atrás

Explique com suas palavras o que são ações afirmativas e refletir reflita qual a importância desse ações para nossa sociedade​

Soluções para a tarefa

Respondido por cris29508598
61

Resposta:

Ações afirmativas são políticas públicas feitas pelo governo ou pela iniciativa privada com o objetivo de corrigir desigualdades raciais presentes na sociedade, acumuladas ao longo de anos.

A importância destas ações é oferece igualdade de oportunidades a todos.

Perguntas interessantes