Sociologia, perguntado por rogerio6666, 8 meses atrás

(7) O que são ações afirmativas? Disserte sobre a importância das ações afirmativas para a sociedade. *

Soluções para a tarefa

Respondido por biagacha527
4

Resposta: Ações afirmativas são uma forma de reparar desigualdades sociais e raciais no Brasil. É uma política pública que se apresenta como a porta de entrada para o país começar a conceder oportunidades iguais para pessoas empobrecidas, negros, indígenas e pessoas com deficiência.

Explicação:

Respondido por bunnylovers14
3

Resposta:

Ações afirmativas são políticas públicas feitas pelo governo ou pela iniciativa privada com o objetivo de corrigir desigualdades raciais presentes na sociedade, acumuladas ao longo de anos. Uma ação afirmativa busca oferecer igualdade de oportunidades a todos.

Explicação:


rogerio6666: vlw c tu tiver mais tempo me ajuda com essa https://brainly.com.br/tarefa/32330432
Perguntas interessantes