História, perguntado por paulogabriel48, 8 meses atrás

Ações afirmativas no Brasil e sua importância?

Soluções para a tarefa

Respondido por nara12067
2

Resposta:

As ações afirmativas são formas de políticas públicas que objetivam transcender as ações do Estado na promoção do bem-estar e da cidadania para garantir igualdade de oportunidades e tratamento entre as pessoas e a mobilização dos setores culturais com intenção de ampliar as ações de inclusão social.

Perguntas interessantes