História, perguntado por dulceprofeta06, 9 meses atrás

qual e a importância do feminismo no brasil ?
RESUMO ​


valentina5451: O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte.

Soluções para a tarefa

Respondido por araujo879
2

Resposta:

O feminismo prega a igualdade de gênero, prega uma sociedade onde mulheres e homens tenham, de fato, os mesmos direitos. ... O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte

Perguntas interessantes