qual e a importância do feminismo no brasil ?
RESUMO
valentina5451:
O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte.
Soluções para a tarefa
Respondido por
2
Resposta:
O feminismo prega a igualdade de gênero, prega uma sociedade onde mulheres e homens tenham, de fato, os mesmos direitos. ... O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte
Perguntas interessantes
História,
7 meses atrás
Português,
7 meses atrás
Geografia,
7 meses atrás
Matemática,
9 meses atrás
Geografia,
9 meses atrás