Português, perguntado por ingridcarvalho3, 1 ano atrás

o que as mulheres brasileiras conquistaram ??

Soluções para a tarefa

Respondido por catiazefer
3
Ingrid, as mulheres brasileiras conquistaram muitas coisas. Trabalharem fora de casa, o voto, direitos trabalhistas, realizarem trabalhos que era exclusividade masculina, o direito de terem uma vida amorosa e sexual sem discriminações, o direito ao disquite e depois ao divórcio, poxa, são tantos... Espero tê- la ajudado.

catiazefer: Fiquei feliz por ajudâ- la.
Perguntas interessantes