História, perguntado por keyllavitoria927, 6 meses atrás

Quando surgiram os sindicatos no Brasil​

Soluções para a tarefa

Respondido por Yarauzumaki15
2

Resposta:

No Brasil o sindicalismo surgiu no final do século XIX. Os operários imigrantes que trabalhavam em diversas fábricas estavam insatisfeitos com suas condições de trabalho e então começaram a se unir para questionar e lutar pelos seus direitos, formando os primeiros sindicatos no país

Explicação:

espero ter ajudado bons estudos boa noite

Perguntas interessantes