Sociologia, perguntado por paivacarolina1oy6b6u, 1 ano atrás

Conquista do trabalho no Brasil? ME AJUDEM É URGENTE, POR FAVOR

Soluções para a tarefa

Respondido por aportamagica
1
 Direito do trabalho no Brasil se refere ao modo como o Estado brasileiro regula as relações de trabalho e as normas e conceitos importantes para o seu entendimento. As normas do direito do trabalho brasileiro estão regidas pela CLT (Consolidação das Leis do Trabalho), pela Constituição Federal e por várias leis esparsas (como a lei que define o trabalho do estagiário, dentre outras).
Perguntas interessantes