Droit du travail

Droit du travail

Branche du droit social, le droit du travail est l’ensemble des normes juridiques qui régissent les relations entre un employeur et un employé. Le droit du travail encadre notamment la formation, l’exécution et la rupture du contrat de travail. Il garantit également le respect des libertés syndicales et des normes de sécurité au travail, et la protection des travailleurs vulnérables.

Nous contacter