Le droit du travail est un corps de règles et de principes qui régulent les relations juridiques entre l’employeur et l’employé avec comme base la fourniture volontaire, subordonnée, et rémunérée d’un travail humain, dans le but d’encadrer les parties au contrat dans leur relation professionnelle.