Lexique

droit naturel, droit positif
Alors que le droit positif est le droit tel qu'il est réellement établi, et ce de manière variable, dans chaque État, le droit naturel est une conception idéale du droit, tel qu'il devrait être pour être conforme aux exigences d'humanité et de justice.