Se noircir les dents était autrefois considéré comme un signe de beauté

Dans certaines régions du Japon et d’Asie du Sud-Est, avoir les dents noires était autrefois un canon de beauté très prisé. Les gens se teignaient les dents avec un vernis spécial qui agissait également comme un conservateur, prévenant la carie et la décomposition.


Bien que cela puisse paraître bizarre ou effrayant aux yeux d’aujourd’hui, les dents noircies symbolisaient la santé, l’élégance et la maturité. Cette tradition s’est largement estompée, mais de petites communautés honorent encore cette coutume unique aujourd’hui.

Advertisements
Advertisements