Les dents noires, c’était le top du top !
Dans certaines régions du Japon et d’Asie du Sud-Est, avoir les dents noires était autrefois un signe de beauté. Les gens se teignaient les dents avec une laque spéciale qui, en plus, servait de conservateur contre les caries et la décomposition.
Même si ça peut paraître bizarre, voire flippant, à nos yeux aujourd’hui, à l’époque, les dents noircies symbolisaient la santé, l’élégance et la maturité. Cette tradition a presque disparu, mais elle perdure encore dans quelques petites communautés.
Advertisements
Advertisements

NetWorthRanker Premium
Unlock the insider news of celeb
Join exclusive events