Liebe beautyjunkies,
ich finde, dass meine Haut im Sommer immer schöner ist als im Winter. Mal abgesehen, von der leichten Bräune, die einen doch etwas frischer und gesünder aussehen lässt.
Liegt das an der Sonne? Oder daran, dass man vielleicht im Sommer mehr trinkt, mehr an der frischen Luft ist, mehr cremt (Sonnencreme)?
Also ich finde, Sonne, natürlich in Maßen und nur mit LSF, einfach genial.
Wie ist eure Meinung dazu? Tankt ihr ganz gerne mal Sonne oder vermeidet ihr jegliche Sonnenbestrahlung?
Lieben Gruß
shortyfanta