El cuidado de los pies en verano
El verano es la época del año en la que nuestros pies están más expuestos al aire libre, por lo que conviene tomar una serie de precauciones para prevenir las principales afecciones que podemos llegar a sufrir, como por ejemplo hongos e infecciones causadas tras visitar piscinas o playas.