caries
nombre femenino
Una caries es una enfermedad de los dientes causada por bacterias que te los agujerean y hacen que te salga una mancha de color negro. Si tienes una caries, los dentistas te la sacarán y te pondrán una especie de pasta para reconstruir el diente dañado. Pero si la caries es muy grande, quizás sea necesario que lo saquen.
Para que no te salgan caries, los dentistas aconsejan lavarse los dientes después de cada comida e intentar no comer cada día demasiadas golosinas o alimentos con azúcar como pasteles.