Durante décadas, los ideales corporales dominantes estuvieron marcados por la delgadez extrema, la estética como fin en sí mismo y una visión del cuerpo centrada casi exclusivamente en la apariencia. Sin embargo, en los últimos años se está produciendo un cambio profundo en la forma en que se entiende el bienestar físico