Cada vez más aficionados al deporte delegan su actividad física a la inteligencia artificial. Aunque la inmediatez atrae a los principiantes, la ciencia advierte sobre los vacíos de seguridad que estas herramientas dejan al carecer de supervisión humana.
En distintos los gimnasios una nueva escena se vuelve cotidiana: usuarios que, en lugar de consultar al instructor de sala, siguen instrucciones detalladas desde una ventana de chat en sus teléfonos. Lo que comenzó como una curiosidad técnica se ha transformado en un fenómeno de «fitness a la carta», donde los chatbots de IA dictan repeticiones, cargas y tiempos de descanso con una seguridad asombrosa.
Esta tendencia, que ha cobrado fuerza global, fue analizada recientemente por el diario The New York Times, donde se destaca cómo estos modelos de lenguaje han logrado eliminar la «parálisis por análisis» que sufren muchos principiantes al no saber por dónde empezar. Sin embargo, lo que en la pantalla parece un plan perfecto, en la práctica carece de un elemento vital: la capacidad de observar, evaluar y corregir en tiempo real.
El espejismo de la personalización
A pesar de que herramientas como ChatGPT pueden simular un programa a medida al solicitar datos como peso o edad, instituciones de salud de referencia como la Mayo Clinic han señalado que estos modelos carecen de acceso a historiales médicos reales y, fundamentalmente, de criterio biomecánico. Un chatbot puede describir con precisión la técnica de una prensa de piernas, pero es incapaz de detectar si el usuario está bloqueando las rodillas de forma peligrosa o si su movilidad es insuficiente para el rango de movimiento sugerido.
Esta falta de «ojo clínico» es el punto más crítico. Mientras que un entrenador humano ajusta la rutina basándose en la fatiga visible o la calidad del movimiento del día, la IA genera planes que suelen ser estáticos. Al respecto, la American Heart Association sugiere que, si bien la tecnología es un aliado potente para combatir el sedentarismo por su accesibilidad, no debe considerarse un sustituto definitivo del criterio profesional, especialmente cuando se busca una progresión de cargas exigente o se padece alguna patología preexistente.
Riesgos y recomendaciones: El factor humano
El peligro no reside solo en la técnica, sino en las llamadas «alucinaciones» del algoritmo. En el ámbito del fitness, esto se traduce en rutinas que proponen combinaciones de ejercicios que no siempre respetan los ciclos biológicos de recuperación o que ignoran la fatiga acumulada del usuario.
Para navegar esta transición tecnológica con seguridad, los especialistas recomiendan adoptar un modelo híbrido:
- Validación profesional: Utilizar el plan del chatbot como una «propuesta base», pero pedirle a un instructor físico que valide la seguridad de los movimientos sugeridos antes de cargar peso excesivo.
- La escucha del cuerpo: Como bien advierte el análisis de The New York Times, la IA no puede sentir por el usuario. Ante cualquier molestia punzante o dolor inusual, la instrucción debe ser detenerse; una advertencia que el código de programación rara vez enfatiza con la urgencia que requiere la salud articular.
- Contraste de información: Antes de realizar un ejercicio complejo sugerido por el chatbot, es fundamental verificar la ejecución en fuentes certificadas o videos de profesionales para evitar vicios posturales.
Conclusión: La inteligencia artificial se perfila como un asistente de organización eficiente para el entrenamiento moderno. Sin embargo, en la búsqueda de un cuerpo sano, el mapa puede ser digital, pero la brújula debe seguir siendo humana. El desafío es aprender a usar estos chatbots como herramientas de apoyo, sin olvidar que un algoritmo puede entregarte los números, pero nunca podrá corregir la postura que te salvará de una lesión.








