Cómo construimos el IA Coach de ZonaMundial: arquitectura RAG y prompts optimizados
Caso real de implementación de IA en producción: arquitectura RAG, Claude API, embeddings y prompts para un AI Coach de fantasy fútbol cara al Mundial 2026.
En SprintMarkt solemos escribir guías teóricas sobre IA. Hoy toca algo diferente: vamos a abrir el capó de uno de nuestros propios productos en producción. ZonaMundial es una plataforma fantasy de fútbol centrada en el Mundial 2026, construida, operada y comercializada íntegramente por SprintMarkt. Dentro lleva un módulo estrella que llamamos IA Coach. Este post cuenta cómo lo construimos, qué decisiones técnicas tomamos y qué aprendimos por el camino — y por qué operar un producto propio nos da una ventaja clara a la hora de aplicar ese mismo músculo en proyectos de cliente.
El reto inicial
Al ser producto propio, las restricciones nos las pusimos nosotros mismos: audiencia principalmente LATAM (México, Colombia, Argentina), necesidad de integrar feeds de datos deportivos en tiempo real, y un plazo ajustado para llegar a las fases de clasificación. La cuarta restricción, la autoimpuesta, era la más ambiciosa: que el AI Coach no fuera un chatbot genérico más, sino que diera consejos realmente útiles basados en reglas FIFA, estadísticas históricas y la alineación fantasy del propio usuario.
Ese último punto era el más difícil. Un LLM solo, sin contexto, alucina datos deportivos constantemente. Nombres de jugadores cambiados, clubes equivocados, estadísticas inventadas. Para un producto de fantasy donde los usuarios apuestan reputación y (en algunos casos) dinero, eso era inaceptable.
Stack elegido
Después de un par de días de spike técnico, cerramos el stack así:
Arquitectura RAG, en cristiano
RAG (Retrieval Augmented Generation) no es magia: es recuperar trozos de información relevante antes de preguntar al LLM, para que el modelo responda basándose en datos reales en lugar de en su memoria estadística.
En ZonaMundial tenemos tres corpus distintos indexados en pgvector:
Cuando el usuario pregunta al Coach algo como 'qué capitán pongo para el partido del sábado', el flujo es así:
El arte (oscuro) del prompt
El system prompt del IA Coach pasó por unas quince iteraciones antes de estabilizarse. Los aprendizajes clave:
Necesitas ayuda con tu proyecto?
Calcula tu presupuesto en 2 minutos con nuestra herramienta interactiva.
Costes: la parte que nadie cuenta
Un AI Coach en producción no es gratis. Los costes reales, sin maquillaje:
- API de Claude: variable según uso, dominante en cuanto la base de usuarios crece.
- Embeddings: muy baratos en comparación, pero suman con la re-indexación semanal del corpus.
- pgvector: coste de CPU y memoria adicional en el servidor Postgres.
- Generación de imágenes: impuesta por Stability AI por imagen, controlada con un presupuesto mensual duro.
La palanca principal para controlar costes fue el **caching semántico**: muchas preguntas del fantasy son variaciones de las mismas cinco o seis (capitán, transferencia, jornada). Cacheamos respuestas con embeddings de la pregunta y devolvemos la cacheada si la similitud supera un umbral alto. Eso recortó el gasto de tokens de forma significativa sin que los usuarios notaran diferencia.
Latencia y UX
Un LLM en streaming tarda segundos en responder. Para que no se sintiera lento disparamos tres cosas en paralelo en cuanto el usuario empieza a escribir: skeleton animado con frases tipo 'analizando alineaciones', prefetch del contexto RAG más probable basado en la página en la que está, y streaming token a token con markdown renderizado progresivo. La respuesta completa sigue tardando lo mismo, pero la percepción cambia radicalmente.
Seguridad y moderación
Una plataforma fantasy con usuarios anónimos atrae trolls. Pusimos tres capas:
Infraestructura y despliegue
Todo pasa por Cloudflare como primer hop: cacheo estático agresivo para assets, reglas WAF para bloquear bots de scraping y rate limiting por IP para proteger los endpoints de IA. Los servidores de aplicación están en SWHosting, con SSL delegado a Cloudflare para los subdominios de patrocinadores. El despliegue va por Git + SFTP automatizado con un hook que purga caché de Cloudflare solo en las rutas tocadas.
Lecciones aprendidas
Si empezáramos hoy, haríamos tres cosas distinto: empezar con caching semántico desde el día uno en lugar de añadirlo tarde, diseñar el corpus RAG pensando en chunks de 300-500 tokens (probamos con 1.000 y la precisión bajaba), y tener un canary con el 5% del tráfico antes de cada cambio de prompt para detectar regresiones.
Resultado
El IA Coach lleva meses en producción sirviendo a la comunidad LATAM de ZonaMundial. No es perfecto, pero los usuarios lo usan, lo mencionan en redes y vuelven jornada tras jornada. Como producto propio nos diferencia frente a otras plataformas fantasy del mercado y, a la vez, funciona como laboratorio de referencia para los agentes IA que construimos para nuestros clientes.
Quieres algo así para tu negocio
Si te planteas un agente IA con RAG, un asistente conversacional sobre tu propio contenido o un coach vertical para tu sector, en SprintMarkt lo hacemos. Empezamos siempre por una auditoría o diagnóstico IA de 490€ para entender si tiene sentido, cuánto costaría y qué ROI puedes esperar. Sin humo, sin 'transformación digital'. Escríbenos y te contamos.
Tienes un proyecto en mente?
Cuentanos tu idea y te ayudamos a hacerla realidad. Presupuesto sin compromiso.
Articulos relacionados
Inteligencia Artificial para PYMES: Guía práctica 2026
Cómo las PYMES pueden aprovechar la inteligencia artificial en 2026: chatbots, automatización, análisis de datos y herramientas de IA accesibles. Sin tecnicismos.
Automatización con IA para pymes: guía práctica 2026
Guía práctica de automatización con inteligencia artificial para pymes en 2026. Áreas clave, herramientas, ROI real, casos de uso y plan de implementación paso a paso.