Mejora Continua Aumentada: Integrar IA Generativa sin Perder el Foco Humano del Servicio

MEJORA-CONTEXTO-UDLAP

Mejora Continua Aumentada: Integrar IA Generativa sin Perder el Foco Humano del Servicio

La inteligencia artificial generativa ha entrado a las organizaciones como una promesa de velocidad. Redactar respuestas, resumir solicitudes, proponer soluciones y estandarizar criterios puede lograrse en cuestión de segundos. Sin embargo, cuando se implementa sobre procesos frágiles, la rapidez puede amplificar errores, inconsistencias y riesgos reputacionales. El reto de liderazgo no es adoptar la tecnología, sino integrarla como parte de un sistema sociotécnico donde el servicio, la ética y la experiencia del colaborador sigan siendo el centro.

Una forma útil de comenzar es volver a lo esencial. ¿Qué entiende el cliente por buen servicio? Modelos clásicos como SERVQUAL proponen evaluar la calidad del servicio en dimensiones como confiabilidad, capacidad de respuesta, seguridad, empatía y aspectos tangibles (Parasuraman et al., 1988). Estas dimensiones no se vuelven obsoletas con la IA. Al contrario, ayudan a evitar que la automatización confunda rapidez con calidad. Por ejemplo, una respuesta inmediata pero incorrecta deteriora la confiabilidad. Una respuesta impecable en forma, pero impersonal, afecta la empatía.

Desde la perspectiva de mejora continua, la IA generativa puede funcionar como un copiloto que reduce variabilidad y libera tiempo para tareas de mayor valor, siempre que la organización implemente tres bases operativas.

Primero: una fuente única de verdad. Antes de automatizar respuestas, conviene depurar políticas, catálogos, criterios y preguntas frecuentes, y definir qué información es oficial y quién la aprueba. La IA no sabe qué es correcto. Aprende patrones del material que se le entrega. Si el conocimiento está disperso, la salida será inconsistente.

Segundo: diseño de interacción con supervisión humana. Para temas rutinarios y de bajo riesgo, la IA puede proponer borradores. Para casos sensibles, se requiere escalamiento y revisión. Un estándar cada vez más extendido en gobernanza es gestionar los sistemas de IA por niveles de riesgo, no como herramientas neutras. El NIST propone un marco de gestión de riesgos que organiza la práctica en funciones como gobernar, mapear, medir y gestionar (NIST, 2023).

Tercero: medición disciplinada. La implementación debe acompañarse de indicadores de calidad, como satisfacción del cliente, resolución en el primer contacto y cumplimiento de políticas. También de eficiencia, como tiempo de respuesta y carga del personal. Además de riesgo, como incidentes, sesgos identificados y alucinaciones. La idea es simple. Si no se mide, se confunde innovación con novedad.

A estas tres bases se suman dos decisiones de liderazgo. El cambio cultural y la ética. La IA modifica roles, expectativas y rutinas. Por ello, requiere gestión del cambio, capacitación y lineamientos claros de uso. En ética, marcos como los Principios de IA de la OCDE y la Recomendación de la UNESCO, enfatizan transparencia, responsabilidad, equidad y supervisión humana (OECD, 2019, UNESCO, 2021). Traducido a decisiones concretas, esto implica avisar cuando se usa IA, proteger datos personales, documentar criterios, y establecer controles para evitar discriminación o respuestas fuera de política.

Integrar IA generativa con enfoque de mejora continua es, en el fondo, una decisión de liderazgo. Usar tecnología para elevar la confiabilidad del servicio y mejorar la experiencia del colaborador, no para sustituir criterio profesional. Cuando la organización diseña procesos, datos, métricas y gobernanza de forma coherente, la IA se convierte en un aliado. Acelera el aprendizaje, reduce retrabajo y fortalece la calidad con calidez.

Referencias
  • National Institute of Standards and Technology. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI 100-1). https://doi.org/10.6028/NIST.AI.100-1
  • Organisation for Economic Co-operation and Development. (2019). Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449).
  • Parasuraman, A., Zeithaml, V. A., & Berry, L. L. (1988). SERVQUAL: A multiple-item scale for measuring consumer perceptions of service quality. Journal of Retailing, 64(1), 12–40.
  • (2021). Recommendation on the Ethics of Artificial Intelligence.
Sobre el autor:

Dr. Francisco Gabriel Rodríguez González

Director Académico y Profesor de Tiempo Completo en el Departamento de Administración de Empresas de la Universidad de las Américas Puebla. Es Doctor en Ciencias Administrativas y cuenta con un MBA por la EGADE Business School, además de una Licenciatura en Administración por la Universidad del Valle de México. Cuenta con más de 17 años de experiencia en consultoría empresarial y gestión académica, y sus líneas de investigación incluyen mejora continua, calidad, sostenibilidad corporativa, Industria 4.0 y aplicaciones de inteligencia artificial en educación.

Contacto: francisco.rodriguez@udlap.mx