La doble cara del salto evolutivo de los bots conversacionales

Los avanzados sistemas, capaces de analizar el contexto y ejecutar tareas con autonomía parcial, abren nuevos retos normativos y de protección al usuario

Se busca talento humanístico para entrenar a la IA conversacional

Iciar Miner

La IA conversacional vuelve a dar un salto más en su evolución y nos sitúa en una nueva etapa. Atrás quedan los chatbots limitados a responder frases preconfiguradas o los asistentes virtuales que empezaron a interpretar intenciones, mantener conversaciones más fluidas gracias al procesamiento ... del lenguaje natural (NLP) y el aprendizaje automático. Como explica Luis Ríos Pita, director del Máster de Big Data & Business Analytics de ESIC Business & Marketing School, ahora asistimos a la fase de los agentes agentivos. Unos sistemas impulsados por IA generativa y modelos fundacionales, que no solo comprenden y generan lenguaje, sino que tienen cierta capacidad de razonamiento, memorización, planificación y actuación. «Hemos pasado de herramientas que reaccionan a comandos a sistemas que colaboran activamente con las personas en la consecución de objetivo, analizando información, tomando decisiones y actuando en nombre del usuario».

El avance tecnológico detrás de este salto son los modelos de lenguaje de gran tamaño (LLMs) como GPT, Gemini, Claude o Llama, entrenados con volúmenes masivos de datos textuales y reforzados mediante aprendizaje por retroalimentación humana y los nuevos modelos multimodales, capaces de integrar texto, imagen, voz, vídeo y datos estructurados. Esta convergencia permite que las máquinas comprendan el contexto de manera más humana y respondan con una naturalidad inédita. Ahora bien, la autonomía actual sigue siendo parcial y supervisada, matiza Ríos Pita. Las máquinas pueden tomar decisiones operativas o tácticas, pero la decisión estratégica o ética sigue, y debe seguir, en manos humanas. «El verdadero avance no está en sustituir al ser humano, sino en amplificar su inteligencia y productividad». Para ello, las organizaciones más maduras están adoptando modelos 'human-in-the-loop', donde la inteligencia artificial se encarga de automatizar procesos repetitivos, «pero los humanos siguen en el circuito para entrenar, validar, ajustar y aportar el enfoque humano a estos agentes».

Avance y escalado

Desde el lado empresarial, compañías como Blip insisten en que el salto no consiste solo en poner un chatbot más listo, sino en introducir agentes conversacionales capaces de interpretar contexto, aprender de la interacción y ejecutar tareas completas dentro de un proceso. Las soluciones conversacionales sirven para poder potenciar las estrategias de venta, marketing y atención al cliente, y han demostrado ser útiles para reducir costes operativos, liberar 'call centers', aumentar el alcance de la comunicación, gestionar miles de conversaciones de forma simultánea y escalar la operación a otros países y sectores.

Un agente como Blip AI Agent no funciona con guiones predefinidos, explica desde la compañía, Dafny Deftereos, Head of Value Design. Para conseguir esta experiencia «trabaja con IA generativa para interpretar las preguntas del usuario a través de lenguaje natural (PLN), detecta la intención para reconocer qué quiere lograr el usuario, interpreta los datos clave, analiza el historial de la conversación o contexto (que ofrece respuestas coherentes), y aprende de las conversaciones reales con el usuario».

El avance no está en sustituir a la persona sino en amplificar su inteligencia y productividad

Aun así, subraya que la autonomía no debe confundirse con ausencia de supervisión. «La mejor fórmula es la combinación de tecnología con talento», asegura. La máquina se ocupa de lo repetitivo; las personas, de la empatía y el juicio. Por eso, aunque el agente pueda resolver procesos de principio a fin, siempre se contempla la opción de hablar con un humano. Además, remarcan que esta tecnología no es exclusiva de grandes corporaciones. Se trata de un modelo escalable y suelen recomendar comenzar con un piloto pequeño antes de desplegar casos de uso más avanzados.

Uno de los mayores desafíos que presenta no está tanto en su potencial técnico como en la calidad de los datos que los alimentan, continúa el profesor Luis Ríos. «Un agente mal entrenado o nutrido con información sesgada o desactualizada puede generar respuestas lingüísticamente perfectas, pero erróneas o incluso perjudiciales para el negocio». De ahí que la supervisión humana siga siendo un pilar irrenunciable. «En mi experiencia en Nebulai, el mayor éxito se logra cuando la IA y las personas colaboran en armonía. El equilibrio se alcanza cuando la máquina aporta eficiencia y consistencia y el ser humano, empatía y juicio contextual».

Estos agentes ya se están usando en educación, en retail, turismo, marketing, recursos humanos o analítica empresarial. Se integran directamente en canales cotidianos como WhatsApp o web, y pueden operar 24/7 sin depender de menús rígidos. Sin embargo, los expertos advierten que la tecnología no es suficiente sin datos de calidad, cultura digital y una estrategia clara. De hecho, según el informe 'The GenAI Divide: State of AI in Business 2025' del MIT, el 95 % de los proyectos piloto de IA en empresas, no logran generar un impacto real. «La clave no está en instalar un chatbot, sino en integrar la inteligencia artificial en el modelo de negocio de forma sostenible», comenta Ríos Pita. Frente al temor de que la automatización diluya la empatía humana, el profesor ofrece una visión más equilibrada. La empatía, como 'power skill' clave, no tiene por qué desaparecer con la automatización, incluso puede reforzarse. «Un agente bien diseñado puede detectar el tono y la emoción del cliente en tiempo real y adaptar su respuesta. La tecnología gestiona la eficiencia, pero la empatía sigue siendo una competencia humana irremplazable».

En el terreno de la atención al cliente, en la actualidad, la Ley establece la obligación de garantizar atención humana «cuando sea necesario». En la práctica, esta necesidad significa que el cliente debe poder hablar con una persona cuando la decisión del sistema le afecte de manera relevante (por ejemplo, en una reclamación, una denegación de servicio o un problema de facturación) o cuando el chatbot no sea capaz de resolver la consulta de forma adecuada, explica Guillermo Hidalgo, counsel y responsable del área de Ciberderecho y Privacidad en MAIO Legal. «La empresa puede automatizar procesos rutinarios o informativos, pero debe ofrecer siempre una vía humana alternativa cuando el usuario la solicite o cuando lo que esté en juego afecte a sus derechos o intereses económicos». No hacerlo podría considerarse una práctica abusiva o incluso contraria al derecho de los consumidores sin mencionar la normativa de protección de datos.

Esta materia se rige principalmente por el Reglamento General de Protección de Datos (RGPD) y la Ley General para la Defensa de los Consumidores y Usuarios, a las que en breve se sumará el Reglamento Europeo de Inteligencia Artificial (AI Act), que entrará plenamente en vigor en 2026. «De momento este marco normativo, es suficiente pues luego hay resoluciones de autoridades de control que ayudan a modular el encaje de la norma y aplicarla a los usos actuales», continúan explicando desde MAIO Legal. «Habrá que estar atentos al próximo Proyecto de Ley que los prohíbe como mecanismo único, lo que de facto abre la obligación de disponer esa intervención humana tan necesaria». En cualquier caso, no hay que olvidar que los chatbots generados por IA aprenden, generan lenguaje y toman decisiones con cierta autonomía y que esta actualización de los bots o sistemas algorítmicos en su conjunto deberá ir acompañada de una reinvención constante del marco normativo y de las interpretaciones que hagan las autoridades de control (AEPD, AESIA...), concluye Hidalgo.

Entrar en bucle

En esta misma línea, desde CECU explican que actualmente no es ilegal que las compañías atiendan solo con IA. «En muchas ocasiones el uso de la tecnología, cuando hablamos de cuestiones no controvertidas o complejas, puede facilitar la gestión de un problema de manera rápida», asegura. No obstante, estos sistemas no siempre tienen una respuesta adecuada o correcta. «Cuando no son capaces de solucionar el problema, entramos en un bucle conversacional sin salida. Y si, además, no se facilita un canal de contacto directo con el SAC (Servicio de Atención a la Clientela), lo que genera es frustración y desconfianza», aseguran desde CECU. Esta mala práctica es la que puede derivar en incumplimientos de derechos básicos del consumidor, especialmente cuando las empresas no informan de los canales de reclamación o dificultan el acceso a una persona real.

El riesgo no está en la tecnología en sí, sino en la mala praxis. «Un chatbot que deniega reclamaciones por defecto o que no ofrece vías alternativas de contacto deteriora la relación con el cliente y mina la confianza en la empresa». Por eso insisten en que la futura ley debería definir qué valor jurídico tiene una respuesta automatizada y en qué momento debe intervenir una persona, sobre todo en sectores sensibles como el financiero o sanitario.

Artículo solo para suscriptores
Tu suscripción al mejor periodismo
Anual
Un año por 15€
110€ 15€ Después de 1 año, 110€/año
Mensual
5 meses por 1€/mes
10'99€ 1€ Después de 5 meses, 10,99€/mes

Renovación a precio de tarifa vigente | Cancela cuando quieras

Ver comentarios