Impacto de los agentes de IA en las comunicaciones telefónicas en España

Impacto de los agentes de IA en las comunicaciones telefónicas en España

Análisis detallado de las implicaciones tecnológicas, comerciales, de experiencia de usuario y regulatorias

🤖 Obtén un resumen de IA de este informe:

ChatGPT Perplexity Grok Google AI

Aviso de Copyright

Este informe pertenece a MOBILETALK-Q SL, con NIF ESB27763127, y ha sido publicado originalmente el 27 de Abril de 2025 en https://talk-q.com/impacto-agentes-ia-comunicaciones-telefonicas-en-espana.

Todos los derechos reservados. Ninguna parte de esta publicación puede ser reproducida, distribuida o transmitida en cualquier forma o por cualquier medio, incluyendo fotocopias, grabaciones u otros métodos electrónicos o mecánicos, sin el permiso previo por escrito de MOBILETALK-Q SL.

Para solicitudes de permiso o cualquier consulta, contáctenos:

MOBILETALK-Q SL
Domicilio social: Cl Vázquez Varela, 51, Escalera 2, Planta 3, Puerta F, 36204, Vigo, España
Email: legal@talk-q.com
Teléfono: +34 886 311 729

1. Introducción y contexto general

Las comunicaciones telefónicas en España han experimentado una transformación significativa con la llegada de los agentes conversacionales impulsados por inteligencia artificial. Estos sistemas, que permiten interacciones fluidas y naturales entre humanos y máquinas, están redefiniendo la manera en que ciudadanos y empresas se comunican telefónicamente.

En esta publicación analizamos el impacto de la implementación de estas tecnologías en el contexto español, evaluando sus implicaciones para operadores de telecomunicaciones, empresas, administraciones públicas y usuarios finales. A través de un análisis multidimensional, examinamos tanto los beneficios potenciales como los desafíos asociados con esta innovación tecnológica.

En los últimos años, la inteligencia artificial conversacional ha avanzado hasta permitir agentes virtuales de voz capaces de mantener diálogos telefónicos cada vez más naturales. Empresas de diversos sectores en España están explorando estos voicebots para automatizar la atención telefónica, la concertación de citas, el soporte técnico o incluso ciertas campañas comerciales, con el objetivo de mejorar la eficiencia y disponibilidad del servicio. Paralelamente, la sociedad muestra un creciente interés por estas herramientas: según la CNMC, a mediados de 2024 un 7% de los internautas españoles ya utilizaba habitualmente chatbots de IA y casi un 12% los había probado en alguna ocasión. Este aumento de la familiaridad con la IA sienta las bases para su despliegue en entornos telefónicos, aunque aún existe una mayoría (más del 75%) que no ha interactuado con estos sistemas.

Ahora bien, la introducción de agentes conversacionales automatizados en llamadas telefónicas plantea implicaciones profundas en múltiples ámbitos. En el plano tecnológico, surgen nuevos modelos de speech-to-speech y desafíos de integración con las redes de voz tradicionales. En el comercial, las empresas vislumbran oportunidades de reducir costes y ofrecer servicio 24/7, pero deben equilibrarlas con la calidad de atención que exigen los usuarios. Precisamente, la experiencia de usuario se vuelve crítica: los consumidores esperan interacciones eficaces y transparentes, sin perder el trato humano cuando lo deseen. Finalmente, en el frente regulatorio, España y la UE están definiendo marcos para garantizar que el uso de IA en llamadas respete los derechos de los usuarios (privacidad, no spam, información veraz, etc.), con hitos recientes como la prohibición de llamadas comerciales no solicitadas y la inminente aplicación del Reglamento Europeo de IA (AI Act).

En este informe analizamos detalladamente el impacto de los agentes de IA en las comunicaciones telefónicas en España, enfocándonos en las implicaciones para empresas, usuarios, operadores de telecomunicaciones y autoridades reguladoras. Se parte de fuentes oficiales y normativas vigentes (CNMC, INCIBE, AEPD, AI Act europeo, legislación española) y de literatura técnica, con un enfoque académico y neutral. En primer lugar, describiremos las tecnologías de voz implicadas –incluyendo la emergente speech-to-speech– y los cambios normativos recientes que sirven de contexto (como la entrada en vigor en junio de 2023 de la prohibición de llamadas comerciales no consentidas). Posteriormente, profundizaremos en las implicaciones tecnológicas, comerciales, de experiencia de usuario y regulatorias, estructuradas según los actores involucrados. Finalmente, presentaremos conclusiones claras y recomendaciones dirigidas a empresas, operadores y autoridades, con miras a un despliegue responsable y eficaz de la IA en el ámbito telefónico.

2. Tecnologías de voz con IA: del modelo tradicional al speech-to-speech

Para entender el impacto en las comunicaciones telefónicas, conviene primero describir cómo funcionan los agentes de voz impulsados por IA. Tradicionalmente, estos sistemas se basan en una arquitectura pipeline relativamente fija: 1) un módulo de speech-to-text (STT) transcribe la voz del interlocutor a texto, 2) un modelo de lenguaje natural (por ejemplo un LLM, Large Language Model) procesa esa entrada textual, decide la respuesta apropiada y la genera en texto, y 3) un módulo de text-to-speech (TTS) convierte el texto de respuesta en voz sintética que se reproduce al usuario. En esencia, STT + LLM + TTS constituyen "la columna vertebral" de los agentes de voz actuales, funcionando en cadena para transformar lenguaje hablado en interacciones digitales con significado. Esta aproximación modular ha demostrado ser flexible y potente: por un lado aprovecha tecnologías maduras de reconocimiento y síntesis de voz, y por otro permite intercambiar o mejorar fácilmente la parte lingüística (el "cerebro" del agente) a medida que surgen modelos de IA más avanzados.

No obstante, están emergiendo nuevas tecnologías speech-to-speech (voz a voz) más integradas. En vez de separar estrictamente STT, procesamiento textual y TTS, estos enfoques buscan convertir directamente una entrada de voz en una respuesta hablada, utilizando redes neuronales entrenadas de extremo a extremo. ¿Qué ventajas podría tener esto? En teoría, un sistema speech-to-speech podría preservar mejor las características paralingüísticas de la conversación (entonación, emoción, timbre) al no "perderlas" en una transcripción intermedia. También podría reducir la latencia total de la respuesta si optimiza pasos internos. Por ejemplo, proyectos de investigación han explorado la traducción simultánea voz-voz sin texto intermedio, conservando la voz del hablante original en el idioma destino. Del mismo modo, en asistentes telefónicos podría pensarse en modelos que reciban el audio del usuario y generen directamente el audio de la contestación, saltándose la etapa explícita de texto.

Sin embargo, hoy por hoy (2025) las soluciones speech-to-speech puras están en fases iniciales, mientras que el enfoque tradicional STT→LLM→TTS sigue siendo el más práctico y extendido. La separación de módulos ofrece robustez y versatilidad: por ejemplo, se puede actualizar solo el motor de TTS para mejorar la voz, o cambiar el modelo de lenguaje por uno especializado, sin rehacer todo el sistema. Además, los motores actuales de TTS neuronales logran voces muy naturales, con capacidades multilingües y expresivas, y los sistemas STT basados en transformers han alcanzado alta precisión incluso en entornos difíciles. En consecuencia, la mayor parte de agentes conversacionales telefónicos en despliegue utilizan arquitecturas híbridas, combinando distintos servicios de reconocimiento automático de voz, algoritmos de inteligencia artificial para el diálogo (muchas veces entrenados con grandes corpus de conversaciones) y síntesis de voz avanzada.

En cualquier caso, desde una perspectiva tecnológica, la integración de IA en llamadas telefónicas requiere algo más que el modelo conversacional en sí. Las empresas u operadores que implanten estos agentes deben atender a la infraestructura de telecomunicaciones: conexión con centrales telefónicas o plataformas VoIP, gestión de audio en tiempo real, escalabilidad para manejar potencialmente miles de llamadas concurrentes, etc. También surgen retos de optimización –por ejemplo, minimizar el retardo entre que el usuario termina de hablar y la respuesta del agente, o asegurar que el STT entiende bien a personas mayores, distintos acentos del español o incluso mezclas con gallego, catalán, etc. (un desafío lingüístico relevante en España). La calidad de la voz sintética es otro factor crucial en la experiencia: voces monótonas o poco expresivas pueden generar rechazo, por lo que se investiga dotar al TTS de inflexiones más humanas e incluso personalidades distintas según el contexto.

Por último, cabe mencionar la dimensión de seguridad tecnológica: estos agentes de IA deben operar de forma confiable en entornos expuestos a ruido de fondo y, a la vez, estar protegidos frente a posibles ataques adversariales (por ejemplo, introduciendo deliberadamente frases diseñadas para confundir al modelo). Desde INCIBE (Instituto Nacional de Ciberseguridad) se alerta incluso de riesgos emergentes como el voice hacking o suplantación de voz: la misma tecnología que permite a un asistente generar voz realista puede ser utilizada por ciberdelincuentes para clonar voces de personas y engañar a las víctimas. Esto añade otra capa de complejidad tecnológica y ética al despliegue de voz sintética, que las empresas deben considerar en sus diseños (por ejemplo, implementando verificaciones adicionales de identidad cuando un "cliente" solicita algo sensible por teléfono, ante la posibilidad de que no sea realmente quien dice ser).

3. Cambios normativos recientes relevantes en España

El marco normativo español ha evolucionado rápidamente para proteger a los usuarios en el ámbito de las comunicaciones electrónicas, lo cual afecta directamente al uso de IA en llamadas. Dos hitos normativos de especial relevancia son: (1) la nueva prohibición de las llamadas comerciales no solicitadas, y (2) el desarrollo de la Ley de Servicios de Atención al Cliente que garantiza derechos en la atención telefónica. Además, a nivel europeo, (3) el Reglamento de IA (AI Act) introduce requisitos de transparencia para sistemas de IA que interactúan con personas, que serán de cumplimiento obligatorio en los próximos años. A continuación resumimos estas regulaciones clave:

  • Prohibición de llamadas comerciales no deseadas (Ley General de Telecomunicaciones 11/2022, art. 66.1.b)

    A partir del 29 de junio de 2023 entró en vigor en España el derecho de los usuarios "a no recibir llamadas con fines de comunicación comercial no solicitadas", salvo que exista consentimiento previo o una base jurídica válida. Esto supone un cambio sustancial respecto al régimen anterior, donde se permitían llamadas de prospección salvo que el usuario se opusiera. Ahora la carga se invierte: ninguna empresa puede llamar fríamente a un particular si éste no lo ha autorizado. La única excepción posible es invocar el interés legítimo del responsable, pero la AEPD ha aclarado que esto solo ampara supuestos muy restringidos: relaciones comerciales previas (cliente actual o reciente) y para ofertar productos similares a los ya contratados, dentro de un límite temporal breve (máximo un año desde la finalización de la relación). Incluso en esos casos, el usuario no debe haber ejercido su derecho de oposición. En particular, la AEPD establece que "las llamadas realizadas a números generados de forma aleatoria [captación pura] sólo pueden basarse en consentimiento previo; la empresa no puede realizarlas basándose en interés legítimo. En la práctica, esta normativa elimina el spam telefónico tradicional en España (las típicas "llamadas molestas" de telemarketing) y obliga a que cualquier campaña mediante llamadas esté sustentada en una lista de contactos que hayan dado permiso o en clientes cuya situación encaje en las estrechas excepciones. Cualquier agente de IA utilizado para llamadas salientes debe por tanto operar dentro de estos límites legales: por ejemplo, un banco podría desplegar un asistente virtual que llame a sus propios clientes para ofrecerles un producto relacionado con los que ya tienen, pero no podría usarlo para llamar a números aleatorios o comprados de bases de datos sin consentimiento. Las empresas que infrinjan esta prohibición se enfrentan a sanciones importantes (multas que pueden alcanzar millones de euros). La adecuación legal de las campañas outbound con IA es un aspecto crítico a supervisar por las autoridades.

  • Ley de Servicios de Atención al Cliente (en tramitación)

    En paralelo a proteger frente al spam, el legislador español ha puesto el foco en mejorar la calidad de la atención telefónica que brindan las empresas, especialmente las grandes compañías de servicios básicos. El Proyecto de Ley de Servicios de Atención a la Clientela (publicado en marzo de 2024) establece parámetros mínimos de calidad obligatorios en los call centers: por ejemplo, la atención telefónica debe ser gratuita y personalizada, el tiempo de espera no superará 1 minuto en el 90% de las llamadas, y las reclamaciones deben resolverse en menos de un mes. Un punto muy relevante es que los usuarios tendrán derecho a ser atendidos por una persona y no solo por sistemas automatizados. Es decir, se prohíbe que la empresa obligue al cliente a interactuar únicamente con un robot o IVR sin opción de un agente humano. Esta obligación refleja las quejas de los consumidores sobre los menús interminables o chatbots poco resolutivos: la ley busca que, si el usuario lo solicita, pueda "exigir ser atendido por personas y no por robots o contestadores automáticos". Para las empresas, esto no implica que no puedan usar sistemas de IA en primera línea de atención, pero sí que deben ofrecer una vía de escalado a un humano cuando el cliente lo requiera o cuando la situación lo amerite (por ejemplo, reclamaciones complejas). Además, la atención debe ser "personalizada", lo cual sugiere que los agentes de IA deben identificar al cliente y su historial, o de lo contrario transferir pronto a un humano. Cabe destacar que esta ley se aplicará inicialmente a grandes empresas (más de 250 empleados o sectores esenciales como telecomunicaciones, energía, agua, banca, etc.), que son precisamente las que suelen manejar mayores volúmenes de llamadas y podrían estar implementando soluciones de IA para gestionarlas. En suma, la normativa de atención al cliente en España no prohíbe la IA, pero asegura que el componente humano siga presente como respaldo y que no se degraden los estándares de calidad del servicio bajo la excusa de la automatización.

  • Reglamento Europeo de Inteligencia Artificial (AI Act)

    A nivel comunitario, en 2024 se aprobó el esperado Reglamento de IA, que entrará plenamente en aplicación en 2026 con algunas obligaciones anticipadas en 2025. Este marco legal clasificará los sistemas de IA por niveles de riesgo e impondrá requisitos proporcionados. En el contexto de agentes de IA conversacionales utilizados en comunicaciones, hay dos aspectos clave. Primero, los sistemas de IA destinados a interactuar con personas (como chatbots o voicebots) estarán sujetos a obligaciones de transparencia: el proveedor debe asegurar que las personas sean informadas de que están tratando con una máquina y no con un humano. Esto significa que un asistente virtual que llame por teléfono deberá identificarse claramente como un sistema automatizado (salvo que ello sea obvio por el contexto). La idea es "preservar la confianza" evitando el engaño: los ciudadanos tienen derecho a saber si una voz al otro lado es artificial, para así tomar decisiones informadas sobre cómo proceder. Este principio de transparencia, ya presente en el RGPD para ciertos tratamientos automatizados, se vuelve explícito y obligatorio con el AI Act. En la práctica, en España podríamos ver que las empresas incluyan un aviso al inicio de las llamadas automatizadas del estilo: "Hola, soy el asistente virtual de [empresa]". De hecho, la AEPD ha recomendado en su Esquema de certificación de IA que los sistemas conversacionales informen de su naturaleza artificial de forma clara y accesible. El segundo aspecto relevante del AI Act es la atención a los "deepfakes" de voz: el Reglamento exigirá que cualquier contenido audiovisual o de audio generado artificialmente que pueda confundirse con real esté etiquetado explícitamente como sintético, excepto en casos muy limitados. Esto atañe, por ejemplo, a los casos en que se use una voz sintética imitando a una persona real (un locutor famoso, un cliente específico, etc.): el destinatario debería ser advertido de que se trata de una recreación. Aunque en aplicaciones de atención al cliente es más común usar voces genéricas o corporativas, esta obligación pone coto a eventuales prácticas engañosas (imitar la voz de un empleado famoso, etc.). Por último, el AI Act catalogará algunos usos de IA como alto riesgo (con requisitos estrictos de control) –por ejemplo, la identificación biométrica por voz podría entrar en esa categoría–. Los voicebots en sí probablemente se consideren de riesgo limitado, sujetos sobre todo a las obligaciones de transparencia mencionadas y a buenas prácticas en su desarrollo (gestión de datos, supervisión humana de su funcionamiento, etc.). En resumen, la regulación europea vendrá a armonizar el uso responsable de la IA, obligando a las empresas en España a revelar el uso de agentes automatizados en llamadas e implementar medidas para prevenir sesgos o manipulaciones indebidas en sus algoritmos. Las autoridades nacionales (AEPD, futura Agencia Española de Supervisión de la IA, etc.) velarán por el cumplimiento de estos preceptos a medida que entren en vigor.

Con este panorama legal, queda claro que cualquier despliegue de agentes de IA en el canal telefónico en España debe hacerse dentro de un marco de respeto a la privacidad y los derechos del usuario. No se trata solo de una cuestión técnica o comercial, sino de cumplimiento normativo: desde obtener los consentimientos adecuados para realizar ciertas llamadas, hasta informar al usuario que está hablando con una IA, pasando por asegurar que si el usuario pide hablar con una persona, pueda hacerlo sin trabas. En las siguientes secciones, analizaremos cómo afectan estos requerimientos y avances tecnológicos a cada uno de los actores implicados.

4. Impacto en las empresas: eficiencia vs. calidad y nuevos modelos comerciales

Para las empresas, la incorporación de agentes de IA en sus comunicaciones telefónicas supone un cambio de paradigma con potencial de transformar procesos y modelos de negocio, pero también trae retos para mantener la calidad del servicio y cumplir con las normas. A continuación, examinamos los impactos tecnológicos y comerciales más relevantes desde la perspectiva empresarial:

  • Automatización y eficiencia operativa

    El motivo principal que lleva a las empresas a implementar voicebots es ganar eficiencia en la gestión de llamadas. Un agente virtual puede atender múltiples llamadas simultáneamente (escalando horizontalmente con instancias en la nube), funciona 24 horas al día sin descanso, y tiene un coste marginal por llamada mucho menor que el de un agente humano. Esto resulta muy atractivo para centros de atención al cliente con altos volúmenes de consultas rutinarias (seguimiento de pedidos, resetear contraseñas, dar citas, FAQs, etc.), donde un bot bien entrenado puede resolver tareas repetitivas liberando a los empleados para casos de mayor valor añadido. Asimismo, en sectores como telemarketing consentido o gestión de cobros a clientes, un agente de IA puede marcar automáticamente a los usuarios en momentos óptimos y seguir un guion conversacional consistente. Desde el punto de vista comercial, esto se traduce en reducción de costes (menos personal para el mismo volumen de llamadas, o la posibilidad de crecer en número de interacciones sin aumentar plantilla) y potencialmente mejora de ingresos al no perder oportunidades de venta por llamadas no atendidas fuera de horario. Un ejemplo práctico: una empresa de comercio electrónico podría utilizar un asistente de voz para llamar proactivamente a compradores que dejaron el carrito abandonado (siempre que hayan dado su permiso para comunicaciones comerciales), recordándoles completar la compra con algún incentivo. Esta llamada automatizada, realizada quizás de noche poco después de la navegación del cliente, podría recuperar ventas que de otro modo se perderían, y todo ello sin intervención humana directa.

  • Integración en procesos y sistemas existentes

    Para lograr esas eficiencias, las empresas deben invertir en la integración de la IA con sus sistemas internos. Un agente telefónico inteligente no actúa en vacío: debe conectarse con bases de datos de clientes, CRMs, sistemas de ticketing, etc., para personalizar las respuestas y realizar acciones útiles. Por ejemplo, si un cliente llama (o es llamado) y se identifica, el agente de IA debería ser capaz de consultar su historial ("veo que usted tiene contratado el plan X con nosotros") y actualizar registros según la conversación (p. ej., generar un ticket de incidencia o registrar el consentimiento dado para una oferta). Esto requiere que la empresa acometa proyectos de integración tecnológica a menudo complejos, garantizando a la vez la seguridad de los datos (el bot no debe exponer información sensible a quien no corresponda) y la calidad de los datos (evitar respuestas erróneas por información desactualizada en sistemas). En términos comerciales, la IA se convierte así en parte del core del servicio: muchas compañías están creando incluso "equipos de IA conversacional" internos o contratando proveedores especializados para personalizar estos agentes a su casuística. No es una simple herramienta off-the-shelf, sino que conlleva personalización, entrenamientos con datos propios (por ejemplo, cargar un corpus de preguntas frecuentes específicas de la empresa al modelo), y pruebas exhaustivas antes de puesta en producción. Las empresas españolas más grandes (bancos, aseguradoras, telecos…) ya llevan años incursionando en chatbots de texto, por lo que la extensión al canal voz suele ser el siguiente paso natural, pero a veces más delicado por las expectativas más altas que los clientes tienen de una llamada telefónica frente a un chat web.

  • Mejora de la experiencia y satisfacción del cliente

    Contra la intuición de que "los robots empeoran el servicio", muchas empresas ven en la IA una oportunidad de mejorar la experiencia si se usa con criterio. Un agente virtual bien diseñado puede reducir tiempos de espera –por ejemplo, atendiendo inmediatamente con un saludo personalizado y resolviendo una consulta sencilla en segundos en lugar de poner al cliente en espera para hablar con un humano en 5 minutos–. También puede aportar uniformidad y precisión en la información: todos los clientes reciben la misma respuesta correcta a determinada pregunta, evitando errores humanos o discrepancias. Además, la IA puede escuchar sin límites de paciencia, lo que en ciertos casos de soporte técnico donde el usuario sigue pasos podría dar más comodidad. Desde luego, esto solo es beneficioso si el sistema está correctamente ajustado; de lo contrario, podría frustrar (un bot que no entiende al usuario tras varios intentos causa irritación). Las empresas líderes están invirtiendo en entrenar a sus modelos con lenguaje natural coloquial, incluyendo variantes locales (no es lo mismo un cliente andaluz que uno mexicano, por ejemplo) para que la interacción sea lo más fluida posible. En el ámbito comercial, una buena experiencia con un agente de IA puede incluso reforzar la imagen innovadora de la marca y la fidelidad del cliente. Imaginemos una operadora móvil que ofrezca un asistente telefónico que resuelve casi cualquier gestión al momento (desde cambiar de tarifa hasta configurar el router) – muchos clientes valorarían positivamente esa agilidad. No obstante, las empresas deben medir cuidadosamente la satisfacción: es recomendable combinar la atención de IA con encuestas post-llamada o análisis de sentimiento de las conversaciones (algo que la propia IA puede hacer) para detectar si la experiencia del usuario está siendo óptima o si es necesario introducir más supervisión humana en ciertos puntos.

  • Limitaciones y riesgos comerciales

    No todas las interacciones son candidatas ideales para la automatización. Las empresas deben identificar los casos de uso apropiados para la IA y aquellos donde es mejor mantener agentes humanos. Tareas que impliquen negociación compleja, empatía ante un problema grave o retención de clientes descontentos quizás requieran la flexibilidad emocional humana. Forzar a un bot en esos escenarios podría ser contraproducente (p. ej., un cliente muy enfadado podría irritarse aún más si percibe que le responde una máquina con frases estándar). Además, errores del agente de IA pueden tener impacto en la cuenta de resultados: una comprensión incorrecta que lleva a tramitar mal un pedido, o un sesgo en el entrenamiento que haga respuestas discriminatorias, puede conllevar quejas, pérdidas de clientes o incluso sanciones (imaginemos un asistente bancario que rechazase sistemáticamente solicitudes de cierto colectivo porque aprendió mal). Por ello, desde el punto de vista empresarial es crucial la supervisión y mejora continua de estos sistemas. Se habla de mantener a un "humano en el bucle" (human in the loop), ya sea para revisar transcripciones y corregir fallos de entendimiento del bot, o para intervenir en tiempo real cuando el algoritmo detecte que la conversación se ha estancado. Algunas empresas optan por introducir los agentes virtuales gradualmente (soft launch), primero en una pequeña proporción de llamadas o en horarios nocturnos, e ir afinando antes de escalarlos a plena capacidad.

  • Nuevas oportunidades de negocio para operadores y terceros

    Un aspecto comercial interesante es que los operadores de telecomunicaciones y proveedores tecnológicos están ofreciendo a las empresas soluciones IAaaS (Inteligencia Artificial como Servicio) específicas para voz. Por ejemplo, plataformas en la nube integradas con la red telefónica donde las empresas pueden configurar sus bots sin necesidad de infraestructura propia. En España, las grandes telecos han explorado servicios de centralita virtual con IA que atiende llamadas, o APIs de voz inteligentes. Esto permite a empresas medianas acceder a esta tecnología sin gran inversión. A su vez, surgen proveedores especializados (startups de voice AI) que compiten por captar clientes corporativos, aunque no mencionaremos nombres comerciales específicos por neutralidad. Estas soluciones pueden ser atractivas, pero las empresas deben evaluar la protección de datos y confidencialidad al usarlas: ¿dónde se almacena la voz de sus clientes?, ¿quién entrena al modelo con esas conversaciones? Dado que la voz es un dato personal, muchas compañías prefieren mantener el control e incluso entrenar sus propios modelos on-premise para no exponer datos sensibles en servicios de terceros. En cualquier caso, comercialmente veremos una oferta creciente de servicios y herramientas de IA conversacional dirigidas a las empresas, y éstas tendrán que escoger con criterios tanto técnicos (precisión, idiomas soportados, integración) como legales (garantías de cumplimiento RGPD, etc.).

En resumen, para las empresas españolas los agentes de IA en llamadas representan una balanza entre eficiencia y calidad. Por un lado, prometen ahorros de costes, escalabilidad y nuevas capacidades comerciales (atención proactiva, análisis de datos de voz en tiempo real para upselling, etc.). Por otro lado, implican inversión en tecnología, adaptación de procesos y vigilancia activa de la satisfacción del cliente. Las empresas que logren ese equilibrio podrán diferenciarse y ganar competitividad, mientras que aquellas que sacrifiquen la experiencia por ahorrar costos pueden dañar su reputación en un mercado donde el boca a boca (ahora amplificado por redes sociales) penaliza duramente un mal servicio de atención. La clave estará en usar la IA como aliada del equipo humano, automatizando lo automatizable pero sin perder el trato humano cuando importe, todo ello dentro del cumplimiento normativo estricto que España exige.

5. Impacto en los usuarios: experiencia, aceptación y preocupaciones

Desde la perspectiva de los usuarios (consumidores y ciudadanía en general), el impacto de los agentes de IA en llamadas telefónicas tiene dos caras. Por un lado, puede aportar beneficios en términos de rapidez de atención, disponibilidad y personalización. Por otro lado, genera inquietudes relacionadas con la calidad de la interacción, la transparencia (que no se sientan engañados), la privacidad de sus datos de voz y la seguridad ante posibles fraudes. Analicemos estos aspectos centrados en la experiencia de usuario y sus derechos:

  • Disponibilidad inmediata y menor tiempo de espera

    Un efecto positivo muy valorado por los usuarios es la reducción drástica de esperas y horarios. Los asistentes virtuales permiten ser atendido al instante, sin la temida musiquita de espera. Además, pueden operar 24/7, lo cual resulta conveniente para quienes solo pueden llamar fuera del horario laboral tradicional. Imaginemos un usuario que tiene un problema con su servicio de internet a medianoche: si la compañía tiene un agente virtual disponible, podría reportar la avería o recibir instrucciones en ese mismo momento, en lugar de esperar al día siguiente. Esto mejora la percepción del servicio. De hecho, la nueva regulación española incide en garantizar disponibilidad continua en servicios básicos (24h para incidencias en telecomunicaciones, electricidad, etc.), algo que la IA puede ayudar a cumplir sin tener que duplicar turnos de personal. Siempre que el agente virtual resuelva la consulta de forma satisfactoria, el usuario apreciará la celeridad. Hay casos reportados en que los clientes ni se percatan de que hablaron con una IA si la conversación fue fluida y resolutiva, lo cual indica un grado de madurez de la tecnología y de aceptación tácita por parte del usuario cuando sus expectativas quedan cubiertas.

  • Simplicidad en gestiones rutinarias

    Muchos usuarios solo buscan solucionar trámites sencillos con rapidez. En ese sentido, los sistemas automatizados pueden ofrecer experiencias más directas que la interacción humana. Por ejemplo, para consultar el saldo de una cuenta o saber el estado de un envío, un bot puede validar identidad y leer la información en pocos segundos. En contraste, con un agente humano a veces se pierde tiempo en saludos, verificaciones manuales, etc. Si el diseño conversacional es bueno, el usuario percibe comodidad al obtener respuestas concretas sin rodeos. Además, los voicebots actuales pueden implementar reconocimiento de intenciones: el usuario puede decir con sus propias palabras lo que necesita ("quiero dar de baja un servicio", "tengo la factura muy alta") y el sistema entenderlo, en vez de tener que navegar por menú de teclas. Esto supera a los IVR antiguos y mejora la usabilidad. Un punto a favor de la IA es que no muestra impaciencia ni juicios: algunos usuarios pueden sentirse más cómodos confesando un olvido o error a una máquina que a una persona (por ejemplo, "no recuerdo mi contraseña otra vez"). Siempre que el agente esté programado para ser cortés y empático en sus respuestas (p. ej., "no se preocupe, eso nos pasa a todos, vamos a solucionarlo"), el usuario puede tener una sensación de trato personalizado incluso sin intervención humana.

  • Transparencia: saber que hablo con una máquina

    Aun con lo anterior, para muchos usuarios es fundamental saber con qué (o quién) están hablando. Si una llamada es contestada por un sistema automatizado, debe indicarse claramente. La normativa europea así lo exige, y éticamente genera confianza que al inicio se diga por ejemplo "Bienvenido al servicio de asistencia virtual..." en lugar de intentar hacer pasar la voz sintética por un humano. Cuando el usuario no se da cuenta y luego descubre que era una IA (ya sea porque lo intuyó o se lo informan después), podría sentirse engañado o infravalorado. Afortunadamente, las encuestas muestran que cada vez más personas detectan o sospechan cuándo interactúan con una IA; y aunque muchos lo aceptan si la tarea fue bien resuelta, prefieren que se les informe explícitamente. La honestidad en la interacción es clave para la experiencia de usuario. Un ejemplo negativo sería la polémica generada por ciertas demostraciones de IA (como la de Google Duplex en 2018) donde la máquina llamaba imitando perfectamente a un humano sin avisar, lo cual levantó críticas éticas. En España, es previsible que las empresas adopten políticas de transparencia proactiva, alineadas con AEPD y el AI Act, para que el usuario sepa desde el primer momento que está hablando con un agente virtual. Esto no significa que la experiencia sea peor; de hecho, informado de ello, el usuario puede ajustar sus expectativas y aprovechar las ventajas (por ejemplo, sabiendo que el bot tiene ciertos límites y pidiendo humano si lo requiere). En cualquier caso, ocultar la identidad artificial del agente es contrario a las recomendaciones y podría constituir una práctica desleal si lleva a confusión intencionada.

  • Calidad de la interacción y resolución efectiva

    El punto crítico que determina la satisfacción del usuario es simple: ¿pudo resolver su problema o responder su pregunta el sistema de IA? Si la respuesta es sí, generalmente la experiencia será valorada positivamente o al menos de forma neutra. Si es no, vendrá la frustración. Muchos usuarios han experimentado chatbots o contestadores telefónicos incapaces de entender lo que se les pedía, repitiendo "no le he entendido, ¿puede reformular?" una y otra vez. Esto resulta exasperante. Con la voz, el listón de tolerancia es aún más alto: una cadena de errores de reconocimiento de voz o respuestas incoherentes puede desesperar al interlocutor rápidamente. Por ello, desde el punto de vista del usuario, los agentes de IA deben demostrar competencia básica en las tareas para las que están habilitados. Un diseño centrado en el usuario implica delimitar claramente qué puede y qué no puede hacer el bot, y derivar a un humano en cuanto se salga de su alcance o detecte confusión. La legislación de atención al cliente obligará a ello (por ejemplo, si el usuario dice "quiero hablar con un agente", el sistema deberá transferirlo sin dilación). Otro factor de calidad es la naturalidad de la conversación: los usuarios valoran que la voz sintética suene lo menos robotizada posible y que las respuestas no sean demasiado rígidas o repetitivas. Se están aplicando técnicas de prompting y uso de LLM para dotar a los bots de cierta variedad lingüística, siempre manteniendo el tono corporativo apropiado. Cabe destacar que hay segmentos de usuarios menos habituados a tratar con máquinas, como personas mayores, que pueden sentirse confundidos o incómodos. Para ellos, la experiencia debe adaptarse: vocalizar claro, usar frases sencillas y asegurarse de que entienden las instrucciones. Algunos proyectos piloto en España con voicebots han incluido a personas mayores en las pruebas para calibrar estos aspectos, dado que la inclusión digital es importante (no dejar atrás a quien no maneja bien estas tecnologías).

  • Privacidad y protección de datos personales

    Un aspecto que preocupa a los usuarios informados es qué ocurre con su voz y datos durante estas interacciones. Cuando hablan con un agente de IA, típicamente la llamada está siendo grabada o transcrita para que la IA procese la información. Esto implica tratamiento de datos personales (la voz es identificativa, e incluso podría considerarse dato biométrico si se usa para reconocer al individuo). España, a través de la AEPD, enfatiza que el RGPD aplica plenamente: la empresa debe informar al usuario de la grabación, fines, base jurídica, etc., igual que haría con una llamada atendida por humano que se graba. Muchos servicios ya incluyen la locución "esta llamada puede ser grabada" por ese motivo. Con la IA, además, surge la cuestión de uso secundario de los datos: ¿se usarán las grabaciones para entrenar mejor al algoritmo? Si es así, debe estar cubierto por una base legal (p. ej., consentimiento o interés legítimo suficientemente argumentado). El usuario puede tener reticencia a que su voz quede almacenada. En entornos sensibles (salud, banca) la confianza es fundamental: las organizaciones deberán asegurar confidencialidad (quizá anonimizar las transcripciones) y, si fuera necesario, obtener consentimiento explícito para usos adicionales de datos de voz, sobre todo si involucra datos personales delicados. La Agencia Española de Protección de Datos probablemente vigilará de cerca estos desarrollos; de hecho, ya en 2019 multó a una empresa por usar sistemas automatizados de llamada sin respetar la normativa de protección de datos. En 2023 publicó la Circular sobre llamadas comerciales que refuerza ese control. Por ende, desde el punto de vista del usuario, debería existir la garantía de que su información en estas interacciones de IA está protegida igual que en cualquier otra comunicación, y que puede ejercer sus derechos (acceso, supresión de grabaciones, oposición a ciertas decisiones automatizadas, etc.).

  • Seguridad y fraude: el lado oscuro de la IA en llamadas

    No todo impacto en el usuario será positivo; lamentablemente, los delincuentes también están aprovechando la IA para nuevas estafas telefónicas. El llamado "vishing" (phishing por voz) ha existido desde hace tiempo, pero con herramientas de IA ahora es posible generar llamadas masivas con voces sintéticas muy convincentes o incluso clonar la voz de un familiar para engañar a alguien. INCIBE ha alertado de casos reales en España donde una persona recibió la llamada de alguien con la voz exacta de su marido pidiendo un favor, resultando ser un montaje de audio por estafadores. Asimismo, se han detectado fraudes en los que una supuesta entidad bancaria llama con voz artificial y número falsificado (usando spoofing para que aparezca el identificador del banco real) solicitando datos confidenciales. Estas amenazas erosionan la confianza de los usuarios en las llamadas telefónicas en general. Ante la proliferación de deepfakes de voz, muchos ciudadanos empiezan a dudar de la autenticidad de la persona al otro lado si la llamada es inesperada o extraña. Desde el punto de vista del usuario, esto implica que deberá ser más precavido: por ejemplo, no dar nunca contraseñas ni códigos PIN por teléfono, incluso si la voz suena familiar, sin antes verificar por otro canal. Las autoridades (Policía, INCIBE, AEPD) están haciendo campañas de concienciación al respecto. En términos de experiencia, este contexto puede hacer que algunos usuarios reciban con suspicacia las llamadas automatizadas legítimas. Por ejemplo, si un bot de tu operadora te llama para ofrecerte una mejora de plan, quizás sospeches si es real o un timo. Identificar claramente la legitimidad (mediante el número oficial de la empresa, mensajes previos por SMS avisando de la llamada, etc.) se vuelve parte de la estrategia para mantener la confianza del usuario. De lo contrario, el riesgo es que los usuarios simplemente rechacen las llamadas desconocidas (algo cada vez más común tras años de spam) y con ello se pierda la efectividad incluso de comunicaciones legítimas asistidas por IA.

En balance, el usuario de a pie podría beneficiarse de mejor atención y más disponibilidad gracias a los agentes de IA, siempre y cuando estos estén bien implementados y respeten los derechos del consumidor. Muchos usuarios apreciarán no recibir ya llamadas de spam comercial (gracias a la prohibición legal) y a cambio solo ser contactados cuando han dado su permiso o es relevante, posiblemente por sistemas automáticos eficientes. Al interactuar con ellos, valorarán la honestidad, eficacia y respeto. Pero igualmente, los usuarios plantean un listón alto: quieren poder hablar con una persona cuando lo deseen, no ser atrapados en bucles interminables con máquinas; quieren que su privacidad esté a salvo y no ser víctimas de abusos ni engaños. La aceptación social de los agentes de IA en llamadas dependerá en buena medida de cómo se gestionen estas preocupaciones. Si las empresas y operadores son transparentes y responsables, es probable que la mayoría de usuarios se acostumbren gradualmente y hasta prefieran ciertas interacciones automatizadas por comodidad. En cambio, cualquier uso indebido o escándalo (por ejemplo, una filtración de grabaciones sensibles, o un caso sonado de estafa usando IA) podría generar retroceso en la confianza. Por ello, la protección del usuario debe ser central en la estrategia de despliegue de estas tecnologías.

6. Impacto en los operadores de telecomunicaciones: rol en la red y adaptación del negocio

Los operadores de telecomunicaciones (Movistar, Orange, Vodafone, MásMóvil en el caso español, entre otros) ocupan una posición singular en este ecosistema. Por un lado, son empresas que también aplican IA en sus propios servicios (por ejemplo, para atención al cliente de sus usuarios, o para optimizar sus redes). Por otro, son los dueños de la infraestructura telefónica por la que circulan estas llamadas, y por tanto tienen cierta responsabilidad en facilitar (o limitar) el uso de tecnologías emergentes en sus redes, así como en colaborar con la protección al usuario final. Examinemos varias facetas del impacto en los operadores:

  • Uso interno de agentes de IA

    Los grandes operadores en España han sido pioneros en introducir sistemas automatizados de atención. Desde hace unos años es común que, al llamar al servicio de atención al cliente de una teleco, primero interactúes con un asistente virtual que intenta solucionar tu consulta (ej.: la operadora Movistar tiene su asistente Aura para ciertas gestiones). Estos agentes responden preguntas sobre facturas, configuraciones de router, averías, etc., y si no logran resolver, encaminan la llamada a un técnico humano con el contexto ya recopilado. El impacto para los operadores ha sido similar al de otras empresas: reducción de carga para los call centers y mejora en tiempos de respuesta en gestiones simples. Sin embargo, los operadores también han enfrentado críticas cuando la IA no da la talla – por ejemplo, clientes frustrados porque el sistema no entendía su problema de facturación y costaba conseguir hablar con alguien. Dado que las telecos suelen figurar entre las empresas con más quejas de consumidores por atención deficiente, han debido afinar estos sistemas y garantizar siempre la opción de agente humano para cumplir también la nueva ley de atención al cliente. En cuanto al aspecto comercial, para las telecos es estratégico mostrar que innovan con IA (forma parte de su marca tecnológica), pero al mismo tiempo no pueden permitirse empeorar la satisfacción. Muchas han implementado soluciones híbridas, donde la IA maneja la entrada de la llamada y tareas sencillas, pero transfiere rápido en cuanto detecta complejidad. También usan IA como apoyo al agente humano (mostrándole sugerencias de respuesta en pantalla, por ejemplo), de modo que el cliente final puede ni darse cuenta de esa asistencia en segundo plano.

  • Operadores como proveedores de servicios de IA conversacional

    Más allá de usarlos internamente, los operadores pueden desempeñar un rol comercial ofreciendo servicios de voz con IA a sus clientes empresariales. Dado que controlan la red telefónica y ya proveen centralitas virtuales, líneas 900/902, etc., es natural que integren funciones inteligentes en esas ofertas. Efectivamente, algunos operadores en Europa han lanzado plataformas donde las empresas pueden configurar IVRs inteligentes, con reconocimiento de voz en varios idiomas, a través de la nube del operador. En España, Telefónica y otros han invertido en startups de voz e integrado API de Google, Amazon u otros en sus cloud. Esto impacta a los operadores abriendo nuevas líneas de ingreso: en lugar de ser solo canalizadores de llamadas, pasan a vender valor añadido (minutes-as-a-service con IA incorporada). Para tener éxito, deben asegurar alta calidad de reconocimiento (STT) en castellano y otros idiomas cooficiales, latencia baja aprovechando nodos locales, y sobre todo simplicidad para las empresas que contratan (muchas pymes no tienen expertos en IA, así que los operadores les ofrecen plantillas de agentes virtuales personalizables). Por ejemplo, un operador podría brindar a un comercio local un número de teléfono donde un asistente virtual (ya configurado por el operador con preguntas típicas de ese sector) atiende llamadas para tomar recados o responder horarios. Este modelo de "IA conversacional como servicio de red" todavía está despegando, pero los operadores españoles lo están explorando para diferenciarse en un mercado de comunicaciones cada vez más comoditizado.

  • Garantía de calidad y soporte en la red

    Desde un punto de vista técnico, los operadores tienen que asegurar que sus infraestructuras soporten adecuadamente el tráfico de voz automatizada. Un agente de IA puede realizar muy rápidamente muchas llamadas salientes (por ejemplo, marcando a miles de clientes con mensajes personalizados). Si no se controla, esto podría sobrecargar ciertos nodos o ser percibido como robocalling. Los operadores, en cumplimiento de la Ley General de Telecomunicaciones, deben supervisar el uso de sus redes para prevenir abusos. Aunque no pueden (ni deben) oír las conversaciones por privacidad, sí pueden detectar patrones anómalos: por ejemplo, un solo número realizando cientos de llamadas simultáneas podría ser un call center automatizado; si esos destinatarios no han dado consentimiento, sería spam ilegal. Por tanto, los operadores colaboran con la AEPD y otras autoridades para identificar y bloquear llamadas ilícitas. De hecho, se han implementado listas de bloqueo y sistemas anti-spoofing en las centrales (como STIR/SHAKEN en EE.UU., estándar que autentica el identificador de llamada para evitar suplantaciones). En Europa, BEREC (el organismo de reguladores europeos, incluido CNMC) ha recomendado medidas similares. En España los operadores han firmado códigos de conducta para no realizar llamadas comerciales fuera de horario permitido y para respetar la Lista Robinson (registro de exclusión). Ahora, con la prohibición de llamadas no solicitadas, se espera que los operadores faciliten herramientas de filtrado de llamadas entrantes para usuarios (por ejemplo, alertas de "posible spam" en pantalla cuando detectan un número que hace muchísimas llamadas comerciales). Esto impacta la experiencia del usuario (positivamente, al reducir molestias) y a las empresas (negativamente, si sus llamadas legítimas son marcadas erróneamente como spam). Por eso los operadores deben hilar fino con los criterios de marcación, a menudo apoyándose en IA para distinguir llamadas automatizadas benignas de las maliciosas. Un uso interno de IA es precisamente analizar patrones de voz o metadatos en tiempo real para identificar robocalls fraudulentas y cortarlas antes de que lleguen al usuario.

  • Colaboración con las autoridades y cumplimiento

    Los operadores de telecomunicaciones en España están sujetos a la supervisión de la CNMC (en cuanto a condiciones de mercado, numeración, calidad de servicio) y también de organismos de consumo y protección de datos cuando se trata de comunicaciones comerciales. El impacto regulatorio sobre ellos es que deben acomodar sus prácticas a las nuevas leyes: por ejemplo, no pueden ofrecer a empresas clientes servicios que faciliten saltarse la normativa. Si un operador vendiese una "plataforma de marcación automática" a una empresa, deberá contractualmente asegurarse de que el cliente la use solo con números consentidos, etc. Podría incluir cláusulas y logs de auditoría para demostrarlo en caso de denuncia. Además, los operadores tienen que renovar el Registro de Operadores y notificar nuevas actividades. Por ejemplo, si ofrecen un servicio de bot conversacional, ¿deben registrarse también como proveedores de servicios de valor añadido? (La CNMC ha adaptado el registro de operadores a nuevas realidades tecnológicas recientemente). Otro frente es la accesibilidad y no discriminación: los operadores deben garantizar que la introducción de IA no excluya a colectivos vulnerables. La Secretaría de Estado de Telecomunicaciones vigila que los servicios universales sean accesibles; si un operador usa contestadores automáticos en su atención comercial, debe asegurar que, por ejemplo, personas con discapacidad auditiva tengan medio alternativo (quizá un chat). Todo esto forma parte de las obligaciones que los operadores incorporan en sus planes.

En definitiva, para los operadores, la ola de agentes de IA en las comunicaciones telefónicas es tanto una oportunidad como una responsabilidad. Pueden capitalizar su posición para ofrecer servicios inteligentes y optimizar sus procesos internos (reduciendo costes de call center, mejorando eficiencia de red mediante monitorización automatizada de tráfico, etc.). Sin embargo, están en el ojo del huracán si prolifera el mal uso: a ellos recurrirán los usuarios pidiendo bloquear llamadas fraudulentas; ellos serán corresponsables en algunos casos si facilitan líneas a spammers; y ellos deben trabajar codo a codo con la AEPD, INCIBE y otros para mantener la confianza en la red telefónica en la era de la IA. Históricamente, las telcos han sabido adaptarse a cambios tecnológicos (pasaron de conmutación analógica a digital, de voz a VoIP, etc.) y esta no será la excepción. Ya están invirtiendo en IA para gestión de red (SON, optimización automática) y servicios de valor añadido. La clave será que asuman también su rol proactivo en protección al usuario, usando la IA no solo para fines comerciales sino también para combatir las amenazas (spam, suplantación, fraudes) que también crecen con la IA. Un equilibrio adecuado les permitirá fortalecer la calidad de sus servicios y la confianza del público en las comunicaciones.

7. Impacto en las autoridades reguladoras: supervisión, nuevas normas y cooperación

Las autoridades reguladoras y de control desempeñan un papel fundamental para encauzar el impacto de los agentes de IA en las comunicaciones telefónicas, garantizando que se respeten las leyes y derechos, y adaptando el marco normativo según sea necesario. En España, las instituciones más directamente involucradas son la Agencia Española de Protección de Datos (AEPD), la Comisión Nacional de los Mercados y la Competencia (CNMC), el INCIBE (en su faceta de ciberseguridad) y, próximamente, la Agencia Española de Supervisión de la IA (una vez se constituya conforme al AI Act). También los Ministerios competentes (Economía y Transformación Digital; Consumo) y autoridades europeas (EDPB en privacidad, Consejo Europeo de IA, etc.) tienen influencia. Veamos las implicaciones regulatorias y desafíos para estas autoridades:

  • Aplicación rigurosa de la normativa de comunicaciones y privacidad

    Tras la entrada en vigor del artículo 66.1.b) de la LGTel 11/2022 en junio 2023, la AEPD asumió la misión de vigilar y sancionar el cumplimiento del derecho de los usuarios a no recibir llamadas comerciales no deseadas. Esto incluye llamadas realizadas mediante agentes de IA o sistemas automáticos, que no están exentas por ser "robots"; al contrario, suelen ser objetivo prioritario si se hacen sin consentimiento. La AEPD ya emitió una Circular 1/2023 detallando criterios, lo cual da seguridad jurídica. Ahora bien, hacer cumplir esta norma requiere una capacidad de supervisión técnica: la AEPD recibe denuncias de ciudadanos por llamadas spam y debe investigar. Dado que los sistemas de marcación pueden usar numeración falsa, la AEPD coordina con la CNMC y operadores para rastrear el origen real de las llamadas y comprobar la base jurídica. Si se detecta el uso de agentes automatizados infringiendo la ley, impondrá sanciones ejemplares. Un efecto de esto es que las empresas duden en implementar bots de llamadas outbound sin antes pasar por el filtro legal interno. En cuanto a privacidad, la AEPD también velará por que las empresas respeten RGPD en el uso de la voz: por ejemplo, si se implementa identificación por voz de clientes (una forma biométrica), exigirán el cumplimiento estricto del artículo 9 RGPD (consentimiento explícito o habilitación legal) y las garantías de seguridad pertinentes. La AEPD puede auditar tratamientos de datos masivos en call centers con IA, especialmente si hay perfiles automatizados o decisiones sin intervención humana (art.22 RGPD) – por ejemplo, si un sistema de IA decidiera negar un servicio a alguien, el usuario tiene derecho a una revisión humana. Garantizar este derecho es un punto que la Agencia podría verificar en sectores como banca o seguros.

  • Adaptación y desarrollo de nuevas normativas

    La tecnología avanza más rápido que las leyes, así que las autoridades deben ir actualizando el marco regulatorio. En España, además de la ley de Atención al Cliente en trámite, se está pendiente de transponer parte del Código Europeo de Comunicaciones Electrónicas que atañe a la seguridad de las redes y comunicaciones no deseadas. La CNMC y la Secretaría de Estado de Telecomunicaciones evalúan si son necesarias medidas adicionales contra las llamadas automatizadas abusivas, quizás mediante una regulación específica de sistemas de marcación automática (como existe en otras jurisdicciones). Hasta ahora, lo han abordado vía el artículo genérico de llamadas no deseadas, pero podrían emitir circulares conjuntas con la AEPD u obligaciones a operadores para implementar sistemas de autenticación de llamada (tipo STIR/SHAKEN). Por otro lado, a nivel de IA, el Gobierno español ha mostrado interés en liderar políticas de IA ética (España presentó en 2021 su Carta de Derechos Digitales). Es de esperar que con el AI Act se desarrollen guías de buenas prácticas sectoriales: por ejemplo, la futura Agencia de Supervisión de la IA podría emitir una guía específica para chatbots y voicebots empresariales, detallando cómo cumplir las obligaciones de transparencia, cómo evaluar sesgos en modelos de lenguaje usados en servicio al cliente, etc. En el ámbito de consumo, el Ministerio de Consumo y organizaciones de consumidores (OCU, FACUA) podrían proponer que se refuerce el derecho del usuario a una atención adecuada cuando interviene IA, quizás solicitando indicadores de calidad sobre las resoluciones de bots comparadas con agentes humanos. Todo esto formaría parte de un ecosistema regulatorio dinámico, donde autoridades sectoriales y transversales colaboran.

  • Supervisión de la implementación del AI Act

    El Reglamento de IA europeo asigna a cada Estado la supervisión de su cumplimiento. En España, previsiblemente la Agencia de IA coordinará, con apoyo de organismos existentes. Para los sistemas de IA en llamadas (que serían de riesgo limitado), la principal obligación es la transparencia. Las autoridades deberán verificar que los proveedores la cumplen. ¿Cómo se hace esto en la práctica? Podrían realizar mystery shopping o auditorías: llamar como usuarios a servicios de atención al cliente de grandes empresas y comprobar si les informan cuando les atiende un bot. Si encuentran incumplimientos, podrían requerir cambios o, en casos graves, sancionar. Asimismo, el AI Act requiere que los proveedores de sistemas de IA ofrezcan información a las autoridades bajo requerimiento. Si un agente conversacional genera polémica (por ejemplo, se detecta que da recomendaciones financieras problemáticas), la autoridad podría pedir al proveedor los datos de entrenamiento, registros de conversaciones (anonimizados) y documentación de diseño para evaluar si hay riesgos. Esto supone un nuevo nivel de escrutinio sobre los desarrolladores de IA: no basta con decir que la red neuronal es una caja negra, se les exigirá explicaciones. En España, esta labor probablemente la asuma la Agencia de IA en conjunto con entes sectoriales (por ejemplo, CNMC si es en telcos, Dirección General de Seguros si es un bot de seguros, etc.). El impacto para las autoridades es la necesidad de formar equipos técnicos especializados capaces de auditar algoritmos de procesamiento de lenguaje y voz, lo cual es un reto en sí mismo. Ya la CNMC ha manifestado interés en emplear IA para sus propias funciones de vigilancia de mercados, lo que indica que están fortaleciendo conocimiento interno.

  • Protección frente a usos maliciosos: cooperación policial y ciberseguridad

    Como vimos, la IA puede utilizarse para fraudes en llamadas (voz falsificada, etc.). Aquí entran fuerzas de seguridad (Policía Nacional, Guardia Civil) y organismos como INCIBE, que trabajan en el ámbito de ciberseguridad y delitos tecnológicos. El impacto de esta problemática es que las autoridades han de desarrollar métodos de detección forense de deepfakes de voz y coordinarse internacionalmente para perseguir a los autores de estafas telefónicas masivas. INCIBE ya ha publicado guías para ciudadanos sobre cómo protegerse y ha asistido en casos concretos. Es previsible que colaboren con empresas de telecomunicaciones para crear sistemas de alerta temprana: por ejemplo, si súbitamente se reportan muchas llamadas suplantando a la Seguridad Social con voces sintéticas, generar comunicados rápidos a la población. Las autoridades reguladoras también pueden imponer a las empresas obligaciones de seguridad: el Reglamento (UE) 2022/2065 de servicios digitales (Digital Services Act) podría considerarse para obligar a plataformas de IA a controlar que sus herramientas no se usen para actividades ilícitas, aunque en el caso de llamadas telefónicas, es un terreno mixto entre telecom y servicios digitales. En cualquier caso, la cooperación interinstitucional será crucial. Un posible movimiento en el futuro sería tipificar claramente el delito de suplantación de identidad mediante IA en llamadas o agravar las penas por estafa cuando se empleen estas técnicas, para disuadir a los delincuentes.

  • Garantizar la competencia leal y la innovación

    La CNMC, en su faceta de defensa de la competencia, también observa la entrada de la IA. Debe velar porque no se distorsionen los mercados. Por ejemplo, si las grandes operadoras integran IA y pequeñas empresas no pueden permitírselo, ¿se genera una barrera de entrada? Hasta ahora, no parece ser el caso, ya que muchas soluciones de IA son accesibles vía cloud. Pero la CNMC podría promover la interoperabilidad y estándares abiertos en servicios de voz IA, para evitar dependencias de un solo proveedor. Asimismo, debe analizar fusiones y adquisiciones en este terreno – por ejemplo, si un gran operador quisiera comprar a una startup líder en voicebots en España, habría que estudiar si afecta a la competencia en mercados de atención al cliente. En suma, las autoridades quieren fomentar la innovación (la IA trae eficiencias que benefician a la economía en general) pero sin dejar resquicios legales que permitan abusos a costa de los ciudadanos.

En conclusión, las autoridades reguladoras españolas están adaptándose activamente al fenómeno de los agentes de IA en llamadas telefónicas. Su rol es doble: por una parte, facilitar un entorno seguro y fiable para que la innovación prospere (dando pautas claras a las empresas, formando al público para que aproveche los nuevos servicios con confianza); por otra, actuar con firmeza ante cualquier incumplimiento o efecto adverso, sea sancionando spam telefónico automatizado, sea exigiendo a un proveedor de IA corregir sesgos o prácticas opacas. El éxito de la incorporación de IA en las comunicaciones dependerá en buena medida de esta supervisión equilibrada. Hasta ahora, movimientos como la Circular de la AEPD o la nueva ley de atención al cliente indican que España quiere ser garante de los derechos digitales en este ámbito. A medida que la tecnología evolucione, las normas deberán seguir refinándose – y las autoridades españolas, tanto a nivel nacional como en coordinación con la UE, parecen dispuestas a ello, desde una filosofía de "innovación responsable".

8. Conclusiones y recomendaciones

Conclusiones principales

La incorporación de agentes de inteligencia artificial en las comunicaciones telefónicas en España está transformando radicalmente el panorama de las llamadas, con efectos notables para empresas, usuarios, operadores y reguladores. Tecnológicamente, la IA ha alcanzado un grado de madurez que permite automatizar conversaciones telefónicas comunes de forma convincente, combinando reconocimiento de voz, modelos de lenguaje y voces sintéticas casi humanas. Comercialmente, las empresas ven oportunidades de eficiencia y nuevas vías de interacción con clientes, pero deben equilibrarlas con la calidad del servicio y cumplir unas normas cada vez más estrictas sobre cuándo y cómo se puede llamar. Para los usuarios, la experiencia puede mejorar en agilidad y disponibilidad, siempre que se respete su derecho a saber si hablan con una máquina, a no recibir spam, y a tener opción de trato humano cuando importa. Los operadores de telecomunicaciones se encuentran habilitando estos avances (tanto usándolos internamente como ofreciéndolos a terceros) y asumiendo responsabilidad en la protección de la red frente a abusos. Y las autoridades españolas, especialmente AEPD y CNMC, han respondido proactivamente: han actualizado el marco legal –prohibiendo llamadas no solicitadas y garantizando una atención al cliente centrada en la persona– y se preparan para supervisar la transparencia y ética de la IA conforme a la regulación europea.

En resumen, España se encamina hacia un modelo de comunicaciones telefónicas donde la IA será ubicua pero humanamente controlada. El 29 de junio de 2023 marcó un hito al anteponer el derecho del usuario a la tranquilidad sobre la vieja práctica del telemarketing agresivo, abriendo paso a un nuevo paradigma: llamadas más pertinentes, muchas de ellas asistidas por IA, dentro de un marco de confianza y legalidad. Quedan desafíos por delante, como educar a los usuarios para distinguir usos legítimos de la IA de intentos fraudulentos, o lograr que los sistemas speech-to-speech alcancen fiabilidad completa en nuestro idioma. No obstante, el camino trazado apunta a que la IA será un aliado para mejorar las comunicaciones, y no una molestia, siempre que se aplique con responsabilidad.

🤖 Obtén un resumen de IA de este informe:

ChatGPT Perplexity Grok Google AI

Recomendaciones

A la luz del análisis, se proponen las siguientes recomendaciones específicas para cada actor implicado:

Para las empresas y organizaciones usuarias de IA en llamadas:

  1. Cumplir estrictamente la normativa de consentimiento y oposición para comunicaciones comerciales – antes de lanzar campañas con agentes virtuales, depurar bases de datos asegurando que solo se llamará a quienes proceda legalmente.
  2. Garantizar la transparencia informando al inicio de la llamada si esta es atendida por un sistema automatizado; además, formar al bot para que, si se le pregunta directamente "¿eres una máquina?", responda sinceramente.
  3. Ofrecer siempre una vía a la intervención humana en los flujos de atención telefónica, ya sea mediante reconocimiento de frases como "operador" o pulsando una tecla, cumpliendo con la futura Ley de Atención al Cliente.
  4. Proteger la privacidad de las conversaciones: limitar las grabaciones al mínimo necesario, almacenar datos de voz con cifrado, y si se usan para entrenamiento del modelo, anonimizarlos y documentar esa necesidad bajo una base legal adecuada.
  5. Auditar regularmente el desempeño de los agentes de IA: medir tasas de resolución en primer contacto, satisfacción del cliente (vía encuestas o análisis de sentimiento), y también revisar muestras de interacciones para detectar sesgos, errores o malas interpretaciones frecuentes e iterar en la mejora del sistema.
  6. Preparar protocolos de contingencia: por ejemplo, si el sistema cae o no entiende, que exista un mecanismo automático de transferencia a humano para no dejar al usuario colgado; igualmente, tener planes ante posibles ciberincidentes (p.ej. si alguien intentara manipular al bot con comandos maliciosos).
  7. Formación y sensibilización interna: capacitar a los equipos humanos que trabajarán junto a la IA para que entiendan sus capacidades y limitaciones, evitando fricciones hombre-máquina y logrando sinergias (por ejemplo, agentes que aprovechen transcripciones en tiempo real hechas por la IA para atender mejor).

Para los operadores de telecomunicaciones:

  1. Intensificar las medidas anti-spoofing y anti-spam en la red telefónica, colaborando entre operadores para compartir listas de números fraudulentos conocidos y desplegando, cuando sea viable, protocolos de autenticación de llamadas a nivel de red.
  2. Proveer herramientas a los usuarios finales para gestionar llamadas entrantes: por ejemplo, servicios gratuitos de identificación de llamadas comerciales o filtros activables que solo permitan paso a números de una lista blanca, de modo que cada usuario tenga control sobre quién le puede llamar.
  3. Ofrecer a las empresas soluciones de IA seguras y conformes: cuando un operador venda servicios de bot conversacional, incluir por contrato el compromiso del cliente de usarlo respetando RGPD y Ley telecom, y habilitar logs que permitan comprobarlo en caso necesario. También, diseñar esas soluciones con la privacidad desde el diseño, evitando por ejemplo que las conversaciones de distintas empresas se mezclen en un mismo modelo sin aislamiento.
  4. Colaborar con INCIBE y cuerpos de seguridad: establecer canales expeditos para denunciar patrones de fraude detectados en la red y facilitar información (metadatos, no contenido) que ayude a localizar a los emisores de llamadas ilícitas, todo ello cumpliendo la legalidad pero sin pasividad.
  5. Innovar en favor de la accesibilidad: aprovechar la IA para implementar servicios que ayuden a usuarios con necesidades especiales, como relés de voz-a-texto instantáneos para personas sordas que llamen por teléfono, o asistentes con lenguaje simplificado para personas mayores – los operadores pueden jugar un rol social aquí, integrando estas capacidades en la red.
  6. Transparencia con los reguladores: informar a CNMC/AEPD de nuevos servicios o pilotos de IA en llamadas, buscando orientación previa para asegurarse de que cumplen las normativas, de forma que no haya sorpresas ni interpretaciones divergentes una vez lanzados. Esta comunicación proactiva ayudará a moldear también futuras normas de forma razonable.

Para las autoridades y reguladores:

  1. Mantener y reforzar la vigilancia contra el spam telefónico – tras la prohibición de 2023, asegurarse de que se aplica de forma efectiva. La AEPD debería continuar emitiendo criterios claros (como hizo con la Circular) y resolviendo rápidamente las denuncias de usuarios, imponiendo sanciones ejemplares para desalentar a los infractores.
  2. Desarrollar guías sectoriales de IA: por ejemplo, la Agencia de Supervisión de IA en coordinación con Consumo y la AEPD podría publicar una guía para la implementación ética de chatbots y voicebots, que sirva de referencia a las empresas más allá de la ley, incluyendo recomendaciones de diseño centrado en el usuario, evitación de sesgos lingüísticos, etc.
  3. Impulsar certificaciones o sellos: a corto plazo, fomentar que las empresas voluntariamente sometan sus sistemas de IA conversacional a evaluaciones (por ejemplo, en el Sandbox de la AEPD o futuros sandbox regulatorios de IA) para certificar su conformidad con la normativa y buenas prácticas. Un "sello de IA responsable" podría otorgar confianza a los usuarios de que ese servicio cumple ciertos estándares.
  4. Educar al público: las autoridades (INCIBE, AEPD, asociaciones de consumidores) deberían intensificar campañas informativas sobre cómo interactuar de forma segura con sistemas automatizados. Instruir a desconfiar de llamadas inesperadas que pidan datos sensibles, enseñar métodos para verificar la identidad de quien llama (por ejemplo, colgar y devolver la llamada al número oficial de la empresa), y divulgar casos de fraude descubiertos para alertar. Un usuario alerta es la mejor defensa contra timos.
  5. Monitoreo del mercado: la CNMC, en su Panel de Hogares, ya comenzó a medir el uso de chatbots; sería útil incluir preguntas sobre satisfacción de los usuarios con la atención automatizada vs humana, para obtener datos empíricos que guíen políticas. También vigilar que no haya prácticas anticompetitivas (p.ej., que un operador dominante no discrimine el tráfico de voz de bots de un competidor OTT).
  6. Adaptación legal continua: evaluar si hacen falta nuevas normas específicas según evolucione la tecnología. Por ejemplo, si en unos años los speech-to-speech llegan a un punto donde es difícil para un usuario discernir máquina de humano, quizá se requieran métodos técnicos de identificación (algo así como un "tono piloto" que las máquinas incluyan imperceptiblemente para ser detectadas por apps anti-fraude). Las autoridades deben estar abiertas a actualizar obligaciones a la luz de la experiencia real.

¿Necesita ayuda para implementar IA conversacional en sus comunicaciones?

Entender las implicaciones de la IA en comunicaciones telefónicas es sólo el primer paso. TALK-Q proporciona soluciones integrales de IA conversacional para garantizar que sus comunicaciones cumplan con todos los requisitos normativos de España mientras maximizan la eficiencia.

¡NUEVO!

🚀 Servicios de Empleado IA

💰 1.295 €/mes - Contrata tu primer Empleado IA para un agente de 40 horas/semana

✅ Sin bajas • ✅ Sin rotación • ✅ Solo resultados • ✅ Disponibilidad 24/7

🎯 Interacciones de voz naturales, resúmenes automáticos de llamadas y transferencias inteligentes al personal humano cuando sea necesario. Totalmente conforme con todas las regulaciones españolas de telemarketing y IA.

🤖 Más información sobre Empleados IA →

Nuestras otras soluciones incluyen:

  • Asistentes virtuales de voz para atención al cliente
  • Sistemas de integración con bases de datos CRM
  • Tecnología de cumplimiento para transparencia y explicabilidad
  • Soluciones de grabación de llamadas y gestión de consentimiento
  • Infraestructura de protección de datos conforme con RGPD y LOPDGDD
  • Sistemas de automatización de cumplimiento CNMC/AEPD

Contáctenos para una consulta sobre IA conversacional:

info@talk-q.com

Agenda una Reunión

Explore otros informes relacionados

Regulación de llamadas comerciales en España

Regulación de las llamadas comerciales en España (2025)

Guía completa sobre la regulación de llamadas comerciales en España, normativas de protección de datos y obligaciones para call centers.

Leer informe
China Regulations

Outbound Call Regulations in China

Comprehensive guide to China's outbound call regulations, PIPL compliance, and telemarketing rules for call centers.

Read Report
USA Regulations

Outbound Call Regulations in USA

TCPA compliance, FTC Do Not Call Registry, TRACED Act, call blocking, STIR/SHAKEN, robocall restrictions and consent rules

Read Report
Vietnam Regulations

Outbound Call Regulations in Vietnam

Comprehensive guide to Vietnam's Do Not Call Registry, data protection regulations, telemarketing rules, and enforcement mechanisms.

Read Report