La obligación del AI Act que entra en vigor en agosto de 2026 para todos los sistemas de IA.
- Patricia Mg
- 28 abr
- 7 Min. de lectura

@Patricia Manso | Abogada · AI Act · LegalTech
En agosto de 2026 entra en vigor una de las obligaciones del Reglamento Europeo de Inteligencia Artificial que afecta a más empresas y que menos atención está recibiendo.
No porque sea compleja. Sino porque, a diferencia de las grandes obligaciones de alto riesgo, no requiere ser una empresa grande, ni tener un sistema sofisticado, ni haber arrancado un proyecto de cumplimiento completo.
Requiere algo mucho más simple: que tu sistema de IA diga la verdad a quien interactúa con él.
1. La obligación
El artículo 50.1 del Reglamento (UE) 2024/1689 establece lo siguiente:
"Los proveedores garantizarán que los sistemas de IA destinados a interactuar directamente con personas físicas se diseñen y desarrollen de forma que las personas físicas de que se trate estén informadas de que están interactuando con un sistema de IA, excepto cuando resulte evidente desde el punto de vista de una persona física razonablemente informada, atenta y perspicaz, teniendo en cuenta las circunstancias y el contexto de utilización."
Traducido al lenguaje de negocio: si tienes cualquier sistema de IA que conversa con personas, clientes, candidatos, empleados, ciudadanos, esas personas tienen que saber antes de la primera interacción que están hablando con inteligencia artificial. No con «el equipo de soporte». No con «nuestro asistente». Con IA.
Esta obligación no está limitada a sistemas de alto riesgo. Es horizontal: aplica a cualquier sistema de IA que interactúe directamente con personas, con independencia de su nivel de riesgo, su sector o el tamaño de la empresa que lo opera.
2. ¿A quién afecta?
A cualquier empresa que tenga o integre en su servicio alguno de estos sistemas.
Sistemas de atención al cliente y soporte:
Chatbots en web, app o WhatsApp Business
Asistentes virtuales de soporte técnico
Sistemas de respuesta automática en email que redactan respuestas en lenguaje natural
Bots de resolución de incidencias
Sistemas de recursos humanos:
Bots de filtrado inicial de candidatos
Asistentes de onboarding de nuevos empleados
Sistemas de respuesta a preguntas frecuentes de RRHH
Sistemas de asesoramiento:
Asesores virtuales de crédito, seguros o inversión
Bots de orientación hipotecaria o de productos financieros
Asistentes de configuración de pólizas de seguros
Sistemas de voz:
Agentes de voz en call centers que mantienen conversaciones completas con IA
Sistemas de respuesta inteligente que van más allá del menú de opciones
Sistemas educativos y sanitarios:
Tutores de IA en plataformas educativas
Sistemas de pre-consulta médica o triaje sanitario
Bots de orientación sobre síntomas o tratamientos
Otros:
Avatares digitales en kioscos o demos de producto
Asistentes IA internos para empleados
Sistemas de orientación ciudadana en administraciones públicas
La regla práctica que aplico con mis clientes es la siguiente, si el sistema puede mantener una conversación que una persona razonable podría confundir con una interacción humana, el artículo 50.1 aplica. La comprobación más rápida: abre ahora mismo el chat de tu web o el flujo de onboarding de tu app. ¿Dice en algún lugar, de forma visible y antes de la primera interacción, que es IA? Si no lo dice, ya sabes qué hay que hacer.
3. ¿Desde cuándo?
El 2 de agosto de 2026.
Y esta fecha no la toca el Ómnibus Digital.
Esto es relevante porque muchas empresas están esperando a «ver qué pasa con el Ómnibus» antes de hacer nada. Para las obligaciones de alto riesgo tiene cierta lógica. Para el artículo 50.1, no.
4. Quién es el responsable y cómo cumplir
El responsable es el proveedor
La obligación del artículo 50.1 recae sobre el proveedor, el que diseña y desarrolla el sistema. El Reglamento le exige que el sistema esté diseñado para informar al usuario. Esto tiene tres implicaciones prácticas según cuál sea tu situación:
Si desarrollas el sistema tú mismo (eres proveedor directo), el aviso tiene que estar integrado en el diseño del producto. En el primer mensaje, antes de la primera interacción del usuario. No en los términos y condiciones. No en la política de privacidad. En el propio flujo de conversación.
Si usas un sistema de un tercero (eres deployer de un chatbot, un agente de voz o cualquier herramienta de IA conversacional de un proveedor externo), tienes que verificar que tu proveedor cumple esta obligación. Si el sistema no informa a tus usuarios de que están interactuando con IA, la exposición es también tuya como deployer porque eres tú quien lo está poniendo en contacto con tus clientes. Y esa verificación tiene que quedar documentada, idealmente en el contrato.
Si integras un modelo de IA de un tercero en tu propio producto (por ejemplo, usas la API de OpenAI o de otro modelo para construir tu propio asistente), te conviertes en proveedor a efectos del Reglamento. La obligación del artículo 50.1 es tuya directamente.
Las tres acciones concretas
Primero, inventaría tus sistemas con un abogado. Identifica todos los sistemas de IA de tu empresa que interactúan directamente con personas: clientes, candidatos, empleados, ciudadanos. Incluye los sistemas que parecen "pequeños" o "solo internos". Si hay duda sobre si un sistema entra en el ámbito del artículo 50.1, contrata una sesión y lo vemos.
Segundo, verifica el aviso en cada sistema. Para cada sistema identificado, comprueba si el usuario sabe que está interactuando con IA antes de la primera interacción. El aviso tiene que ser claro, visible y previo. No puede ser una referencia enterrada en la política de privacidad que nadie lee.
Tercero, revisa los contratos con tus proveedores de IA. Si el sistema es de un tercero, el contrato tiene que recoger explícitamente que ese sistema cumple el artículo 50.1. Si no lo dice, el contrato no te protege.
5. Y de regalo, te dejo un modelo de la cláusula que tiene que estar en el contrato con tu proveedor de IA
Si usas sistemas de IA conversacional de terceros, un chatbot, un agente de voz, una plataforma de atención al cliente con IA, el contrato con ese proveedor necesita como mínimo estas cuatro cláusulas. Las presento en lenguaje directo, listo para incorporar a un contrato o solicitar a tu proveedor, no obstante recuerda que estás son ejemplos, y que habría que revisar todo el documento y la relación contractual para adaptarlas a cada caso.
Cláusula 1 — Declaración de conformidad con el artículo 50.1 RIA
"El Proveedor declara que el sistema objeto del presente contrato está diseñado para informar a los usuarios de que interactúan con un sistema de inteligencia artificial antes o en el momento de la primera interacción, de forma clara y perceptible para el usuario, en cumplimiento del artículo 50.1 del Reglamento (UE) 2024/1689. Esta declaración forma parte de las garantías contractuales del servicio y su incumplimiento será tratado como incumplimiento del contrato."
Cláusula 2 — Obligación de notificación de cambios
"El Proveedor notificará al Cliente, con un preaviso mínimo de [15] días hábiles, cualquier cambio en el sistema que pueda afectar al cumplimiento del artículo 50.1 del Reglamento (UE) 2024/1689, incluyendo modificaciones en los flujos de conversación, en la identidad del sistema presentada al usuario o en las instrucciones de uso. En casos urgentes que no permitan el preaviso indicado, el Proveedor notificará al Cliente con la mayor antelación posible y en todo caso antes de que el cambio entre en producción."
Cláusula 3 — Obligación de documentación y cooperación
"El Proveedor facilitará al Cliente, previa solicitud razonada o en el contexto de cualquier inspección o requerimiento por parte de una autoridad competente, la documentación técnica y jurídica que acredite que el sistema cumple las obligaciones del artículo 50.1 del Reglamento (UE) 2024/1689. Esta documentación deberá estar disponible en un plazo no superior a [5] días hábiles desde la solicitud. El Proveedor cooperará activamente con el Cliente en cualquier procedimiento administrativo o judicial relacionado con el cumplimiento de esta obligación."
Cláusula 4 — Responsabilidad por incumplimiento imputable al proveedor
"Si el incumplimiento del artículo 50.1 del Reglamento (UE) 2024/1689 se deriva de un defecto, omisión o modificación del sistema imputable al Proveedor, éste asumirá la responsabilidad frente al Cliente por los daños, perjuicios, sanciones y costes , incluidos los honorarios de defensa jurídica, que dicho incumplimiento ocasione al Cliente. Esta responsabilidad existirá con independencia de si el Cliente fue o no notificado del defecto con anterioridad, cuando la falta de notificación sea en sí misma imputable al Proveedor."
Estas cuatro cláusulas cubren lo mínimo necesario. Dependiendo del volumen de datos tratados, del sector o del tipo de sistema, puede ser necesario añadir obligaciones adicionales. por ejemplo, respecto al tratamiento de datos personales bajo el RGPD, que frecuentemente va aparejado a la interacción con sistemas de IA conversacional.
6. Las sanciones por incumplimiento
El incumplimiento del artículo 50.1 está sancionado en el artículo 99.4 del Reglamento con multas de hasta 15 millones de euros o el 3% del volumen de negocios mundial total anual, lo que sea mayor.
Para pymes definidas en el artículo 99.6 como empresas de menos de 250 empleados y menos de 50 millones de euros de facturación, la multa será la menor de las cantidades aplicables.
Recuerda esta obligación es de las más fáciles de detectar en una inspección, basta con abrir el chat de una empresa o iniciar una llamada con su agente de voz.
En resumen
El artículo 50.1 del AI Act obliga a informar a los usuarios de que interactúan con IA. Aplica a cualquier sistema conversacional, con independencia del nivel de riesgo. Entra en vigor el 2 de agosto de 2026, y el Ómnibus Digital no retrasa esta fecha. El responsable es el proveedor del sistema y si usas sistemas de terceros, el contrato con ese proveedor tiene que reflejar esta obligación.
Tres acciones antes de agosto: inventariar los sistemas afectados, verificar que el aviso existe en cada uno, y revisar los contratos con proveedores de IA.
¿Tu empresa tiene sistemas de IA que interactúan con personas? En la sesión de diagnóstico identificamos cuáles están afectados por el artículo 50.1 y qué hay que hacer antes de agosto.
Patricia Manso es abogada especializada en derecho digital y cumplimiento del AI Act. Docente en IE, UNIR e EOI. Certificada por el MIT en Inteligencia Artificial y Transformación Digital.
Este artículo tiene carácter informativo y no constituye asesoramiento jurídico. Las circunstancias concretas de cada empresa pueden modificar el análisis aplicable.

