Qué cambió

El estado de Oregon aprobó en marzo de 2026 la primera ley en Estados Unidos que obliga a los chatbots y agentes de IA a identificarse explícitamente como no humanos al inicio de cada interacción con un consumidor:

  • Requisito central: todo chatbot, agente virtual o sistema de IA conversacional que interactúe con consumidores en Oregon debe incluir una declaración clara de que no es un humano dentro de los primeros 2 mensajes de la conversación
  • Formato: la declaración debe ser en texto prominente, no en letra pequeña, y en el mismo idioma de la conversación
  • Excepciones: los asistentes de voz (Siri, Alexa) están exentos temporalmente mientras se define el formato de disclosure para interfaces de voz
  • Multas: $25,000 por violación para empresas con más de $10 millones de ingresos, $5,000 para empresas menores
  • Entrada en vigor: enero 2027, dando 9 meses a las empresas para adaptarse

Por qué importa

Esta ley parece simple pero tiene implicaciones profundas:

  • Transparencia como estándar: Oregon establece el principio de que los consumidores tienen derecho a saber si hablan con un humano o una máquina. Es probable que otros estados copien esta ley (ya hay borradores en Colorado, Illinois y New York).
  • Impacto en UX: las empresas que diseñaron chatbots para “parecer humanos” (con nombres como “Sarah” o “Miguel”, emojis, typos intencionales) tendrán que rediseñar la experiencia.
  • Ventas y conversión: estudios muestran que cuando los usuarios saben que hablan con un bot, la tasa de engagement baja 15-20%. Las empresas deberán compensar con mejor calidad de respuesta y resolución más rápida.
  • Efecto dominó regulatorio: la UE ya tiene un requisito similar en el AI Act (artículo 52). Si Oregon + UE lo exigen, se convierte en estándar de facto global.

Qué significa para México

  • Para empresas con clientes en EE.UU.: si tu chatbot atiende a consumidores en Oregon (incluyendo turistas mexicanos con negocios allá o empresas con operaciones cross-border), debes cumplir con la ley.
  • Para reguladores mexicanos: PROFECO y la propuesta de ley de IA en México podrían incluir requisitos similares de transparencia para chatbots comerciales.
  • Para desarrolladores de chatbots: las empresas mexicanas que desarrollan chatbots (como IAmanos) deben integrar mecanismos de disclosure configurables por jurisdicción como buena práctica desde el diseño.

En IAmanos, nuestros chatbots con inteligencia artificial ya incluyen disclosure de IA como práctica estándar, porque la transparencia genera más confianza que fingir ser humano.

¿Listo para implementar IA en tu empresa?

Cotiza tu proyecto en menos de 5 minutos

Sin compromiso. Sin tecnicismos. Solo resultados.

Obtener cotización gratis →

La perspectiva evergreen

El debate no es si los chatbots deben identificarse — es cómo hacerlo sin destruir la experiencia. La analogía perfecta es la publicidad: los anuncios en TV deben identificarse como publicidad, pero los buenos anuncios son tan entretenidos que la gente los ve voluntariamente. Los chatbots de IA deben ser tan útiles que el usuario no le importe que sea una máquina — porque resuelve su problema mejor y más rápido que un humano.

Próxima acción para tu empresa

Revisa todos tus chatbots y agentes de IA customer-facing. Agrega un mensaje de disclosure claro: “Soy un asistente de inteligencia artificial de [tu empresa]. Puedo ayudarte con X, Y, Z. Si prefieres hablar con una persona, solo dímelo.” Es buena práctica, genera confianza y te prepara para regulaciones futuras. Para implementar chatbots transparentes y efectivos, consulta nuestra guía de automatización con IA.

IAmanos · Agencia de Inteligencia Artificial

Implementa IA en tu empresa este mes

Desde automatización hasta agentes autónomos. Cotiza gratis y recibe propuesta en 24h.

Cotizar proyecto →
Hablar con IA →