Estamos presenciando una desconexión fundamental entre cómo se diseñaron los sistemas de identidad y cómo operan realmente los agentes de IA. La Gestión de Identidad y Accesos tradicional (IAM) asumía una verdad central: los humanos siempre están involucrados. Un usuario inicia sesión, se le desafía con MFA, piensa en lo que está haciendo y luego actúa.
Los agentes de IA demolieron esa suposición de la noche a la mañana.
Cuando un bot de atención al cliente procesa 10,000 solicitudes por minuto a las 3 de la mañana, no puede pausar para que un humano apruebe una notificación push de MFA. Cuando un flujo de trabajo autónomo ejecuta tareas delegadas contra APIs, necesita una gestión de credenciales que ocurra sin que nadie haga clic en nada. La infraestructura actual—solicitudes de contraseña, desafíos MFA, flujos de verificación humana—se convierte en un cuello de botella que detiene todo.
Esto no es un problema menor de experiencia de usuario. Es una crisis arquitectónica.
Dónde fallan los sistemas tradicionales
Las soluciones existentes de autenticación máquina a máquina tampoco lo resuelven. Fueron diseñadas para una comunicación simple entre servicios, no para ciclos de vida complejos de agentes con requisitos dinámicos de permisos y cadenas de delegación sofisticadas.
El problema central: El IAM tradicional otorga permisos a nivel de usuario. Cuando autorizas a un asistente de IA para gestionar tu correo electrónico, los sistemas actuales o le dan acceso completo a todo lo que puedes hacer—o fallan por completo porque no soportan restricciones de alcance granular.
Considera el escenario bancario: un humano puede razonar sobre las instrucciones. Instintivamente sabe que una solicitud de “transferir $100,000 a una cuenta desconocida” probablemente sea sospechosa, incluso si técnicamente está permitida. Un sistema de IA carece de ese juicio. Necesita límites explícitos: este agente solo puede pagar a proveedores aprobados, máximo $5,000 por transacción, fecha de expiración 31 de diciembre de 2025.
Por eso necesitamos acceso con el mínimo privilegio por defecto para los agentes delegados—un concepto que el IAM tradicional nunca tuvo que implementar porque los humanos proporcionaban la capa de razonamiento.
Dos modelos de agentes fundamentalmente diferentes exigen enfoques de identidad diferentes
Agentes Semi-Autónomos: El problema de la delegación
Cuando un humano delega tareas a un agente de IA (piensa: asistente ejecutivo que maneja calendario e informes de gastos), el sistema necesita implementar una autenticación de doble identidad:
Identidad principal: El humano que autorizó al agente
Identidad secundaria: La instancia del agente con restricciones explícitas
En términos de OAuth 2.1/OIDC, esto significa un intercambio de tokens que genera tokens de acceso restringidos:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Cómo los agentes de IA rompen los sistemas tradicionales de control de acceso
La crisis de IAM que nadie vio venir
Estamos presenciando una desconexión fundamental entre cómo se diseñaron los sistemas de identidad y cómo operan realmente los agentes de IA. La Gestión de Identidad y Accesos tradicional (IAM) asumía una verdad central: los humanos siempre están involucrados. Un usuario inicia sesión, se le desafía con MFA, piensa en lo que está haciendo y luego actúa.
Los agentes de IA demolieron esa suposición de la noche a la mañana.
Cuando un bot de atención al cliente procesa 10,000 solicitudes por minuto a las 3 de la mañana, no puede pausar para que un humano apruebe una notificación push de MFA. Cuando un flujo de trabajo autónomo ejecuta tareas delegadas contra APIs, necesita una gestión de credenciales que ocurra sin que nadie haga clic en nada. La infraestructura actual—solicitudes de contraseña, desafíos MFA, flujos de verificación humana—se convierte en un cuello de botella que detiene todo.
Esto no es un problema menor de experiencia de usuario. Es una crisis arquitectónica.
Dónde fallan los sistemas tradicionales
Las soluciones existentes de autenticación máquina a máquina tampoco lo resuelven. Fueron diseñadas para una comunicación simple entre servicios, no para ciclos de vida complejos de agentes con requisitos dinámicos de permisos y cadenas de delegación sofisticadas.
El problema central: El IAM tradicional otorga permisos a nivel de usuario. Cuando autorizas a un asistente de IA para gestionar tu correo electrónico, los sistemas actuales o le dan acceso completo a todo lo que puedes hacer—o fallan por completo porque no soportan restricciones de alcance granular.
Considera el escenario bancario: un humano puede razonar sobre las instrucciones. Instintivamente sabe que una solicitud de “transferir $100,000 a una cuenta desconocida” probablemente sea sospechosa, incluso si técnicamente está permitida. Un sistema de IA carece de ese juicio. Necesita límites explícitos: este agente solo puede pagar a proveedores aprobados, máximo $5,000 por transacción, fecha de expiración 31 de diciembre de 2025.
Por eso necesitamos acceso con el mínimo privilegio por defecto para los agentes delegados—un concepto que el IAM tradicional nunca tuvo que implementar porque los humanos proporcionaban la capa de razonamiento.
Dos modelos de agentes fundamentalmente diferentes exigen enfoques de identidad diferentes
Agentes Semi-Autónomos: El problema de la delegación
Cuando un humano delega tareas a un agente de IA (piensa: asistente ejecutivo que maneja calendario e informes de gastos), el sistema necesita implementar una autenticación de doble identidad:
Identidad principal: El humano que autorizó al agente Identidad secundaria: La instancia del agente con restricciones explícitas
En términos de OAuth 2.1/OIDC, esto significa un intercambio de tokens que genera tokens de acceso restringidos: