С введением искусственного интеллекта (AI) для создания автономной рабочей среды, контрольные полномочия и управление безопасностью AI-агентов становятся ключевыми вопросами цифровой деятельности. В частности, высокоразвитые AI-агенты могут выполнять задачи или принимать бизнес-решения от имени пользователя, и в случае нарушения безопасности это может привести к худшему сценарию, когда вся организация окажется под контролем.
Соучредитель и генеральный директор Rubrik ( CEO ) Бипул Синха ( Bipul Sinha ) недавно в интервью подчеркнул: “В эпоху агентов, обрабатывающих бизнес с суперскоростью, за короткие 10 минут может произойти ущерб в 10 раз больше”, он указал, что традиционные системы безопасности трудно контролировать, и “управление агентами” становится новым средством контроля. Он объяснил: “AI-агенты управляют бизнес-процессами, как люди, и иногда даже имитируют идентификацию пользователя, поэтому обладают свойствами 'суперчеловека'.”
Для повышения безопасности агентов Rubrik запустила новую платформу под названием ‘Rubrik Agent Cloud’. Эта система может анализировать типы и диапазоны деятельности AI-агентов в организации, обнаруживать угрожающие действия на основе предустановленных защитных барьеров и при необходимости предоставлять возможность быстрого отзыва этого агента. Генеральный директор Синха объяснил: “Все AI-агенты должны рассматриваться как новые сотрудники, они должны быть обеспечены кодексом поведения, системой мониторинга и процедурой приостановки в случае возникновения проблем.”
Но настоящая проблема управления агентами заключается в скорости их массового распространения. Если позволить агентам бесконтрольно распространяться без достаточной видимости и контроля, это может привести к тому, что небольшие сбои перерастут в «цифровой крупный пожар», парализующий всю систему. В этой связи CEO Синха предлагает организациям не разрабатывать слишком масштабные автоматизированные планы, а ограничиться 3-4 основными рабочими процессами, завершив их пилотное выполнение, прежде чем постепенно расширять масштаб.
Син Ха также предупредил: “Операционная среда должна использовать точный ИИ, если нет способности управлять затратами, затраты на вывод будут неконтролируемо расти.” Это означает, что стабильность затрат как реальный фактор не может быть проигнорирована в стратегии распространения ИИ-агентов.
В условиях глубокого внедрения технологий ИИ в общий бизнес, стратегия «управления через代理», предложенная Rubrik, уже выходит за рамки простых мер безопасности и становится центральным контрольным пунктом для конкретизации общей цифровой устойчивости и устойчивости организации.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Потеря контроля над ИИ приведет к 'цифровому крупному пожару'… Каково решение, предложенное Rubric?
С введением искусственного интеллекта (AI) для создания автономной рабочей среды, контрольные полномочия и управление безопасностью AI-агентов становятся ключевыми вопросами цифровой деятельности. В частности, высокоразвитые AI-агенты могут выполнять задачи или принимать бизнес-решения от имени пользователя, и в случае нарушения безопасности это может привести к худшему сценарию, когда вся организация окажется под контролем.
Соучредитель и генеральный директор Rubrik ( CEO ) Бипул Синха ( Bipul Sinha ) недавно в интервью подчеркнул: “В эпоху агентов, обрабатывающих бизнес с суперскоростью, за короткие 10 минут может произойти ущерб в 10 раз больше”, он указал, что традиционные системы безопасности трудно контролировать, и “управление агентами” становится новым средством контроля. Он объяснил: “AI-агенты управляют бизнес-процессами, как люди, и иногда даже имитируют идентификацию пользователя, поэтому обладают свойствами 'суперчеловека'.”
Для повышения безопасности агентов Rubrik запустила новую платформу под названием ‘Rubrik Agent Cloud’. Эта система может анализировать типы и диапазоны деятельности AI-агентов в организации, обнаруживать угрожающие действия на основе предустановленных защитных барьеров и при необходимости предоставлять возможность быстрого отзыва этого агента. Генеральный директор Синха объяснил: “Все AI-агенты должны рассматриваться как новые сотрудники, они должны быть обеспечены кодексом поведения, системой мониторинга и процедурой приостановки в случае возникновения проблем.”
Но настоящая проблема управления агентами заключается в скорости их массового распространения. Если позволить агентам бесконтрольно распространяться без достаточной видимости и контроля, это может привести к тому, что небольшие сбои перерастут в «цифровой крупный пожар», парализующий всю систему. В этой связи CEO Синха предлагает организациям не разрабатывать слишком масштабные автоматизированные планы, а ограничиться 3-4 основными рабочими процессами, завершив их пилотное выполнение, прежде чем постепенно расширять масштаб.
Син Ха также предупредил: “Операционная среда должна использовать точный ИИ, если нет способности управлять затратами, затраты на вывод будут неконтролируемо расти.” Это означает, что стабильность затрат как реальный фактор не может быть проигнорирована в стратегии распространения ИИ-агентов.
В условиях глубокого внедрения технологий ИИ в общий бизнес, стратегия «управления через代理», предложенная Rubrik, уже выходит за рамки простых мер безопасности и становится центральным контрольным пунктом для конкретизации общей цифровой устойчивости и устойчивости организации.