Логотип Зефирнет

Конвергенция искусственного интеллекта, 5G и дополненной реальности создает новые риски для безопасности 

Дата:

Джон П. Десмонд, AI Trends редактор  

Около 500 экспертов по бизнесу и безопасности C-уровня из компаний с доходом более 5 миллиардов долларов в различных отраслях выразили обеспокоенность в недавнем опросе Accenture по поводу потенциальных уязвимостей безопасности, связанных с одновременным стремлением к технологиям искусственного интеллекта, 5G и дополненной реальности. .  

Клаудио Ордоньес, руководитель отдела кибербезопасности Accenture в Чили

Например, для правильного обучения моделей ИИ компании необходимо защитить данные, необходимые для обучения ИИ, и среду, в которой он создается. Когда модель используется, данные в движении должны быть защищены. Данные не могут быть собраны в одном месте ни по техническим причинам, ни по соображениям безопасности, ни для защиты интеллектуальной собственности. “Поэтому это заставляет компании внедрять безопасное обучение, чтобы разные стороны могли сотрудничать», — заявил Клаудио. Ордоньес, Руководитель отдела кибербезопасности Accenture в Чили, в недавнем аккаунте в Маркетинговые исследования.  

Компаниям необходимо расширить методы безопасной разработки программного обеспечения, известные как DevSecOps, чтобы защитить ИИ на протяжении всего жизненного цикла. «К сожалению, не существует панацеи для защиты от манипуляций с искусственным интеллектом, поэтому необходимо будет использовать многоуровневые возможности для снижения рисков в бизнес-процессах, основанных на искусственном интеллекте», — заявил он. Меры включают в себя общие функции безопасности и элементы управления, такие как очистка входных данных, укрепление безопасности приложения и настройка анализа безопасности. Кроме того, должны быть предприняты шаги для обеспечения целостности данных, контроля точности, обнаружения несанкционированного доступа., и возможности раннего реагирования.    

Риск извлечения модели и атаки на конфиденциальность  

Модели машинного обучения продемонстрировали некоторые уникальные проблемы безопасности и конфиденциальности. «Если модель предоставляется внешним поставщикам данных, вы можете подвергнуться риску извлечения модели», Ордоньес предупредил. В этом случае хакер может быть в состоянии реконструировать модель и создать суррогатную модель, которая воспроизводит функцию исходной модели, но с измененными результатами. «Это имеет очевидные последствия для конфиденциальности интеллектуальной собственности», — заявил он.  

Для защиты от извлечения модели и посягательств на конфиденциальность необходимы элементы управления. Некоторые из них просты в применении, например ограничения скорости, но для некоторых моделей могут потребоваться более сложные меры безопасности, например анализ ненормального использования. Если модель искусственного интеллекта предоставляется как услуга, компаниям необходимо учитывать меры безопасности в среде облачных сервисов. “Данные и модели из открытых источников или извне создают векторы атак для организаций», — заявил Ордоньес, поскольку злоумышленники могут вставлять манипулируемые данные и обходить внутреннюю систему безопасности.   

На вопрос, как их организации планируют создавать технические знания, необходимые для поддержки новых технологий, большинство респондентов опроса Accenture ответили, что будут обучать существующих сотрудников (77).%), будет сотрудничать или сотрудничать с организациями, имеющими опыт (73%), нанимать новые таланты (73%) и приобретать новые предприятия или стартапы (49%).  

По мнению Ордоньеса, время, необходимое для обучения профессионалов этим навыкам, недооценивается. Кроме того, «респонденты предполагают, что в области ИИ, 5G, квантовых вычислений и расширенной реальности можно будет нанять множество талантов, но реальность такова, что на рынке есть и будет нехватка этих навыков», — заявил он. «Усугубляя проблему, найти таланты в области безопасности с этими новыми техническими навыками будет еще сложнее», — заявил он.  

Особенности технологии 5G поднимают новые проблемы безопасности, в том числе виртуализацию, которая расширяет поверхность атаки, и «сверхточное» отслеживание мест атак, увеличивая проблемы с конфиденциальностью для пользователей. «Как и рост облачных сервисов, 5G может создавать теневые сети, которые работают вне ведома и управления компании», — заявил Ордоньес.  

Регистрация устройства должна включать аутентификацию для обработки корпоративной поверхности атаки. Без этого нельзя гарантировать целостность сообщений и личность пользователя», — заявил он. Компаниям потребуется приверженность директора по информационной безопасности (CISO), чтобы быть эффективными. «Для успеха требуется значительная приверженность директора по информационной безопасности и опыт в управлении киберрисками с самого начала и на протяжении всего повседневного внедрения инноваций, включая правильное мышление, поведение и культуру, чтобы это произошло».  

Дополненная реальность также представляет ряд новых угроз безопасности, включая проблемы безопасности в отношении местоположения, распознавания доверия, содержания изображений и окружающего звука, а также «маскировки контента». В связи с этим «команда «открыть этот клапан» может быть направлена ​​не на тот объект и вызвать катастрофическую активацию», — предположил Ордоньес.  

Методы защиты конфиденциальности данных в эпоху 5G 

Цзяни Чжан, президент подразделения альянсов и промышленных решений, Persistent Systems

Конфиденциальность данных — одна из самых важных проблем десятилетия, поскольку ИИ расширяется и в то же время создается больше нормативно-правовой базы. Несколько методов управления данными могут помочь организациям соблюдать требования и быть в безопасности, предположил Дж.Иани Чжан, президент отдела альянсов и промышленных решений в Persistent Systems, где она тесно сотрудничает с IBM и Red Hat для разработки решений для клиентов, как недавно сообщалось в Проект предпринимателей. 

Федеративное обучение. В области с конфиденциальными пользовательскими данными, такой как здравоохранение, традиционная мудрость последнего десятилетия заключалась в том, чтобы по возможности «расчленять» данные. Однако агрегация данных, необходимых для обучения и развертывания алгоритмов машинного обучения, создала «серьезные проблемы с конфиденциальностью и безопасностью», особенно при обмене данными внутри организаций. 

В федеративной модели обучения данные остаются в безопасности в своей среде. Локальные модели машинного обучения обучаются на закрытых наборах данных, и обновления моделей передаются между наборами данных для централизованного агрегирования. «Данные никогда не должны покидать свою локальную среду», — заявил Чжан.   

«Таким образом, данные остаются в безопасности, но при этом дают организациям «мудрость толпы»,  заявила она. «Федеративное обучение снижает риск того, что одна атака или утечка поставят под угрозу конфиденциальность всех данных, потому что вместо того, чтобы храниться в одном хранилище, данные распределены среди многих».  

Объяснимый ИИ (XAI). Многие модели AI/ML, в частности нейронные сети, представляют собой черные ящики, чьи входные данные и операции не видны заинтересованным сторонам. Новым направлением исследований является объяснимость, в котором используются методы обеспечения прозрачности, такие как деревья решений, представляющие сложную систему, чтобы сделать ее более подотчетной.   

В чувствительных областях, таких как здравоохранение, банковское дело, финансовые услуги и страхование, мы не можем слепо доверять принятию решений ИИ», — заявил Чжан. Потребитель, которому отказали в банковской ссуде, например, имеет право знать, почему. «XAI должен стать основным направлением деятельности организаций, разрабатывающих системы искусственного интеллекта в будущем», — предположила она. 

Операции искусственного интеллекта/Операции машинного обучения. Идея состоит в том, чтобы ускорить весь жизненный цикл модели машинного обучения за счет стандартизации операций, измерения производительности и автоматического устранения проблем. AIOps можно применять к следующим трем слоям: 

  • Инфраструктура: Автоматизированные инструменты позволяют организациям масштабировать свою инфраструктуру и удовлетворять потребности в ресурсах. Чжан упомянул новое подмножество DevOps, называемое GitOps, которое применяет принципы DevOps к облачным микросервисам, работающим в контейнерах.  
  • Управление производительностью приложений (APM): Организации применяют APM для управления временем простоя и повышения производительности. Решения APM включают в себя подход AIOps, использующий AI и ML для упреждающего выявления проблем, а не реактивного подхода.  
  • Управление ИТ-услугами (ITSM): ИТ-услуги охватывают аппаратные, программные и вычислительные ресурсы в массивных системах. ITSM применяет AIOps для автоматизации рабочих процессов оформления билетов, управления инцидентами и их анализа, а также авторизации и мониторинга документации в рамках своих обязанностей. 

Читайте исходные статьи в  Маркетинговые исследования, в соответствующем отчете от Accenture и in Проект предпринимателей. 

Касса PrimeXBT
Торгуйте с официальными CFD-партнерами AC Milan
Самый простой способ торговать криптовалютой.
Источник: https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?