제퍼넷 로고

AI/ML 시스템 보호를 위한 보안 적용

시간

인공 지능(AI)은 비즈니스 분야의 최신 유행어가 아닙니다. 이는 산업을 빠르게 재편하고 비즈니스 프로세스를 재정의하고 있습니다. 그러나 기업들은 AI와 머신러닝(ML)을 운영의 모든 측면에 통합하기 위해 경쟁하면서 새로운 보안 및 위험 과제. 경쟁 우위를 달성하기 위해 민첩한 개발 방식에 초점을 맞추면 보안이 뒷전으로 밀려납니다. 월드와이드웹(World Wide Web)과 모바일 애플리케이션 초기에도 이런 일이 있었고, AI를 향한 질주에서 다시 이런 일이 벌어지고 있다.

AI 및 ML 시스템이 구축, 훈련 및 운영되는 방식은 기존 IT 시스템, 웹 사이트 또는 앱의 개발 파이프라인과 크게 다릅니다. 기존 IT 보안에 적용되는 동일한 위험 중 일부가 AI/ML에도 계속해서 관련되어 있지만 몇 가지 중요하고 어려운 차이점. 데이터베이스에 의존하는 웹 애플리케이션과 달리 AI 애플리케이션은 ML 모델을 기반으로 합니다. 모델 구축 프로세스에는 데이터 수집, 정리 및 정제가 포함됩니다. 데이터에 대한 ML 모델 학습 그런 다음 해당 모델을 대규모로 실행하여 학습한 내용을 기반으로 추론하고 반복합니다.

기존 소프트웨어와 AI/ML 개발이 갈라지는 네 가지 주요 영역이 있습니다. 이는 각각 변경된 상태 대 동적 상태, 규칙 및 용어 대 사용 및 입력, 프록시 환경 대 라이브 시스템, 버전 제어 대 출처 변경입니다.

다음과 같은 오픈 소스 AI/ML 도구 ML플로우레이, 모델 구축을 위한 편리한 프레임워크를 제공합니다. 그러나 이러한 OSS(오픈 소스 소프트웨어) 도구 및 프레임워크 중 다수는 심각한 악용 및 피해로 이어질 수 있는 기본 취약점으로 인해 어려움을 겪고 있습니다. 개별적으로 AI/ML 라이브러리 자체는 저장된 AI/ML 도구만큼 안전한 대량의 데이터와 모델을 포함하기 때문에 훨씬 더 큰 공격 표면을 생성합니다. 이러한 도구가 손상되면 공격자는 여러 액세스에 액세스할 수 있습니다. 데이터베이스의 기밀 정보 가치를 제거하고, 모델을 수정하고, 악성 코드를 심습니다.

AI/ML을 위한 보안 설계

기존 IT 보안에는 AI/ML 시스템을 보호하기 위한 몇 가지 핵심 기능이 부족합니다. 첫 번째는 데이터 과학자가 AI/ML 시스템의 구성 요소를 개발하는 데 사용하는 도구를 스캔하는 기능입니다. 주피터 수첩다른 도구들 보안 취약점에 대한 AI/ML 공급망의

데이터 보호는 IT 보안의 핵심 구성 요소이지만 AI/ML에서는 모델 교육에 실시간 데이터가 지속적으로 사용되기 때문에 더욱 중요해집니다. 이로 인해 공격자가 AI/ML 데이터를 조작할 수 있는 문이 열려 모델이 손상되고 의도한 기능을 수행하지 못하게 될 수 있습니다.

AI/ML 환경에서 데이터 보호를 위해서는 데이터를 모델에 연결하는 불변의 레코드 생성이 필요합니다. 따라서 데이터가 어떤 방식으로든 수정되거나 변경되면 모델을 재교육하려는 사용자는 해싱 값(전송 중 데이터 무결성을 보장하는 데 사용됨)이 일치하지 않는 것을 보게 됩니다. 이 감사 추적은 데이터 파일이 편집된 시기와 해당 데이터가 저장된 위치를 추적하여 위반이 있었는지 확인하는 기록을 생성합니다.

또한 명령 주입과 같은 보안 위협을 탐지하려면 AI/ML 모델을 스캔해야 합니다. 모델은 메모리에 존재하는 자산이지만 동료에게 배포하기 위해 디스크에 저장하면 형식에 코드가 삽입될 수 있기 때문입니다. 따라서 모델은 이전과 똑같이 계속 실행되지만 임의의 코드는 실행됩니다.

이러한 고유한 과제를 고려할 때 고려해야 할 몇 가지 유용한 모범 사례는 다음과 같습니다.

  • 취약점에 대한 종속성을 찾으십시오. 상황별 가시성과 강력한 쿼리 도구를 통해 모든 ML 시스템에 대한 광범위한 보기를 실시간으로 생성할 수 있습니다. AI/ML 개발과 관련된 모든 공급업체, 클라우드 제공업체 및 공급망 리소스를 포괄하여 모든 종속성과 위협에 대한 보기를 제공해야 합니다. 동적 ML BOM(자재 명세서)은 모든 구성 요소와 종속성을 나열할 수 있어 조직에 네트워크의 모든 AI/ML 시스템에 대한 완전한 출처를 제공합니다.

  • 안전한 클라우드 권한: 모델이 학습을 위해 해당 데이터에 의존한다는 점을 고려할 때 데이터를 유출하는 클라우드 컨테이너는 AI 보안에 치명적인 결함이 될 수 있습니다. 데이터 손실을 방지하려면 클라우드에서의 검사 권한이 최우선입니다.

  • 데이터 스토리지 보안 우선순위: 모델 보안을 강화하기 위해 정책 위반을 자동으로 보고하고 경고하는 통합 보안 검사, 정책 및 게이트를 구현합니다.

  • 스캔 개발 도구: 개발 작업이 개발 보안 작업으로 발전한 것처럼 AI/ML 개발은 모든 AI/ML 모델 및 데이터 입력과 함께 ML Flow와 같은 개발 환경 및 도구와 취약점에 대한 종속성을 검색하여 개발 프로세스에 보안을 구축해야 합니다.

  • 정기적으로 감사: 자동화된 도구는 AI/ML 환경의 타임스탬프 버전 역할을 하는 필수 불변 원장을 제공할 수 있습니다. 이는 위반 시 누가, 어디서, 언제 정책을 위반했는지 보여주는 포렌식 분석을 지원합니다. 또한 감사는 위협 환경을 해결하기 위해 보호 기능을 업데이트하는 데 도움이 될 수 있습니다.

AI에 내재된 보안 위험을 해결하면서 AI의 잠재력을 활용하려면 조직은 위에 나열된 모범 사례 구현을 고려하고 구현을 시작해야 합니다. MLSecOps.

spot_img

최신 인텔리전스

spot_img