인공 지능(AI)은 비즈니스 분야의 최신 유행어가 아닙니다. 이는 산업을 빠르게 재편하고 비즈니스 프로세스를 재정의하고 있습니다. 그러나 기업들은 AI와 머신러닝(ML)을 운영의 모든 측면에 통합하기 위해 경쟁하면서 새로운 보안 및 위험 과제. 경쟁 우위를 달성하기 위해 민첩한 개발 방식에 초점을 맞추면 보안이 뒷전으로 밀려납니다. 월드와이드웹(World Wide Web)과 모바일 애플리케이션 초기에도 이런 일이 있었고, AI를 향한 질주에서 다시 이런 일이 벌어지고 있다.
AI 및 ML 시스템이 구축, 훈련 및 운영되는 방식은 기존 IT 시스템, 웹 사이트 또는 앱의 개발 파이프라인과 크게 다릅니다. 기존 IT 보안에 적용되는 동일한 위험 중 일부가 AI/ML에도 계속해서 관련되어 있지만 몇 가지 중요하고 어려운 차이점. 데이터베이스에 의존하는 웹 애플리케이션과 달리 AI 애플리케이션은 ML 모델을 기반으로 합니다. 모델 구축 프로세스에는 데이터 수집, 정리 및 정제가 포함됩니다. 데이터에 대한 ML 모델 학습 그런 다음 해당 모델을 대규모로 실행하여 학습한 내용을 기반으로 추론하고 반복합니다.
기존 소프트웨어와 AI/ML 개발이 갈라지는 네 가지 주요 영역이 있습니다. 이는 각각 변경된 상태 대 동적 상태, 규칙 및 용어 대 사용 및 입력, 프록시 환경 대 라이브 시스템, 버전 제어 대 출처 변경입니다.
다음과 같은 오픈 소스 AI/ML 도구 ML플로우 과 레이, 모델 구축을 위한 편리한 프레임워크를 제공합니다. 그러나 이러한 OSS(오픈 소스 소프트웨어) 도구 및 프레임워크 중 다수는 심각한 악용 및 피해로 이어질 수 있는 기본 취약점으로 인해 어려움을 겪고 있습니다. 개별적으로 AI/ML 라이브러리 자체는 저장된 AI/ML 도구만큼 안전한 대량의 데이터와 모델을 포함하기 때문에 훨씬 더 큰 공격 표면을 생성합니다. 이러한 도구가 손상되면 공격자는 여러 액세스에 액세스할 수 있습니다. 데이터베이스의 기밀 정보 가치를 제거하고, 모델을 수정하고, 악성 코드를 심습니다.
AI/ML을 위한 보안 설계
기존 IT 보안에는 AI/ML 시스템을 보호하기 위한 몇 가지 핵심 기능이 부족합니다. 첫 번째는 데이터 과학자가 AI/ML 시스템의 구성 요소를 개발하는 데 사용하는 도구를 스캔하는 기능입니다. 주피터 수첩 과 다른 도구들 보안 취약점에 대한 AI/ML 공급망의
데이터 보호는 IT 보안의 핵심 구성 요소이지만 AI/ML에서는 모델 교육에 실시간 데이터가 지속적으로 사용되기 때문에 더욱 중요해집니다. 이로 인해 공격자가 AI/ML 데이터를 조작할 수 있는 문이 열려 모델이 손상되고 의도한 기능을 수행하지 못하게 될 수 있습니다.
AI/ML 환경에서 데이터 보호를 위해서는 데이터를 모델에 연결하는 불변의 레코드 생성이 필요합니다. 따라서 데이터가 어떤 방식으로든 수정되거나 변경되면 모델을 재교육하려는 사용자는 해싱 값(전송 중 데이터 무결성을 보장하는 데 사용됨)이 일치하지 않는 것을 보게 됩니다. 이 감사 추적은 데이터 파일이 편집된 시기와 해당 데이터가 저장된 위치를 추적하여 위반이 있었는지 확인하는 기록을 생성합니다.
또한 명령 주입과 같은 보안 위협을 탐지하려면 AI/ML 모델을 스캔해야 합니다. 모델은 메모리에 존재하는 자산이지만 동료에게 배포하기 위해 디스크에 저장하면 형식에 코드가 삽입될 수 있기 때문입니다. 따라서 모델은 이전과 똑같이 계속 실행되지만 임의의 코드는 실행됩니다.
이러한 고유한 과제를 고려할 때 고려해야 할 몇 가지 유용한 모범 사례는 다음과 같습니다.
-
취약점에 대한 종속성을 찾으십시오. 상황별 가시성과 강력한 쿼리 도구를 통해 모든 ML 시스템에 대한 광범위한 보기를 실시간으로 생성할 수 있습니다. AI/ML 개발과 관련된 모든 공급업체, 클라우드 제공업체 및 공급망 리소스를 포괄하여 모든 종속성과 위협에 대한 보기를 제공해야 합니다. 동적 ML BOM(자재 명세서)은 모든 구성 요소와 종속성을 나열할 수 있어 조직에 네트워크의 모든 AI/ML 시스템에 대한 완전한 출처를 제공합니다.
-
안전한 클라우드 권한: 모델이 학습을 위해 해당 데이터에 의존한다는 점을 고려할 때 데이터를 유출하는 클라우드 컨테이너는 AI 보안에 치명적인 결함이 될 수 있습니다. 데이터 손실을 방지하려면 클라우드에서의 검사 권한이 최우선입니다.
-
데이터 스토리지 보안 우선순위: 모델 보안을 강화하기 위해 정책 위반을 자동으로 보고하고 경고하는 통합 보안 검사, 정책 및 게이트를 구현합니다.
-
스캔 개발 도구: 개발 작업이 개발 보안 작업으로 발전한 것처럼 AI/ML 개발은 모든 AI/ML 모델 및 데이터 입력과 함께 ML Flow와 같은 개발 환경 및 도구와 취약점에 대한 종속성을 검색하여 개발 프로세스에 보안을 구축해야 합니다.
-
정기적으로 감사: 자동화된 도구는 AI/ML 환경의 타임스탬프 버전 역할을 하는 필수 불변 원장을 제공할 수 있습니다. 이는 위반 시 누가, 어디서, 언제 정책을 위반했는지 보여주는 포렌식 분석을 지원합니다. 또한 감사는 위협 환경을 해결하기 위해 보호 기능을 업데이트하는 데 도움이 될 수 있습니다.
AI에 내재된 보안 위험을 해결하면서 AI의 잠재력을 활용하려면 조직은 위에 나열된 모범 사례 구현을 고려하고 구현을 시작해야 합니다. MLSecOps.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- PlatoData.Network 수직 생성 Ai. 자신에게 권한을 부여하십시오. 여기에서 액세스하십시오.
- PlatoAiStream. 웹3 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 플라톤ESG. 탄소, 클린테크, 에너지, 환경, 태양광, 폐기물 관리. 여기에서 액세스하십시오.
- PlatoHealth. 생명 공학 및 임상 시험 인텔리전스. 여기에서 액세스하십시오.
- 출처: https://www.darkreading.com/vulnerabilities-threats/adapting-security-to-protect-ai-ml-systems