제퍼넷 로고

AI 시스템의 위험을 평가하는 방법 알아보기 | 아마존 웹 서비스

시간

인공지능(AI)은 사회의 여러 측면을 개선하고 변화시킬 수 있는 잠재력을 갖고 빠르게 발전하는 분야입니다. 2023년에는 강력한 기반 모델(FM)의 개발과 그에 따른 생성 AI 기능의 발전으로 AI 기술 채택 속도가 더욱 가속화되었습니다.

Amazon에서는 다음과 같은 다양한 생성 AI 서비스를 출시했습니다. 아마존 기반암아마존 코드위스퍼러을 통해 다양한 고성능 생성 모델을 만들었습니다. Amazon SageMaker 점프스타트. 이러한 서비스는 향상된 창의성, 개인화되고 역동적인 콘텐츠 생성, 혁신적인 디자인을 포함하여 생성적 AI의 새로운 기능을 활용하는 데 고객을 지원하도록 설계되었습니다. 또한 이를 통해 AI 실무자는 언어 장벽, 기후 변화를 해결하고 과학적 발견을 가속화하는 등 이전과는 전혀 다른 방식으로 세상을 이해할 수 있습니다.

그러나 생성 AI의 잠재력을 최대한 활용하려면 잠재적인 위험을 주의 깊게 고려하는 것이 중요합니다. 무엇보다도 이는 책임감 있고 안전한 개발 및 배포를 촉진하고 잠재적 영향을 해결하기 위한 사전 조치의 채택을 장려함으로써 AI 시스템의 이해관계자에게 이익을 줍니다. 결과적으로, 위험을 평가하고 관리하기 위한 메커니즘을 확립하는 것은 AI 실무자가 고려해야 할 중요한 프로세스이며 많은 새로운 AI 산업 표준의 핵심 구성 요소가 되었습니다(예: ISO 42001, ISO 23894NIST RMF) 및 법률(예: EU AI 법).

이 게시물에서는 AI 시스템의 잠재적 위험을 평가하는 방법에 대해 논의합니다.

위험 수준은 어떻게 다른가요?

개별 기계 학습(ML) 모델과 관련 위험을 개별적으로 살펴보는 것이 더 쉬울 수 있지만, 해당 모델의 특정 적용에 대한 세부 사항과 해당 사용 사례를 전체 AI 시스템의 일부로 고려하는 것이 중요합니다. . 실제로 일반적인 AI 시스템은 함께 작동하는 여러 가지 ML 모델을 기반으로 할 가능성이 높으며 조직은 여러 가지 AI 시스템을 구축하려고 할 수 있습니다. 결과적으로 각 사용 사례에 대해 모델 위험, AI 시스템 위험, 엔터프라이즈 위험 등 다양한 수준에서 위험을 평가할 수 있습니다.

엔터프라이즈 위험은 재무, 운영 및 전략적 위험을 포함하여 조직이 직면할 수 있는 광범위한 위험을 포함합니다. AI 시스템 위험은 AI 시스템의 구현 및 운영과 관련된 영향에 중점을 두는 반면, ML 모델 위험은 특히 ML 모델에 내재된 취약성과 불확실성과 관련이 있습니다.

이 게시물에서는 주로 AI 시스템 위험에 중점을 둡니다. 그러나 조직 내의 모든 다양한 수준의 위험 관리를 고려하고 조정해야 한다는 점에 유의하는 것이 중요합니다.

AI 시스템 위험은 어떻게 정의되나요?

AI 시스템의 맥락에서 위험 관리는 불확실성이나 잠재적인 부정적인 영향을 최소화하는 동시에 긍정적인 영향을 극대화할 수 있는 기회를 제공하는 경로가 될 수 있습니다. 위험 자체는 잠재적인 피해가 아니라 목표에 대한 불확실성의 영향입니다. 에 따르면 NIST 위험 관리 프레임워크 (NIST RMF)에 따르면 위험은 해당 이벤트의 결과 크기에 따라 이벤트 발생 확률을 곱셈적으로 측정하여 추정할 수 있습니다.

위험에는 내재 위험과 잔여 위험이라는 두 가지 측면이 있습니다. 고유 위험은 완화나 통제가 없을 때 AI 시스템이 나타내는 위험의 양을 나타냅니다. 잔여 위험은 완화 전략을 고려한 후 남은 위험을 포착합니다.

위험 평가는 조직 전체의 노력이 필요한 인간 중심 활동이라는 점을 항상 명심하십시오. 이러한 노력은 모든 관련 이해관계자가 평가 프로세스(예: 제품, 엔지니어링, 과학, 영업 및 보안 팀)에 포함되도록 하는 것부터 사회적 관점과 규범이 특정 사건의 인지된 가능성과 결과에 어떻게 영향을 미치는지 평가하는 것까지 다양합니다.

조직에서 위험 평가에 관심을 기울여야 하는 이유는 무엇입니까?

AI 시스템을 위한 위험 관리 프레임워크를 확립하면 AI 시스템의 안전하고 책임 있는 설계, 개발 및 운영을 촉진함으로써 사회 전반에 이익이 될 수 있습니다. 위험 관리 프레임워크는 다음을 통해 조직에 도움이 될 수도 있습니다.

  • 의사 결정 향상 – 조직은 AI 시스템과 관련된 위험을 이해함으로써 해당 위험을 완화하고 안전하고 책임감 있는 방식으로 AI 시스템을 사용하는 방법에 대해 더 나은 결정을 내릴 수 있습니다.
  • 규정 준수 계획 향상 – 위험 평가 프레임워크는 조직이 관련 법률 및 규정의 위험 평가 요구 사항을 준비하는 데 도움이 될 수 있습니다.
  • 신뢰 구축 – 조직은 AI 시스템의 위험을 완화하기 위한 조치를 취하고 있음을 입증함으로써 고객과 이해관계자에게 안전하고 책임감 있는 방식으로 AI를 사용하기 위해 최선을 다하고 있음을 보여줄 수 있습니다.

위험을 평가하는 방법은 무엇입니까?

첫 번째 단계로, 조직은 평가해야 할 AI 사용 사례를 설명하고 모든 관련 이해관계자를 식별하는 것을 고려해야 합니다. 사용 사례는 사용자가 특정 목표를 달성하기 위해 AI 시스템과 상호 작용하는 방법을 설명하는 특정 시나리오 또는 상황입니다. 사용 사례 설명을 작성할 때 해결 중인 비즈니스 문제를 지정하고, 관련된 이해 관계자를 나열하고, 워크플로를 특성화하고, 시스템의 주요 입력 및 출력에 대한 세부 정보를 제공하는 것이 도움이 될 수 있습니다.

이해관계자에 관해서는 일부를 간과하기 쉽습니다. 다음 그림은 AI 이해관계자의 역할을 계획하기 위한 좋은 출발점입니다.

출처: “정보기술 – 인공지능 – 인공지능 개념 및 용어”.

AI 시스템 위험 평가의 중요한 다음 단계는 사용 사례와 관련된 잠재적으로 유해한 이벤트를 식별하는 것입니다. 이러한 이벤트를 고려할 때 공정성, 견고성 등 책임 있는 AI의 다양한 측면을 고려하는 것이 도움이 될 수 있습니다. 다양한 이해관계자는 다양한 차원에 따라 다양한 정도로 영향을 받을 수 있습니다. 예를 들어, 최종 사용자에 대한 낮은 견고성 위험은 AI 시스템이 사소한 중단을 보이는 결과일 수 있는 반면, 낮은 공정성 위험은 AI 시스템이 다양한 인구통계학적 그룹에 대해 무시할 만큼 다른 출력을 생성함으로써 발생할 수 있습니다.

사건의 위험을 추정하려면 심각도 척도와 함께 가능성 척도를 사용하여 발생 확률과 결과 정도를 측정할 수 있습니다. 이러한 척도를 개발할 때 도움이 되는 출발점은 NIST RMF일 수 있습니다. 이는 매우 낮은 위험에서 매우 높은 위험까지 범위의 정성적 비숫자 범주 또는 척도(예: 1~10), 빈 등의 반정량적 평가 원칙을 사용하도록 제안합니다. 대표번호. 모든 관련 차원에 대한 가능성 및 심각도 척도를 정의한 후에는 위험 매트릭스 구성표를 사용하여 각 관련 차원에 따라 이해관계자별 전체 위험을 정량화할 수 있습니다. 다음 그림은 위험 매트릭스의 예를 보여줍니다.

이 위험 매트릭스를 사용하면 심각도가 낮고 발생할 가능성이 거의 없는 이벤트를 위험이 매우 낮은 것으로 간주할 수 있습니다. 초기 평가는 내재된 위험에 대한 추정치이며 위험 완화 전략은 위험 수준을 더욱 낮추는 데 도움이 될 수 있다는 점을 명심하십시오. 그런 다음 프로세스를 반복하여 이벤트당 남아 있는 잔여 위험에 대한 등급을 생성할 수 있습니다. 동일한 차원에 따라 여러 이벤트가 식별된 경우 전체 중에서 가장 높은 위험 수준을 선택하여 최종 평가 요약을 만드는 것이 도움이 될 수 있습니다.

최종 평가 요약을 사용하여 조직은 AI 시스템에 허용되는 위험 수준을 정의하고 관련 규정 및 정책을 고려해야 합니다.

AWS의 약속

와의 계약을 통해 백악관UN, 무엇보다도 우리는 AI의 책임감 있고 안전한 사용을 발전시키기 위해 지식과 전문 지식을 공유하는 데 최선을 다하고 있습니다. 이러한 맥락에서 Amazon의 Adam Selipsky는 최근 AWS를 대표하여 AI 안전 서밋 국가 정상 및 업계 지도자들이 참석하여 인공 지능의 책임감 있는 발전을 위해 협력하려는 우리의 헌신을 더욱 입증했습니다.

결론

AI가 계속 발전함에 따라 책임감 있게 AI를 구축하고 배포하려는 조직에 위험 평가가 점점 더 중요해지고 유용해지고 있습니다. 위험 평가 프레임워크 및 위험 완화 계획을 수립함으로써 조직은 잠재적인 AI 관련 사고의 위험을 줄이고 고객과의 신뢰를 얻을 뿐만 아니라 신뢰성 향상, 다양한 인구통계에 대한 공정성 향상 등과 같은 이점을 얻을 수 있습니다.

조직에서 위험 평가 프레임워크를 개발하는 여정을 시작하고 의견을 댓글로 공유해 보세요.

또한 Amazon Science에 게시된 생성 AI 위험에 대한 개요도 확인하세요. 생성 시대의 책임 있는 AI을 통해 위험 평가 및 완화 여정을 지원할 수 있는 다양한 AWS 서비스를 살펴보세요. Amazon SageMaker 명확화, Amazon SageMaker 모델 모니터, AWS 클라우드 트레일뿐만 아니라 모델 거버넌스 프레임워크.


저자에 관하여

미아 C. 메이어 AWS Machine Learning University의 응용 과학자이자 ML 교육자입니다. 그녀는 기계 학습 및 AI 시스템의 안전성, 설명 가능성 및 공정성을 연구하고 가르칩니다. 그녀의 경력 전반에 걸쳐 Mia는 여러 대학 봉사 프로그램을 설립하고 초청 강사 및 기조 연설자로 활동했으며 수많은 대규모 학습 컨퍼런스에서 발표했습니다. 또한 그녀는 내부 팀과 AWS 고객이 책임감 있는 AI 여정을 시작하도록 돕습니다.

데니스 V. 바탈로프 17년 간의 Amazon 베테랑이자 기계 학습 박사인 Denis는 Search Inside Book, Amazon Mobile 앱 및 Kindle Direct Publishing과 같은 흥미로운 프로젝트에 참여했습니다. 2013년부터 그는 AWS 고객이 AI/ML 기술을 솔루션 아키텍트로 채택하도록 도왔습니다. 현재 Denis는 전 세계적으로 AWS ML Specialist Solutions Architects의 기능을 담당하는 AI/ML의 세계적인 기술 리더입니다. Denis는 대중 연설을 자주 하며 Twitter @dbatalov에서 그를 팔로우할 수 있습니다.

사라 리우 박사 AWS Responsible AI 팀의 수석 기술 프로그램 관리자입니다. 그녀는 과학자, 데이터 세트 리더, ML 엔지니어, 연구원 및 기타 다기능 팀으로 구성된 팀과 협력하여 AWS AI 서비스 전반에 걸쳐 책임감 있는 AI 기준을 높입니다. 그녀의 현재 프로젝트에는 AI 서비스 카드 개발, 책임 있는 AI에 대한 위험 평가 수행, 고품질 평가 데이터 세트 생성 및 품질 프로그램 구현이 포함됩니다. 또한 그녀는 내부 팀과 고객이 진화하는 AI 산업 표준을 충족하도록 돕습니다.

spot_img

최신 인텔리전스

spot_img