제퍼넷 로고

신뢰할 수있는 AI의 세 번째 기둥 : 윤리

시간

저자에 대해 자세히 알아 보려면 클릭하십시오. 스콧 리드.

강력한 데이터 품질 표준을 기반으로 정확하고 빠르며 성능이 뛰어난 모델을 구축하는 것은 쉬운 일이 아닙니다. 거버넌스 워크 플로와 지속 가능성 모니터링을 통해 모델을 프로덕션에 적용하는 것은 훨씬 더 어렵습니다. 마지막으로 조직의 윤리와 가치를 기반으로 모델을 설명 가능하고 투명하며 공정하게 만드는 것이 신뢰할 수있는 AI의 가장 어려운 측면입니다.

우리는 신뢰의 세 가지 기둥 인 성과, 운영 및 윤리를 확인했습니다. 이전 기사에서 성능 과 운영. 이 기사에서는 신뢰의 세 번째이자 마지막 기둥을 살펴 보겠습니다. 윤리학.

윤리는 다음 질문과 관련이 있습니다.“내 모델이 조직의 윤리 및 가치에 얼마나 잘 부합합니까?”이 기둥은 주로 모델 예측의 신비를 이해하고 설명하는 것은 물론 숨겨진 편견의 원인을 식별하고 무력화하는 데 중점을 둡니다. 윤리에는 네 가지 주요 요소가 있습니다. 

  • 개인정보보호
  • 편견과 공정성
  • 설명 가능성 및 투명성
  • 조직에 미치는 영향

이 기사에서는 특히 편견과 공정성, 설명 가능성과 투명성이라는 두 가지에 초점을 맞출 것입니다. 

편견과 공정성

알고리즘 편향의 예는 오늘날 어디에나 있으며, 종종 성별이나 인종의 보호 된 속성과 관련이 있으며 의료, 주택 및 인적 자원을 포함한 거의 모든 분야에 존재합니다. 같이 AI 사회에서 널리 보급되고 수용되면 AI 편향 사고의 수는 표준화 된 책임있는 AI 관행없이 만 증가 할 것입니다.

정의하자 바이어스 과 공평 계속하기 전에. 편향은 수학적으로 모델이 데이터의 개별 그룹에 대해 다르게 수행 된 (더 좋거나 나쁘게) 상황을 나타냅니다. 반면에 공정성은 이해 관계자, 법적 규정 또는 가치에 기반한 사회적 구성이며 주관적입니다. 둘 사이의 교차점은 테스트 결과의 맥락과 해석에 있습니다.

가장 높은 수준에서 측정 편향은 두 가지 범주로 나눌 수 있습니다. 대표성에 의한 공정성 과 오류에 의한 공정성. 전자는 모든 그룹 간의 모델 예측을 기반으로 공정성을 측정하는 것을 의미하고 후자는 모든 그룹 간의 모델 오류율을 기반으로 공정성을 측정하는 것을 의미합니다. 아이디어는 모델이 표현에 의한 공정성에서 특정 그룹에 대해 훨씬 더 높은 비율로 유리한 결과를 예측하는지 아는 것입니다., 또는 특정 그룹에 대해 모델이 오류로 인해 더 자주 잘못되는 경우. 이 두 제품군 내에 적용 할 수있는 개별 메트릭이 있습니다. 이 점을 설명하기 위해 몇 가지 예를 살펴 보겠습니다.

지원자를 고용할지 여부를 예측하는 고용 사용 사례에서 성별과 같은 보호 된 속성 내에서 편향을 측정합니다. 이 경우 다음과 같은 측정 항목을 사용할 수 있습니다. 비례 패리티, 표현에 의한 공정성을 만족 각 그룹이 동일한 비율의 호의적 예측을 받도록 요구함으로써 (즉, 모델은 남성과 여성 모두에 대해 "고용 된"시간의 50 %를 예측합니다). 

다음으로 생명을 위협하는 질병에 대한 의료 진단 사용 사례를 고려하십시오. 이번에는 다음과 같은 측정 항목을 사용할 수 있습니다. 유리한 예측 가치 평가, 동일한 오류로 공정성을 충족합니다. 각 그룹이 동일한 정밀도 또는 모델이 정확할 확률을 갖도록 요구합니다. 

편향이 확인되면 모델을 공정하게 완화하고 강제하는 여러 가지 방법이 있습니다. 처음에는 기초 데이터를 분석하고 단계가 있는지 확인할 수 있습니다. 데이터 큐 레이션 또는 도움이 될 수있는 기능 엔지니어링. 그러나보다 알고리즘적인 접근 방식이 필요한 경우 지원하기 위해 등장한 다양한 기술이 있습니다. 높은 수준에서 이러한 기술은 적용되는 기계 학습 파이프 라인의 단계에 따라 분류 될 수 있습니다.

  • 전처리
  • 처리 중
  • 후 처리

전처리 완화는 전에 발생합니다 모든 모델링은 훈련 데이터에서 직접 발생합니다. 처리 중 기술은 모델링 과정 (즉, 훈련) 중에 취해진 조치와 관련됩니다. 드디어, 사후 처리 기술은 프로세스를 모델링 한 후에 발생하고 편향을 완화하기 위해 모델 예측에 대해 작동합니다.

설명 가능성 및 투명성

모든 데이터 과학 실무자들은 모델의 내부 작동 또는 모델의 예측을 설명하기 위해 경계를 늦추는 회의에 참석했습니다. 경험으로 볼 때 기분이 좋지는 않지만 이해 관계자가 지적했습니다. 윤리에 대한 신뢰는 또한 모델과 그 결과를 가능한 한 해석하거나 설명 할 수 있음을 의미합니다. 

생산에 투입 할 모델을 선택할 때 설명 가능성은 대화의 일부가되어야합니다. 더 설명하기 쉬운 모델을 선택하는 것은 모델과 모든 이해 관계자 간의 관계를 구축하는 좋은 방법입니다. 특정 모델은 다른 모델보다 더 쉽게 설명하고 투명합니다. 예를 들어 계수를 사용하는 모델 (예 : 선형 회귀) 또는 트리 기반 모델 (예 : 랜덤 포레스트). 이것은 훨씬 덜 직관적 인 딥 러닝 모델과는 매우 다릅니다. 질문은 우리가 설명 할 수있는 모델을 위해 약간의 모델 성능을 희생해야한다는 것입니다.

모델 예측 수준에서 다음과 같은 설명 기술을 활용할 수 있습니다. XEMP 또는 SHAP 특정 예측이 유리하거나 불리한 결과에 할당 된 이유를 이해합니다. 두 방법 모두 개별 예측에 부정적이거나 긍정적 인 방식으로 어떤 특징이 가장 많이 기여하는지 보여줄 수 있습니다. 

결론

이 시리즈에서는 AI 신뢰의 세 가지 기둥 인 성능, 운영 및 윤리를 다루었습니다. 각각은 AI 프로젝트의 라이프 사이클에서 중요한 역할을합니다. 별도의 기사에서 다루었지만 AI 시스템을 완전히 신뢰하기 위해 기둥 사이에는 절충점이 없습니다. 신뢰할 수있는 AI를 구현하려면 모든 수준의 동의와 이러한 각 기둥에 대한 헌신이 필요합니다. 쉬운 여정은 아니지만 AI를 통해 최대의 이익을 보장하고 피해 가능성을 최소화하려면 필수입니다. 

코인 스마트. 유로파 최고의 비트 코인-보르 스
출처 : https://www.dataversity.net/the-third-pillar-of-trusted-ai-ethics/

spot_img

최신 인텔리전스

spot_img

우리와 함께 채팅

안녕하세요! 어떻게 도와 드릴까요?