제퍼넷 로고

방어를 위한 책임 있는 AI 원칙 운영 – IBM 블로그

시간


방어를 위한 책임 있는 AI 원칙 운영 – IBM 블로그



젊은 여성의 뒷모습, 프리랜서 데이터 과학자는 빅 데이터 마이닝, AI 데이터 엔지니어링, IT 기술자가 인공 지능 프로젝트에서 작업하는 집 코딩 프로그래밍에서 원격으로 작업합니다.

인공지능(AI)은 인간의 성격 자체를 포함하여 사회를 변화시키고 있습니다. 국가 안보. 국방부(DoD)는 이를 인지하고 2019년 CDAO(Chief Digital and Artificial Intelligence Office)의 전신인 합동인공지능센터(JAIC)를 출범시켜 경쟁력 있는 군사적 우위를 구축하고 인간의 삶의 조건을 구축하는 AI 솔루션을 개발했습니다. 중심 AI 채택 및 DoD 운영의 민첩성. 그러나 국방부에서 AI의 전체 잠재력을 확장, 채택 및 실현하는 데 대한 장애물은 민간 부문의 장애물과 유사합니다.

최근 IBM 설문 조사 성공적인 AI 배포를 방해하는 가장 큰 장애물에는 제한된 AI 기술 및 전문 지식, 데이터 복잡성 및 윤리적 우려가 포함됩니다. 또한, IBM 기업가치연구소, 79%의 경영진은 AI 윤리가 전사적 AI 접근 방식에 중요하다고 말하지만, AI 윤리의 공통 원칙을 운영화한 비율은 25% 미만입니다. AI 모델의 결과에 대한 신뢰를 얻는 것은 사회기술적 솔루션이 필요한 사회기술적 과제입니다.

책임 있는 AI 큐레이션 운영에 중점을 두는 국방 리더는 위험을 완화하는 기술 솔루션과 가드레일을 구현하기 전에 먼저 공유된 용어(안전하고 책임감 있는 AI 사용을 안내하는 공통 문화)에 동의해야 합니다. 국방부는 AI 활용 능력을 향상하고 신뢰할 수 있는 조직과 협력하여 전략적 목표와 가치에 부합하는 거버넌스를 개발함으로써 이를 달성하기 위한 견고한 기반을 마련할 수 있습니다.

보안을 위해서는 AI 활용 능력이 필수

조직의 효율성을 높이기 위해 직원이 AI를 배포하는 방법을 아는 것이 중요합니다. 그러나 AI의 위험과 한계, 그리고 적절한 보안 조치와 윤리 가드레일을 구현하는 방법을 깊이 이해하는 것도 마찬가지로 중요합니다. 이는 DoD 또는 정부 기관의 테이블 스테이크입니다.

맞춤형 AI 학습 경로는 직원이 특정 역할에 필요한 지식을 얻을 수 있도록 격차와 필요한 교육을 식별하는 데 도움이 될 수 있습니다. 허위 정보 및 딥페이크와 같이 빠르게 움직이는 바이러스성 위협과 위험한 위협을 신속하게 평가, 설명 및 대응하려면 기관 전반의 AI 활용 능력이 모든 직원에게 필수적입니다. 

IBM은 개인의 직위에 따라 필수 읽고쓰기 능력을 정의하는 것이 다르기 때문에 조직 내에서 맞춤형 방식으로 AI 읽기쓰기 능력을 적용합니다.

전략적 목표를 지원하고 가치에 부합

신뢰할 수 있는 인공 지능 분야의 선두주자인 IBM은 고객 조직의 가치에 맞춰 AI의 책임감 있는 사용을 안내하는 거버넌스 프레임워크를 개발한 경험이 있습니다. IBM은 또한 IBM 내에서 AI 사용을 위한 자체 프레임워크를 보유하고 있습니다. 정책 입장 얼굴인식 기술을 활용하는 것과 같은 것이죠.

AI 도구는 이제 국가 안보에 활용되고 있으며, 데이터 유출사이버 공격. 그러나 AI는 DoD의 다른 전략적 목표도 지원합니다. 그것은 할 수 있다 인력을 늘리다, 이를 더욱 효과적으로 만들고 도움을 줍니다. 재교육. 탄력성을 만드는 데 도움이 될 수 있습니다. 전투, 인도주의적 지원, 평화 유지 및 재난 구호 역할에서 군인, 선원, 공군 및 해병대를 지원합니다.

CDAO에는 책임감 있고, 공평하고, 추적 가능하고, 신뢰할 수 있고, 관리 가능하다는 다섯 가지 윤리 원칙이 포함되어 있습니다. 책임 있는 AI 툴킷. 미군의 기존 윤리 프레임워크를 기반으로 하는 이러한 원칙은 군의 가치에 기반을 두고 있으며 책임 있는 AI에 대한 약속을 유지하는 데 도움이 됩니다.

모델의 기능적 및 비기능적 요구 사항과 해당 모델을 둘러싼 거버넌스 시스템을 고려하여 이러한 원칙을 현실로 만들기 위한 공동의 노력이 있어야 합니다. 아래에서는 CDAO 윤리 원칙의 운영에 대한 광범위한 권장 사항을 제공합니다.

1. 책임

"국방부 직원은 AI 기능의 개발, 배포 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 행사할 것입니다."

AI 모델은 세심하고 배려하는 인력이 개발해야 한다는 점에는 모두가 동의하지만, 조직에서는 이 일을 할 수 있는 인력을 어떻게 육성할 수 있을까요? 우리는 다음을 권장합니다:

  • AI 과제의 사회기술적 특성을 인식하는 조직 문화를 조성합니다. 이는 처음부터 전달되어야 하며, 성과를 모니터링하기 위해 모델과 모델 관리에 적용해야 하는 관행, 기술 세트 및 사려깊음에 대한 인식이 있어야 합니다.
  • 비즈니스(또는 임무) 목표, 데이터 준비 및 모델링, 평가 및 배포에 해당하는 AI 수명주기 전반에 걸쳐 윤리 관행을 자세히 설명합니다. 그만큼 크리스프-DM 여기서는 모델이 유용합니다. IBM의 확장된 데이터 과학 방법CRISP-DM의 확장인 는 데이터 과학자, 산업 조직 심리학자, 디자이너, 커뮤니케이션 전문가 등의 공동 의견을 바탕으로 AI 모델 수명주기 전반에 걸쳐 거버넌스를 제공합니다. 이 방법은 데이터 과학, 프로젝트 관리, 디자인 프레임워크 및 AI 거버넌스의 모범 사례를 병합합니다. 팀은 문서화, 대화 또는 협업이 필요한 사람, 다음 단계를 포함하여 라이프사이클의 각 단계에서 요구 사항을 쉽게 확인하고 이해할 수 있습니다.
  • 해석 가능한 AI 모델 메타데이터 제공(예: factsheets) 책임자, 성과 벤치마크(사람과 비교), 사용된 데이터 및 방법, 감사 기록(날짜 및 작성자), 감사 목적 및 결과를 명시합니다.

참고: 이러한 책임 측정은 AI 비전문가가 해석할 수 있어야 합니다("수학적 설명" 없이).

2. 공평하다

“국무부는 AI 역량에 대한 의도하지 않은 편견을 최소화하기 위해 신중한 조치를 취할 것입니다.”

AI 모델의 사용은 공정하고 차별적이지 않아야 한다는 데 모두가 동의합니다. 하지만 실제로는 어떻게 이런 일이 일어날까요? 우리는 다음을 권장합니다:

  • 수립 우수 센터 잠재적인 서로 다른 영향을 식별하기 위해 다양한 분야의 팀에 응용 교육을 위한 커뮤니티를 제공합니다.
  • 모델에 나타난 편향을 반영하기 위해 감사 도구를 사용합니다. 반영이 조직의 가치와 일치한다면 선택한 데이터와 방법을 둘러싼 투명성이 핵심입니다. 반영이 조직의 가치와 일치하지 않는다면 이는 무언가가 바뀌어야 한다는 신호입니다. 편견으로 인해 발생할 수 있는 잠재적인 이질적인 영향을 발견하고 완화하는 것은 모델이 훈련된 데이터를 검사하는 것보다 훨씬 더 많은 작업을 포함합니다. 조직은 관련된 사람과 프로세스도 조사해야 합니다. 예를 들어, 모델의 적절하고 부적절한 사용이 명확하게 전달되었습니까?
  • 공정성 측정 및 형평성 기준 마련 실행 가능한 다양한 수준의 서비스에 대한 기능적 및 비기능적 요구사항을 제공합니다.
  • 사용 디자인 사고 AI 모델의 의도하지 않은 효과를 평가하고 최종 사용자의 권리를 결정하며 원칙을 운영하기 위한 프레임워크입니다. 디자인 사고 연습에는 매우 다양한 경험을 가진 사람들이 포함되어야 합니다.다양할수록 좋다.

3. 추적 가능

"부서의 AI 기능은 관련 인력이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용할 수 있는 기술, 개발 프로세스 및 운영 방법을 적절하게 이해할 수 있도록 개발 및 배포될 것입니다."

AI를 사용하는 모든 직원에게 명확한 지침을 제공하여 추적성을 운영합니다.

  • AI 시스템과 상호 작용할 때 항상 사용자에게 명확하게 설명하십시오.
  • AI 모델에 대한 콘텐츠 기반을 제공합니다. 도메인 전문가가 모델 교육에 사용되는 신뢰할 수 있는 데이터 소스를 선별하고 유지할 수 있도록 역량을 강화하세요. 모델 출력은 학습된 데이터를 기반으로 합니다.

IBM과 파트너는 고위험 사용 사례에 필수적인 포괄적이고 감사 가능한 콘텐츠 기반을 갖춘 AI 솔루션을 제공할 수 있습니다.

  • 포착 주요 메타데이터 AI 모델을 투명하게 렌더링하고 모델 인벤토리를 추적합니다. 이 메타데이터를 해석할 수 있는지, 올바른 정보가 적절한 담당자에게 노출되는지 확인하세요. 데이터 해석에는 연습이 필요하며 학제간 노력이 필요합니다. IBM에서는 우리의 AI를 위한 디자인 그룹은 AI에서 데이터의 중요한 역할(기타 기본 사항 중)에 대해 직원을 교육하고 오픈 소스 커뮤니티에 프레임워크를 기부하는 것을 목표로 합니다.
  • 사람들이 이 메타데이터를 쉽게 찾을 수 있도록 만드세요(궁극적으로 출력 소스에서).
  • AI가 인간을 강화하고 지원해야 하므로 인간 참여 루프(Human-In-The-Loop)를 포함합니다. 이를 통해 인간은 AI 시스템이 작동할 때 피드백을 제공할 수 있습니다.
  • 모델이 배포되거나 조달되기 훨씬 전에 서로 다른 영향과 안전 위험을 평가하기 위한 프로세스와 프레임워크를 만듭니다. 이러한 위험을 완화하기 위해 책임 있는 사람을 지정하십시오.

4. 신뢰성

"부서의 AI 기능은 명시적이고 잘 정의된 용도로 사용될 것이며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증을 받게 될 것입니다."

조직은 잘 정의된 사용 사례를 문서화한 다음 규정 준수 여부를 테스트해야 합니다. 이 프로세스를 운영하고 확장하려면 실무자가 지속적인 직접적인 감독 없이도 가장 높은 표준을 준수하도록 강력한 문화적 조정이 필요합니다. 모범 사례는 다음과 같습니다.

  • 끊임없이 재확인하는 공동체 구축 why 공정하고 신뢰할 수 있는 결과가 필수적입니다. 많은 실무자들은 단순히 최선의 의도를 갖는 것만으로는 서로 다른 영향을 미칠 수 없다고 진지하게 믿습니다. 이것은 잘못된 것입니다. 사람들이 자신의 의견을 듣고 소속감을 느낄 수 있도록 적극적으로 참여하는 지역 사회 지도자의 실제 교육이 중요합니다.
  • 모델 교육에 사용되는 데이터에 대한 지침 및 표준에 대한 신뢰성 테스트 근거를 구축합니다. 이를 현실화하는 가장 좋은 방법은 정밀한 조사가 부족할 때 어떤 일이 발생할 수 있는지에 대한 예를 제공하는 것입니다.
  • 모델 개발에 대한 사용자 액세스를 제한하되 프로젝트 시작 시 다양한 관점을 수집하여 편견 도입을 완화하세요.
  • 전체 AI 수명주기에 걸쳐 개인 정보 보호 및 보안 검사를 수행합니다.
  • 정기적으로 예정된 감사에 정확성 측정을 포함합니다. 모델 성능을 인간과 비교하여 명확하게 솔직하게 설명하세요. 모델이 정확한 결과를 제공하지 못하는 경우 해당 모델에 대한 책임이 있는 사람과 사용자의 의지를 자세히 설명합니다. (이 모든 것은 해석 가능하고 검색 가능한 메타데이터에 포함되어야 합니다).

5. 관리 가능

“부처는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보여주는 배포된 시스템을 해제하거나 비활성화할 수 있는 능력을 보유하면서 의도된 기능을 수행할 수 있는 AI 기능을 설계하고 엔지니어링할 것입니다.”

이 원칙을 운영하려면 다음이 필요합니다.

  • AI 모델 투자는 배포에서 끝나지 않습니다. 모델이 원하는 대로 계속 작동하도록 리소스를 할당합니다. 배포 직후가 아니라 AI 수명 주기 전반에 걸쳐 위험을 평가하고 완화합니다.
  • 거버넌스 업무를 수행하기 위한 자금 지원 권한을 가진 책임 당사자를 지정합니다. 그들에게는 힘이 있어야 합니다.
  • 커뮤니케이션, 커뮤니티 구축, 교육에 투자하세요. 다음과 같은 도구를 활용하세요. 왓슨스.거버넌스AI 시스템 모니터링.
  • 위에서 설명한 대로 AI 모델 인벤토리를 캡처하고 관리합니다.
  • 모든 모델에 걸쳐 사이버 보안 조치를 배포합니다.

IBM은 신뢰할 수 있는 AI를 발전시키는 데 앞장서고 있습니다.

IBM은 신뢰할 수 있는 AI 원칙을 발전시키는 데 앞장섰고 AI 시스템 거버넌스 분야에서 사고의 선두주자로 등장했습니다. 우리는 AI의 역할이 인간의 전문 지식과 판단을 대체하는 것이 아니라 강화하는 것임을 분명히 하는 신뢰와 투명성이라는 오랜 원칙을 따릅니다.

2013년에 IBM은 AI 및 머신 러닝 분야에서 설명 가능성과 투명성을 향한 여정을 시작했습니다. IBM은 AI 윤리 분야의 리더로서 2015년에 AI 윤리 글로벌 리더를 임명하고 2018년에 AI 윤리 위원회를 창설했습니다. 이들 전문가는 글로벌 비즈니스 참여에서 우리의 원칙과 약속이 지켜지도록 돕기 위해 노력합니다. 2020년에 IBM은 공정하고 안전하며 신뢰할 수 있는 AI의 미래를 구축하는 데 도움이 되도록 Responsible AI 툴킷을 Linux Foundation에 기부했습니다.

IBM은 책임감 있는 AI의 미래와 윤리적인 AI 지표, 표준 및 모범 사례를 형성하기 위한 글로벌 노력을 주도하고 있습니다.

  • AI 행정명령 개발을 위해 바이든 대통령 행정부와 협력
  • 책임 있는 AI에 대한 70개 이상의 특허 공개/출원
  • IBM CEO 아르빈드 크리슈나(Arvind Krishna)는 세계경제포럼(WEF)이 출범한 글로벌 AI 행동 연합(Global AI Action Alliance) 운영위원회 공동 의장을 맡고 있다.
  • Alliance는 전 세계적으로 포용적이고 투명하며 신뢰할 수 있는 인공 지능의 채택을 가속화하는 데 중점을 두고 있습니다.
  • 가치 창출과 안전한 시스템 및 기술 개발에 관한 Generative AI에 관해 WEF에서 발행한 두 편의 논문을 공동 집필했습니다.
  • 신뢰할 수 있는 AI 위원회 공동 의장 Linux Foundation AI
  • NIST AI 위험 관리 프레임워크에 기여했습니다. AI 지표, 표준 및 테스트 분야에서 NIST와 협력

책임 있는 AI를 큐레이팅하는 것은 인간의 가치가 기술에 안정적이고 일관되게 반영되어야 하기 때문에 다면적인 과제입니다. 그러나 그것은 노력할만한 가치가 있는 일입니다. 우리는 위의 지침이 DoD가 신뢰할 수 있는 AI를 운용하고 임무를 완수하는 데 도움이 될 수 있다고 믿습니다.

IBM이 어떻게 도움을 드릴 수 있는지 자세히 알아보려면 다음을 방문하세요. AI 거버넌스 컨설팅 | IBM

전체적인 AI 거버넌스 접근 방식 만들기

기타 리소스 :

이 글이 도움 되었나요?

가능아니


인공 지능에 대해 자세히 알아보기




데이터 수익화를 통해 재정적 이익 실현

6 분 읽기 - 데이터 수익화를 통해 조직은 데이터 자산과 인공 지능(AI) 기능을 사용하여 실질적인 경제적 가치를 창출할 수 있습니다. 이 가치 교환 시스템은 데이터 제품을 사용하여 비즈니스 성과를 향상하고 경쟁 우위를 확보하며 시장 수요에 대응하여 업계 과제를 해결합니다. 재정적 이점에는 인접 산업 비즈니스 모델 창출을 통한 수익 증대, 더 많은 수익원 확보를 위한 새로운 시장 접근, 기존 수익 증대 등이 포함됩니다. 생산성 향상, 인프라의 조합을 통해 비용 최적화를 달성할 수 있습니다.




AI 지원 자동 검사로 결함 및 가동 중지 시간 감소

3 분 읽기 - 매년 수백만 대의 차량을 생산하는 대규모 다국적 자동차 제조업체는 IBM과 협력하여 실시간 데이터와 인공 지능(AI)을 기반으로 하는 원활하고 자동화된 검사를 통해 제조 프로세스를 간소화했습니다. 자동차 제조업체로서 우리 고객은 고품질 제품을 제공해야 하는 고유한 의무가 있습니다. 이상적으로는 자동차가 소비자에게 인도되기 훨씬 전에 결함을 발견하고 수정해야 합니다. 이러한 결함은 종종 비용이 많이 들고 식별하기 어려우며 고객 만족에 수많은 심각한 위험을 초래합니다.…




watsonx Orders의 혁신적인 AI 기술 공개

4 분 읽기 - 감자튀김과 치즈버거를 먹기 위해 좋아하는 드라이브스루로 향합니다. 간단한 순서인데, 줄을 서다 보면 줄이 별로 없다는 것을 알 수 있습니다. 무엇이 잘못될 수 있나요? 풍부한. 레스토랑은 교통 소음이 심한 혼잡한 고속도로 근처에 있으며 비행기가 근처 공항에 접근할 때 머리 위로 낮게 날아갑니다. 바람이 많이 불어요. 뒤에 있는 차에서 스테레오가 울리고 있고 옆 차선에 있는 고객이 주문을 하려고 합니다…

IBM 뉴스레터

새로운 트렌드에 대한 최신 사고 리더십과 통찰력을 제공하는 뉴스레터와 주제 업데이트를 받아보세요.

지금 가입

더 많은 뉴스 레터

spot_img

최신 인텔리전스

spot_img