제퍼넷 로고

연구원들은 AI의 사회적 및 환경 적 영향을 측정하기위한 프레임 워크를 제안합니다

시간

새로 출판 된 종이 인쇄 전 서버 Arxiv.org에서 Montreal AI Ethics Institute, McGill University, Carnegie Mellon 및 Microsoft의 연구원들은 AI의 환경 및 사회적 영향을 정량화하기 위해 설계된 SECure라는 XNUMX가지 핵심 프레임워크를 제안합니다. 공동 저자는 컴퓨팅 효율적인 기계 학습, 연합 학습 및 데이터 주권과 같은 기술을 통해 과학자와 실무자가 역사적으로 불투명한 시스템에 대한 신뢰를 회복하면서 탄소 발자국에 대한 기여를 줄일 수 있다고 주장합니다.

지속 가능성, 개인 정보 보호 및 투명성 유지 과소 평가되고 해결되지 않은 AI의 도전. 2019년 XNUMX월, 매사추세츠 대학교 애머스트의 연구원들은 다음을 발표했습니다. 공부 주어진 모델을 훈련하고 검색하는 데 필요한 전력의 양을 추정하는 데는 약 626,000파운드의 이산화탄소 배출량이 포함되며 이는 평균 미국 자동차의 평생 배출량의 거의 5배에 해당합니다. 파트너십 DeepMind와 영국의 National Health Service가 추구하는 것과 같이 개발 및 시험 중인 AI 시스템의 본질을 은폐합니다. 그리고 민감한 AI 훈련 데이터 일반적으로 이해 관계자의 지식 없이 공개 웹으로 누출되는 경우가 많습니다.

SECure의 첫 번째 기둥인 컴퓨팅 효율적인 머신 러닝은 컴퓨팅 및 데이터 처리 인프라가 많은 조직과 관련이 없는 연구자에게 일반적으로 액세스를 불평등하게 만드는 컴퓨팅 부담을 줄이는 것을 목표로 합니다. 하드웨어 및 소프트웨어 구성 전반에 걸쳐 정량화된 비교를 수행하는 데 사용할 수 있는 표준화된 메트릭을 생성하여 사람들이 다른 시스템보다 한 시스템을 선택할 때 정보에 입각한 결정을 내릴 수 있도록 제안합니다.

SECure의 두 번째 기둥은 기계 학습 모델의 온디바이스 교육 및 추론을 수행하기 위한 메커니즘으로 연합 학습 접근 방식의 사용을 제안합니다. (이 맥락에서 연합 학습은 데이터 샘플을 교환하지 않고 데이터 샘플을 보유하는 서버 또는 분산형 장치 전반에 걸쳐 AI 알고리즘을 훈련하는 것을 의미하며, 이를 통해 여러 당사자가 데이터를 자유롭게 공유하지 않고도 모델을 구축할 수 있습니다.) 공동 저자가 언급했듯이 연합 학습은 탄소 영향을 줄일 수 있습니다. 깨끗한 소스를 사용하여 전기를 생산하는 곳에서 계산이 수행되는 경우. XNUMX차 이점으로 데이터 침해 및 개인 정보 침해를 포함하여 데이터 중앙 집중화로 인해 발생하는 위험과 피해를 완화합니다.

VB 변환 2020 온라인 – 15 월 17-XNUMX 일. 선도적 인 AI 경영진에 참여하십시오. 무료 라이브 스트림에 등록하십시오.

SECure의 세 번째 기둥인 데이터 주권은 강력한 데이터 소유권과 개인이 자신의 데이터가 사용되는 방식, 목적 및 기간을 제어할 수 있도록 하는 아이디어를 나타냅니다. 또한 AI와 관련된 다양성 및 포용성에 관한 논의에서 일반적으로 무시되는 소유권에 관한 다양한 규범을 존중하면서 사용자가 적합하다고 생각하는 경우 동의를 철회할 수 있습니다. 공동 저자는 일부 원주민 관점 데이터에 대한 데이터는 예를 들어 토착 토지에서 데이터를 유지하거나 사용하거나 특정 값과 일치하는 방식으로 처리해야 합니다.

연구원들은 "머신 러닝 영역, 특히 수많은 사용자의 대규모 데이터 세트가 풀링되는 경우 동의 철회가 큰 문제가 됩니다."라고 말했습니다. "특히, 오늘날 시스템을 재교육할 필요 없이 데이터 추적이나 사용자와 관련된 데이터의 영향을 제거할 수 있는 명확한 메커니즘이 없습니다."

SECure의 마지막 기둥인 LEED-esque 인증은 에너지 및 환경 디자인의 리더십 영감을 위해. 연구원들은 데이터 작업 및 맞춤형 워크플로(저장 및 컴퓨팅 성능 측면에서) 비용 측정을 포함하여 사용자가 다른 시스템과 비교하여 AI 시스템의 상태를 평가할 수 있도록 하는 메트릭을 제공하는 인증 프로세스를 제안합니다. 조직이 규정을 준수할 수 있도록 하는 도구를 개발하여 오픈 소스로 제공함으로써 관리 비용을 줄이기 위해 반자동화될 것입니다. 또한 사용자가 인증에서 원하는 정보와 정보를 가장 잘 전달할 수 있는 방법을 결정하기 위해 설계된 설문 조사를 통해 정보를 얻은 광범위한 사람들이 이해할 수 있습니다.

연구원들은 SECure가 대규모로 배포되면 소비자, 학계 및 투자자가 AI의 사회적 및 환경적 영향에 대해 더 많은 투명성을 요구하도록 자극을 줄 것이라고 믿습니다. 그들은 구매력을 사용하여 기술 진보의 진행을 주도하고 이상적으로는 두 가지 영향을 고려합니다. 공동 저자는 "임팩트 투자와 유사한 책임 있는 AI 투자는 SECure가 완벽하게 맞춰진 다양한 솔루션 간에 표준화된 비교를 허용하는 메커니즘을 통해 더 쉬울 것"이라고 썼습니다. "광범위한 관점에서 이 프로젝트는 공공 정책 측면에서 향후 권장 사항에 적합합니다."

비결은 물론 입양입니다. SECure는 다음과 경쟁합니다. 책임 있는 AI 라이선스(RAIL), 잠재적으로 유해한 AI 기술의 사용, 복제 및 배포를 제한하는 조항이 있는 일련의 최종 사용자 및 소스 코드 라이선스 계약. IBM이 별도로 제안한 자발적 팩트시트 서비스의 투명성을 높이는 것을 목표로 AI를 개발하고 제공하는 회사에서 작성하고 게시할 것입니다.

출처: http://feedproxy.google.com/~r/venturebeat/SZYF/~3/imbwCpSHrmE/

spot_img

최신 인텔리전스

spot_img

우리와 함께 채팅

안녕하세요! 어떻게 도와 드릴까요?