제퍼넷 로고

윤리적 AI는 2030년까지 광범위하게 채택되지 않을 것이라고 연구 결과가 나왔습니다.

시간

엔터프라이즈 데이터 기술 및 전략을 변환 2021.


A에 따라 새 보고서 Pew Research Center와 Elon University의 Imaging the Internet Center에서 발표한 보고서에 따르면 전문가들은 윤리적인 AI 디자인이 향후 602년 내에 광범위하게 채택될 것이라고 의심합니다. 2030명의 기술 혁신가, 비즈니스 및 정책 리더, 연구자, 활동가를 대상으로 한 설문조사에서 대다수는 XNUMX년까지 AI의 진화가 계속해서 이익과 사회 통제 최적화에 주로 초점을 맞출 것이며 이해관계자들이 다음에 대한 합의를 달성하는 데 어려움을 겪을 것이라고 우려했습니다. 윤리학.

AI를 윤리적으로 구현한다는 것은 회사마다 다른 의미를 갖습니다. 일부의 경우 "윤리적"이라는 말은 사람들이 자연스럽게 신뢰하는 경향이 있는 AI 채택을 의미합니다. 그것이 악의적일지라도 — 투명하고 책임감 있고 책임감 있는 방식으로. 다른 사람들에게는 AI 사용이 법률, 규정, 규범, 고객 기대 및 조직 가치와 일관되게 유지된다는 것을 의미합니다. 어떤 경우든 "윤리적 AI"는 편향된 데이터나 알고리즘의 사용을 방지하여 자동화된 결정이 정당하고 설명 가능하다는 보장을 제공합니다.

Pew University와 Elon University는 설문조사 응답자에게 "2030년까지 모든 종류의 조직에서 사용되는 대부분의 AI 시스템이 주로 공익에 초점을 맞춘 윤리적 원칙을 채택하게 될까요?"라고 물었습니다. 2030%는 공익을 지원하기 위한 윤리 원칙이 32년까지 대부분의 AI 시스템에 적용되지 않을 것이라고 예측한 반면, 2030%만이 이러한 원칙이 XNUMX년까지 시스템에 통합될 것이라고 믿었습니다.

"이러한 시스템은 주로 효율성, 규모, 자동화를 숭배하는 후기 자본주의의 맥락에서 구축되고 있습니다."라고 Microsoft 수석 연구원인 Danah Boyd가 Pew University와 Elon University에 말했습니다. “AI에 대한 진정한 윤리적 입장을 취하려면 후기 자본주의가 정당화하는 가치와 상반되는 세 가지 목표인 증강, 국지적 맥락, 포용에 초점을 맞춰야 합니다. 후기 자본주의의 논리에 의문을 제기할 수 있을 때까지는 윤리적 AI에 대해 의미 있게 이야기할 수 없습니다.”

설문 조사에 참여한 인터넷 선구자 Vint Cerf는 윤리적인 AI 설계를 채택하기 위한 "선의의 노력"이 있을 것이지만 좋은 의도가 반드시 원하는 결과를 가져오는 것은 아닐 것으로 예상합니다. 그는 “머신러닝은 아직 초기 단계이므로 다양한 종류의 실패와 그 결과를 예측하는 능력이 제한적입니다.”라고 말했습니다. “머신러닝 설계 공간은 거대하고 대부분 탐색되지 않았습니다. 최소한 분석적인 동작을 하는 일반 소프트웨어에 문제가 있다면 머신러닝은 또 다른 이야기입니다.”

오르막 전투

응답자의 정서는 유해한 AI의 사용을 줄이기 위한 업계와 규제 기관의 느린 진전을 반영합니다. 미국의 주요 연방법은 금지 사항을 포함하여 여전히 정체 상태입니다. 얼굴 인식차별적인 소셜 미디어 알고리즘. 최근 보스턴 컨설팅 그룹(Boston Consulting Group)에 따르면 완전히 성숙하고 책임감 있는 AI 구현을 갖춘 조직은 절반 미만입니다. 측량. FICO 보고서에 따르면 기업의 65%는 AI 예측이 어떻게 이루어지는지 설명할 수 없는 반면, 38%만이 모델 개발 프로세스에 편향 완화 단계를 내장하고 있습니다. 발견.

“AI는 그냥 '디지털 처리'로 대체하면 됩니다. 우리는 규모와 수익성에 집착하는 디지털 처리 서비스를 설계하는 사람들의 동물적 정신이 윤리에 대한 내부 기억에 의해 제한될 것이라고 믿을 근거가 없으며 외부적으로 그러한 제약을 가할 수 있는 기관도 없습니다." Susan Crawford , 하버드 로스쿨 교수이자 전 오바마 백악관 과학 기술 및 혁신 정책 특별 보좌관인 Pew and Elon University 보고서에 언급된 바 있습니다.

이러한 어려움에도 불구하고 최근의 발전 상황에 따르면 적어도 특정 지역에서는 흐름이 바뀌고 있을 수 있습니다. 지난 XNUMX월, 유럽연합의 행정부인 유럽위원회는 채용, 중요 인프라, 신용 평가, 이주, 법 집행 알고리즘에 대한 엄격한 보호 조치를 포함하여 AI 사용에 대한 규정을 발표했습니다. 다음과 같은 도시 암스테르담 과 헬싱키 시작했다 AI 레지스트리 각 시 정부가 알고리즘을 사용하여 서비스를 제공하는 방법을 자세히 설명합니다. 그리고 측정 과학을 장려하는 미국 상무부 기관인 국립표준기술연구소(NIST)는 AI 시스템에 대한 사용자 신뢰를 평가하는 방법을 제안했습니다.

그러나 Douglas Rushkoff와 같은 전문가들은 이것이 힘든 싸움이 될 것이라고 믿습니다. “왜 AI가 도덕적 원칙에 따라 개발이 결정되는 최초의 기술이 되어야 할까요? 우리는 이전에 해본 적이 없고 지금도 그런 일이 일어나는 것을 보지 못합니다.”라고 뉴욕 시립 대학의 미디어 이론가이자 교수는 Pew와 Elon 대학에 말했습니다. “가장 기본적으로 AI가 윤리적으로 개발되지 않을 것이라고 생각하는 이유는 AI가 인간의 상태를 개선하기 위한 것이 아니라 돈을 벌려는 기업에 의해 개발되기 때문입니다. 따라서 농장에서 물 사용을 최적화하거나 기타 제한된 자원을 관리하는 데 사용되는 몇 가지 간단한 AI가 있지만 대부분은 사람에게 사용되고 있다고 생각합니다.”

VentureBeat

VentureBeat의 사명은 기술 의사 결정권자가 혁신적인 기술과 거래에 대한 지식을 습득 할 수있는 디지털 타운 스퀘어가되는 것입니다. 당사 사이트는 데이터 기술 및 전략에 대한 필수 정보를 제공하여 조직을 이끌 때 안내합니다. 다음에 액세스 할 수 있도록 커뮤니티의 일원이되도록 귀하를 초대합니다.

  • 관심있는 주제에 대한 최신 정보
  • 뉴스 레터
  • 금지 된 사고 리더 콘텐츠 및 다음과 같은 소중한 이벤트에 대한 할인 된 액세스 변환 2021: 더 알아보기
  • 네트워킹 기능 등

회원 가입

코인 스마트. 유로파 최고의 비트 코인-보르 스
출처: https://venturebeat.com/2021/06/17/ethical-ai-will-not-see-broad-adoption-by-2030-study-suggests/

spot_img

최신 인텔리전스

spot_img