제퍼넷 로고

DeepMind 과학자는 Google이 지속적인 반발에 직면함에 따라 윤리적 AI를 요구합니다.

시간

귀사는 AI 채택 곡선에서 어디에 서 있습니까? 우리의 AI 설문 조사 찾아내는 것.


Google DeepMind의 연구 과학자인 Raia Hadsell은 "책임감 있는 AI는 모두를 위한 직업"이라고 믿습니다. 오늘 가상 회의에서 그녀의 논문이었습니다. 기술 프라이드 서밋 레즈비언, 그녀는 현재 현장을 괴롭히는 문제와 AI가 윤리적으로 개발되고 배포되도록 하기 위해 필요하다고 느끼는 조치에 대해 설명했습니다.

“AI는 앞으로 몇 년 안에 세상을 바꿀 것입니다. 그러나 그것은 매우 강력한 기술이기 때문에 우리는 이러한 혜택, 특히 편향, 피해 또는 사회적 불평등 확대로 이어질 수 있는 고유한 위험을 인식해야 합니다.”라고 그녀는 말했습니다. "책임감 있게 AI를 구축하기 위해 커뮤니티로 함께 할 수 있기를 바랍니다."

AI 접근 방식은 알고리즘적이고 일반적이며, 이는 본질적으로 다중 사용을 의미합니다. 한쪽에는 질병을 치료하고 황금빛 미래를 여는 약속이 있고 다른 한쪽에는 비윤리적인 접근과 위험한 사용 사례 이미 피해를 주고 있는 것입니다. 많은 일이 진행 중인 상황에서 이러한 기술에 접근하는 방법은 거의 명확하지 않습니다.

Hadsell은 규제 기관, 변호사, 윤리학자 및 철학자가 중요한 역할을 하지만 특히 연구자와 과학자가 책임 있는 AI를 구축하기 위해 적극적으로 할 수 있는 일에 관심이 있다고 강조했습니다. 그녀는 또한 연구 커뮤니티 내에서 만난 저항과 지금까지 그녀가 가져온 변화에 대해 자세히 설명했습니다.

데이터, 알고리즘 및 애플리케이션

AI를 괴롭히는 문제는 잘 알려져 있지만 Hadsell은 데이터, 알고리즘 및 응용 프로그램의 뿌리에 대한 개요를 제공했습니다.

우선 데이터는 현대 AI의 생명줄이며, 주로 다음을 기반으로 합니다. 기계 학습. Hadsell은 수백만 또는 수십억 개의 인간 데이터 포인트를 기반으로 구축된 이러한 데이터 세트를 사용할 수 있는 능력은 "진정한 엔지니어링의 위업"이지만 함정이 있다고 말했습니다. 사회 바이어스 불평등은 종종 데이터에 인코딩된 다음 데이터 세트에서 훈련된 AI 모델에 의해 악화됩니다. 그녀는 "젊은 박사 과정 학생의 무책임한 열정으로 너무 자주 타협했다"고 말하면서 개인 정보 보호 및 동의 문제도 있습니다.

Hadsell은 또한 딥페이크 문제를 제기했으며 딥페이크를 생성하는 데 사용된 것과 동일한 알고리즘이 날씨 예측에도 사용된다고 말했습니다. 현재 로봇 공학 및 기타 제어 시스템의 근본적인 문제를 해결하는 데 중점을 두고 연구하고 있는 Hadsell은 "많은 AI 연구 커뮤니티가 기초 연구에 참여하고 있으며 이는 해당 연구의 실제 배포와는 다른 세계로 보일 수 있습니다."라고 말했습니다.

문화를 바꾸다

이벤트 기간 동안 Hadsell은 새로운 알고리즘에 대한 논문을 작성한 동료와 이야기한 것을 회상했습니다. 연구의 가능한 미래 영향에 대해 논의하라는 요청을 받았을 때 동료는 그들이 윤리학자가 아니라 과학자이기 때문에 "미래에 대해 추측할 수 없다"고 대답했습니다.

“잠깐만, 당신의 논문은 당신의 알고리즘이 암을 치료하고 기후 변화를 완화하며 평화와 번영의 새 시대를 열 수 있다고 주장합니다. 약간 과장한 것일 수도 있지만, 그것이 미래에 대해 추측할 수 있다는 것을 증명한다고 생각합니다.”라고 Hadsell은 말했습니다.

이 상호 작용은 일회성이 아닙니다. Hadsell은 많은 연구원들이 부정적인 영향에 대해 논의하기를 원하지 않으며 "AI가 사회에 미치는 광범위한 영향에 대한 책임과 의무를 거부하는 경향이 있다"고 덧붙였다. 그녀가 믿는 해결책은 연구 문화를 바꾸다 견제와 균형을 보장하기 위해.

NeurIPS의 계산

NeurIPS는 세계에서 가장 크고 권위 있는 AI 컨퍼런스이지만 지난 2020년 동안 참석자 수와 제출된 논문의 수가 기하급수적으로 증가했음에도 불구하고 XNUMX년 이전에는 저자에게 제공되는 윤리적 지침이 없었습니다. 게다가 논문은 윤리적 질문을 고려하지 않고 기술적 장점에 따라 엄격하게 평가되었습니다.

따라서 Hadsell이 예상되는 10,000개의 논문에 대한 검토 프로세스를 설계하는 임무를 맡은 XNUMX명의 프로그램 의장 중 한 명으로 초대되었을 때 작년, 그녀는 두 가지 변화를 시작했습니다. 하나는 논란의 여지가 있는 것으로 간주되는 논문에 대해 정보에 입각한 피드백을 제공하기 위해 윤리 고문 풀을 모집하는 것이었습니다. 다른 하나는 모든 단일 저자가 자신의 작업과 함께 더 광범위한 영향 진술을 제출하도록 요구하는 것이었습니다. 이는 가능한 완화뿐만 아니라 잠재적인 긍정적 및 부정적 미래 영향을 논의해야 합니다.

영향 진술에 대한 이 아이디어는 새로운 것이 아닙니다. 실제로 의학 및 생물학과 같은 다른 과학 분야의 일반적인 요구 사항입니다. 그러나 이러한 변화는 모든 사람에게 잘 적용되지 않았습니다. Hadsell은 그녀가 "친구를 많이 사귀지 못했다"고 말했고 약간의 눈물이 있었지만 나중에 일부 저자는 그것이 귀중한 경험이었고 심지어 새로운 연구 방향에 영감을 주었다고 말했습니다. 그녀는 또한 그러한 진술을 요구하는 회의가 증가하고 있다고 덧붙였습니다.

“수천 개의 논문에 더 광범위한 영향 설명을 추가하는 것만으로는 책임 있는 AI로 문화를 바꾸기에 충분하지 않습니다. 시작에 불과합니다.”라고 Hadsell은 말했습니다. 그녀는 또한 이러한 리뷰가 각각의 새로운 기술 혁신의 위험과 이점에 대한 정직한 조사가 아니라 "체크 박스 형식"이 될 위험이 있다고 언급했습니다. "따라서 우리는 무결성을 유지하고 더 광범위한 영향 진술에서 책임 있는 AI에 이르기까지 계속 발전해야 합니다."

산책하기

Hadsell의 이야기가 시작되기도 전에 방에 코끼리가 있었습니다. 소유하고 있는 구글 유명한 DeepMind 연구소 2014년 이후로 윤리적 AI에 대한 최고의 실적을 가지고 있지 않습니다. 이 문제는 Google이 팀니트 게브루 해고, 가장 유명한 AI 연구원 중 한 명이자 AI 윤리 팀의 공동 리더인 수천 명의 회사 직원이 "보복적 해고"라고 불렀습니다. 게브루는 대규모 언어 모델 배포의 위험에 대한 연구를 철회하기를 거부한 후 이메일 때문에 해고당했다고 말했습니다. 윤리팀의 다른 공동 책임자인 마가렛 미첼도 해고됐다.

참석자들은 Hadsell의 연설이 시작되자마자 주제에 대한 질문을 채팅에 떨어뜨렸습니다. "AI 윤리와 (Timnit Gebru와 같은) AI 알고리즘에 대한 Google 연구의 부정적인 영향에 대해 말하는 목소리가 거부된다면 어떻게 책임과 책임의 문화를 구축할 수 있습니까?" 한 참석자가 물었다. 또 다른 사람은 Hadsell이 회사의 다른 부분에서 일하고 있음을 인정했지만 여전히 해고에 대한 그녀의 생각을 물었습니다.

Hadsell은 이미 공개된 것 외에 추가 정보나 통찰력이 없다고 말했습니다. 그녀는 덧붙였습니다. “내가 말할 것은 DeepMind에서 우리는 커뮤니티와 내부에서 우리가 가진 목소리와 우리가 작성하고 발행하는 출판물이 우리의 다양성과 DeepMind의 모든 다양한 목소리를 표현하는지 확인하는 데 정말로 관심이 있다는 것입니다. Google의 알고리즘과 상관없이 모든 사람이 AI의 윤리와 위험에 대해 말할 기회를 갖는 것이 중요하다고 생각합니다.”

VentureBeat

VentureBeat의 사명은 기술 의사 결정권자가 혁신적인 기술과 거래에 대한 지식을 습득 할 수있는 디지털 타운 스퀘어가되는 것입니다. 당사 사이트는 데이터 기술 및 전략에 대한 필수 정보를 제공하여 조직을 이끌 때 안내합니다. 다음에 액세스 할 수 있도록 커뮤니티의 일원이되도록 귀하를 초대합니다.

  • 관심있는 주제에 대한 최신 정보
  • 뉴스 레터
  • 금지 된 사고 리더 콘텐츠 및 다음과 같은 소중한 이벤트에 대한 할인 된 액세스 변환 2021: 더 알아보기
  • 네트워킹 기능 등

회원 가입


PlatoAi. Web3 재창조. 데이터 인텔리전스 증폭.

액세스하려면 여기를 클릭하십시오.

출처: https://venturebeat.com/2021/06/22/deepmind-scientist-calls-for-ethical-ai-as-google-faces-ongoing-backlash/

spot_img

최신 인텔리전스

spot_img