제퍼넷 로고

Deepfake 탐지기 및 데이터 세트가 인종 및 성별 편견을 나타낸다고 USC 연구에 따르면

시간

이번 2021 월 12 일부터 16 일까지 Transform XNUMX에 참여하세요. FO 등록r 올해의 AI 이벤트.


일부 전문가는 머신 러닝 도구를 사용하여 딥 페이크 또는 기존 비디오에있는 사람을 다른 사람의 초상으로 대체하는 비디오를 만들 수 있다는 우려를 표명했습니다. 두려움은 이러한 가짜가 선거 중에 의견을 흔들거나 범죄에 연루되는 것과 같은 일을하는 데 사용될 수 있다는 것입니다. 이미 딥 페이크가 남용되어 음란물 배우의 주요 에너지를 속이고 제작자.

다행히 딥 페이크를 감지하는 자동화 된 방법을 개발하기위한 노력이 진행 중입니다. Amazon 및 Microsoft와 함께 Facebook은 딥 페이크 감지 챌린지, 지난 XNUMX 월에 종료되었습니다. 챌린지의 출시는 시각적 딥 페이크의 큰 코퍼스 Google의 내부 기술 인큐베이터 인 Jigsaw와 협력하여 제작되었으며, 이는 합성 비디오 감지 시스템 개발을 위해 연구원이 무료로 사용할 수있는 벤치 마크에 통합되었습니다. 보다 최근에 Microsoft는 미디어가 인위적으로 조작되지 않았다는 신뢰 수준에 대한 점수를 제공하기 위해 스틸 사진 또는 비디오를 분석 할 수있는 시스템 인 Video Authenticator에서 자체 딥 페이크 전투 솔루션을 출시했습니다.

그러나 서던 캘리포니아 대학의 연구원에 따르면 딥 페이크 탐지 시스템을 훈련하는 데 사용되는 데이터 세트 중 일부는 특정 성별이나 특정 피부색을 가진 사람들을 과소 표현할 수 있습니다. 이 편향은 딥 페이크 탐지기에서 증폭 될 수 있으며 일부 탐지기에서는 인종 그룹에 따라 오류율이 최대 10.7 % 차이가 나기도합니다.

편향된 딥 페이크 감지기

그 결과는 놀랍지 만 컴퓨터 비전 모델이 해롭고 만연한 편견에 취약하다는 이전 연구와 일치합니다. 지난 가을 신문 콜로라도 대학교에서 볼더 연구원은 Amazon, Clarifai, Microsoft 및 기타 업체의 AI가 시스 젠더 남성과 여성의 정확도를 95 % 이상으로 유지했지만 트랜스 남성을 38 %의 시간 동안 여성으로 잘못 인식했음을 입증했습니다. 주요 공급 업체 시스템의 독립적 인 벤치 마크 성별 가리개 프로젝트 NIST (National Institute of Standards and Technology) 안면 인식 기술이 인종 및 성별 편견을 보여주고 현재 안면 인식 프로그램이 매우 부정확 할 수 있으며 시간의 96 %.

University of Southern California 그룹은 "딥 페이크 비디오 탐지에서 입증 된 성공"으로 세 가지 딥 페이크 탐지 모델을 살펴 보았습니다. 모두 Google의 DeepfakeDetection, CelebDF 및 DeeperForensics-1.0을 포함한 말뭉치뿐만 아니라 딥 페이크 감지기에 일반적으로 사용되는 FaceForensics ++ 데이터 세트에서 훈련되었습니다.

벤치 마크 테스트에서 연구원들은 모든 감지기가 더 어두운 검은 색 얼굴, 특히 남성 검은 색 얼굴을 가진 비디오에서 최악의 성능을 보였다는 것을 발견했습니다. 여성 아시아 인 얼굴이 포함 된 동영상의 정확도가 가장 높았지만 데이터 세트에 따라 탐지기는 백인 (특히 남성)과 인도인 얼굴에서도 잘 작동했습니다. .

연구원들에 따르면 딥 페이크 탐지 데이터 세트는 성별 및 인종 그룹 측면에서“강하게”불균형을 보였으며 FaceForensics ++ 샘플 비디오는 여성이 58 % (대부분 백인)가 남성 41.7 %에 비해 더 많았습니다. 실제 동영상의 5 % 미만이 흑인 또는 인도인을 보여 주었고 데이터 세트에는 한 사람의 얼굴이 다른 인종이나 성별의 다른 사람으로 바뀌는 "불규칙한 교체"가 포함되어있었습니다.

이러한 불규칙한 스왑은 완화 바이어스는 사실 탐지기의 바이어스의 적어도 일부에 대한 책임이라고 공동 저자들은 가설을 세웠다. 데이터 세트에 대해 훈련 된 탐지기는 가짜와 예를 들어 아시아 얼굴 특징 간의 상관 관계를 학습했습니다. 한 코퍼스는 아시아 인 얼굴을 여성 백인 얼굴과 여성 히스패닉 얼굴로 바꾼 전경 얼굴로 사용했습니다.

“실제 시나리오에서 여성 아시아 인 또는 여성 아프리카 인의 얼굴 프로필은 백인 남성 프로필보다 가짜로 잘못 분류 될 가능성이 1.5 ~ 3 배 더 높습니다. 가짜로 잘못 식별 된 실제 피험자의 비율이 훨씬 더 클 수 있습니다. 연구자들은 남성보다 여성이 더 많았다.

실제 위험

이 발견은 "최고의"AI 시스템이라고해서 반드시 흠 잡을 데없는 것은 아니라는 사실을 완전히 상기시켜줍니다. 공동 저자가 언급했듯이, 연구에서 적어도 하나의 딥 페이크 탐지기는 테스트 데이터 세트에서 90.1 %의 정확도를 달성했습니다.

연구진은“전체 데이터 세트에 대한 탐지 정확도와 같은 단일 성능 지표를 사용하는 것만으로는 딥 페이크 탐지기의 대규모 상업적 출시를 정당화하기에 충분하지 않습니다. “딥 페이크가 더욱 널리 보급됨에 따라 딥 페이크를 방지하기 위해 자동화 시스템에 대한 의존도가 증가하고 있습니다. 우리는 실무자들이 이러한 고 영향 시스템의 모든 사회적 측면과 결과를 조사해야한다고 주장합니다.”

이 연구는 상업용 딥 페이크 비디오 탐지 시장의 성장에 비추어 특히시기 적절합니다. 암스테르담 기반 딥트레이스 연구소 소셜 미디어, 비디오 호스팅 플랫폼 및 허위 정보 네트워크에 업로드 된 딥 페이크를 분류하기위한 모니터링 제품 모음을 제공합니다. 이들 조작 된 비디오의 데이터 세트에 대해 훈련 된 딥 페이크 감지기를 개선하기위한 기술을 제안했습니다. 그리고 Truepic 8 년 2018 월에 XNUMX 만 달러의 기금 모금 비디오 및 사진 딥 페이크 감지 서비스를 제공합니다. 2018 년 XNUMX 월,이 회사는 DARPA에서 가짜 이미지 탐지기를 라이센스 한 또 다른 딥 페이크 "서비스로서의 탐지"스타트 업인 Fourandsix를 인수했습니다.

VentureBeat

VentureBeat의 사명은 기술 의사 결정권자가 혁신적인 기술과 거래에 대한 지식을 습득 할 수있는 디지털 타운 스퀘어가되는 것입니다. 당사 사이트는 데이터 기술 및 전략에 대한 필수 정보를 제공하여 조직을 이끌 때 안내합니다. 다음에 액세스 할 수 있도록 커뮤니티의 일원이되도록 귀하를 초대합니다.

  • 관심있는 주제에 대한 최신 정보
  • 뉴스 레터
  • 금지 된 사고 리더 콘텐츠 및 다음과 같은 소중한 이벤트에 대한 할인 된 액세스 변환 2021: 더 알아보기
  • 네트워킹 기능 등

회원 가입

코인 스마트. 유로파 최고의 비트 코인-보르 스
출처 : https://venturebeat.com/2021/05/06/deepfake-detectors-and-datasets-exhibit-racial-and-gender-bias-usc-study-shows/

spot_img

최신 인텔리전스

spot_img

우리와 함께 채팅

안녕하세요! 어떻게 도와 드릴까요?