제퍼넷 로고

알고리즘으로 인한 차별에 대해 법적 책임이 덜한 것으로 간주되는 기업, 연구

시간

기업과 정부는 고용, 의료 및 가석방에 대한 의사 결정을 향상시키기 위해 알고리즘을 사용하고 있습니다. 알고리즘은 의사 결정에서 인간의 편견을 대체할 가능성이 있지만 종종 차별적인 결론에 도달합니다.

미국 심리학회(American Psychological Association)의 새로운 연구는 사람들이 인간 차별보다 알고리즘 차별에 덜 분노하는지 조사했습니다. 연구에 따르면 인간의 직접적인 개입이 아니라 알고리즘으로 인해 성차별이 발생했을 때 사람들이 도덕적으로 덜 분노하는 것으로 나타났습니다.

3,900개의 연구는 다양한 참가자 그룹에 걸쳐 고용 관행에서 성차별의 맥락에서 이 알고리즘적 분노 결핍 가설을 테스트합니다. 미국, 캐나다, 노르웨이에서 온 총 XNUMX명 이상의 사람들을 대상으로 한 XNUMX건의 실험에서 얻은 결과를 설명하기 위해 이 연구의 과학자들은 "알고리즘적 분노 결핍"이라는 용어를 만들었습니다.

알고리즘과 인간에 의한 고용 결정의 성차별에 대한 다양한 시나리오가 제시되었을 때 참가자들은 알고리즘에 의해 야기된 도덕적으로 덜 분노했습니다. 참가자들은 또한 회사가 알고리즘으로 인한 차별에 대한 법적 책임이 덜하다고 믿었습니다.

예일 대학의 박사후 연구원인 수석 연구원인 Yochanan Bigman 박사는 다음과 같이 말했습니다. “기업이 차별 관행에 대한 비난과 대중의 조사로부터 스스로를 보호하기 위해 알고리즘을 사용할 수 있다는 점은 우려스럽습니다. 이번 연구 결과는 더 넓은 의미를 가질 수 있고 차별 퇴치를 위한 노력에 영향을 미칠 수 있습니다.”

“사람들은 차별하는 인간을 인종차별이나 성차별과 같은 편견에 의해 동기가 부여된 것으로 보지만, 데이터에 의해 동기가 부여된 차별 알고리즘을 보았기 때문에 도덕적으로 덜 분노합니다. 도덕적 분노는 사람들이 불의에 대처하도록 동기를 부여하는 중요한 사회적 메커니즘입니다. 사람들이 차별에 대해 도덕적으로 덜 분노한다면, 차별에 대해 행동할 동기가 줄어들 것입니다.”

일부 실험은 여성 구직자에게 불이익을 준 Amazon의 알고리즘 기반 성차별의 실제 사례를 기반으로 한 시나리오를 사용했습니다. 연구는 성차별에 집중했지만 인종과 연령 편견을 조사하기 위해 XNUMX건의 시험 중 하나를 반복했을 때 비슷한 결과를 얻었습니다.

인공 지능에 대한 지식은 별 차이가 없는 것 같았습니다. 노르웨이의 150명 이상의 기술 근로자를 대상으로 한 한 실험에서 인공 지능 알고리즘으로 인한 성차별에 덜 분노했습니다.

과학자들은 사람들이 특정 알고리즘에 대해 더 많이 알게 되면 기분이 바뀔 수 있다는 것을 발견했습니다. 또 다른 연구에서 참가자들은 성차별의 역사가 있는 비즈니스의 남성 프로그래머가 성차별을 초래하는 고용 알고리즘을 개발했다는 ​​사실이 밝혀졌을 때 더 큰 분노를 표명했습니다.

큰 사람 말했다“프로그래머는 새로운 알고리즘을 설계할 때 의도하지 않은 차별의 가능성을 인식해야 합니다. 공교육 캠페인은 또한 알고리즘으로 인한 차별이 기존 불평등의 결과일 수 있음을 강조할 수 있습니다.”

저널 참조 :

  1. Yochanan E. Bigman, Desman Wilson et al. 알고리즘 차별은 인간 차별보다 도덕적 분노를 덜 유발합니다. DOI: 10.1037 / xge0001250
spot_img

최신 인텔리전스

spot_img

우리와 함께 채팅

안녕하세요! 어떻게 도와 드릴까요?