제퍼넷 로고

Google 포토 AI는 고릴라를 정확하게 식별할 수 없습니다.

시간

Google 포토 AI가 고릴라를 정확하게 식별할 수 없음: 무엇이 잘못되었습니까?

Google 포토는 인공 지능(AI)을 사용하여 이미지를 자동으로 분류하고 라벨을 지정하는 인기 있는 사진 저장 및 공유 플랫폼입니다. 그러나 2015년 AI가 고릴라를 정확하게 식별할 수 없다는 사실이 밝혀지면서 이 플랫폼은 큰 반발에 직면했다. 이 사건은 AI의 한계와 이러한 시스템에 내장될 수 있는 잠재적 편향에 대한 질문을 제기했습니다.

어떻게 된 거예요?

이 사건은 Google 포토 사용자가 흑인 커플과 친구의 이미지가 포함된 일련의 사진을 업로드하면서 발생했습니다. AI 시스템은 사진에 "사람", "수염", "미소"와 같은 태그를 자동으로 붙였습니다. 하지만 사용자가 '고릴라'를 검색하면 AI 시스템이 같은 태그가 붙은 흑인 커플의 사진을 반환했다.

이 오류는 AI 시스템의 이미지 인식 알고리즘의 결함으로 인해 발생했습니다. 이 알고리즘은 고릴라의 다양한 예가 충분히 포함되지 않은 대규모 이미지 데이터 세트에서 훈련되었습니다. 그 결과 시스템은 고릴라를 정확하게 식별할 수 없었고 대신 인간으로 분류했습니다.

구글의 대응

Google은 사건에 대해 신속하게 사과하고 문제를 해결하기 위한 조치를 취했습니다. 회사는 시스템에서 '고릴라' 태그를 제거하고 향후 유사한 오류가 발생하지 않도록 이미지 인식 알고리즘을 개선하겠다고 약속했습니다.

또한 Google은 AI 시스템 작업을 위해 보다 다양한 엔지니어 및 데이터 과학자 팀을 고용했습니다. 회사는 또한 AI 기술의 책임 있는 개발 및 사용을 촉진하기 위해 "AI for Social Good"이라는 이니셔티브를 시작했습니다.

배운

Google 포토 사건은 AI의 한계와 데이터 및 팀의 다양성의 중요성을 강조합니다. AI 시스템은 훈련된 데이터만큼만 우수하며 해당 데이터가 편향되거나 불완전한 경우 시스템은 편향되거나 불완전한 결과를 생성합니다.

미래에 유사한 사고를 방지하기 위해 기업은 AI 시스템이 광범위한 예를 포함하는 다양한 데이터 세트에 대해 훈련되었는지 확인해야 합니다. 또한 개발 프로세스에 다양한 관점과 경험을 가져올 수 있는 다양한 엔지니어 및 데이터 과학자 팀을 고용해야 합니다.

결론

구글 포토와 고릴라 사건은 AI 업계에 경종을 울렸다. 가장 진보된 AI 시스템도 실수를 할 수 있으며 제대로 개발되고 테스트되지 않으면 이러한 시스템에 편향이 생길 수 있음을 보여주었습니다. 그러나 이러한 실수에 대한 책임을 지고 이를 해결하기 위한 조치를 취하는 것의 중요성도 보여주었습니다. 이 사건에서 배움으로써 우리는 모두에게 도움이 되는 보다 책임감 있고 포용적인 AI 시스템을 만들기 위해 노력할 수 있습니다.

spot_img

최신 인텔리전스

spot_img

우리와 함께 채팅

안녕하세요! 어떻게 도와 드릴까요?