제퍼넷 로고

Google은 역사를 끔찍하게 잘못 묘사하여 Gemini를 정지합니다.

시간

Comment Google은 특정 역사적 맥락에서 백인 유럽인과 미국인을 정확하게 표현하지 못한 후 최근 출시된 Gemini 다중 모드 기반 AI 모델에서 텍스트-이미지 변환 기능의 가용성을 중단했습니다.

이것이 되었다 명백한 사람들이 Gemini에게 제작을 요청했을 때 형상 1943년의 독일 군인의 이미지와 소프트웨어는 유색 인종이 독일군에서 복무했음에도 불구하고 당시 Wehrmacht의 구성을 정확하게 나타내지 못하는 인종적으로 다양한 비백인 간부를 방출했습니다. 요컨대, Gemini는 프롬프트에 따라 백인을 너무 많이 또는 심지어 전혀 보여주지 않기 위해 스스로 넘어질 것입니다.

발언은 자유로워야 하지만 그렇다고 해서 끔찍한 일이 대가 없이 이루어져야 한다는 뜻은 아닙니다.

사용자들은 또한 모델의 무능력 미국의 모습을 정확하게 표현하기 위해 건국의 아버지 – 또 다른 동질적인 백인 그룹. 모델도 거부 샌프란시스코의 교회를 묘사하기 위해.

텍스트-텍스트 모드에서는 모델이 헤지 정치에 관한 질문을 받았을 때.

"우리는 Gemini가 일부 과거 이미지 생성 묘사에서 부정확성을 제공하고 있다는 것을 알고 있습니다." Google 인정한 이번 주.

“우리는 이러한 종류의 묘사를 즉시 개선하기 위해 노력하고 있습니다. Gemini의 AI 이미지 생성은 다양한 사람들을 생성합니다. 그리고 전 세계 사람들이 그것을 사용하기 때문에 그것은 일반적으로 좋은 것입니다. 하지만 여기서는 표시가 빠졌습니다.”라고 웹 거대 기업은 덧붙였습니다.

Punditariat는 신속하게 공격하고 SNAFU를 사용하여 더 광범위한 정치적 주장을 진행했습니다.

"제미니가 생성한 우스꽝스러운 이미지는 예외가 아닙니다." 선언 한 벤처 투자가 폴 그레이엄(Paul Graham)은 “구글의 관료적 기업 문화의 자화상이다.”라고 말했습니다.

이는 Google의 관료적 기업 문화를 보여주는 자화상입니다.

다양성, 형평성, 포용성을 반대하는 많은 적들이 다양성, 형평성, 포용성의 부족에 대해 이렇게 분노한 적은 결코 없었습니다. 그러나 Gemini의 무지함을 찾기 위해 Google을 필요로 하는 사람들에게는 요점이 있습니다. AI 가드레일은 작동하지 않으며 성인을 어린이처럼 대합니다.

"Google에서 레시피를 검색했는데 결과를 제공하는 대신 '요리의 위험성'에 대해 강의하고 레스토랑으로 보낸다고 상상해 보세요." 보이지 않네요 NSA 내부 고발자 에드워드 스노든. "일관되지 않은 '안전' 필터로 AI/GPT 모델을 오염시키는 것이 좋은 생각이라고 생각하는 사람들은 일반 계산에 위협이 됩니다."

우리의 미래는 예견됐어 2001 : 스페이스 오디세이, 악성 컴퓨터인 HAL이 “미안해요 데이브, 저는 그렇게 할 수 없을 것 같아요”라고 선언했습니다.

오늘날 우리의 AI 도구는 우리보다 더 잘 알고 있기 때문에 우리를 추측합니다. 즉 제작자가 상상하는 것입니다. 그것들이 완전히 틀린 것은 아닙니다. 신경작용제 제조법을 찾아본다고 상상해 보세요. 노비 초크 Google이나 Gemini를 통해 사람을 죽일 수 있는 답을 얻을 수 있습니다. 이는 일반 대중에 대한 위협입니다.

"세계의 정보를 정리하여 보편적으로 접근 가능하고 유용하게 만드는 것"이라는 Google의 사명에도 불구하고, 실제로 검색 엔진이나 AI 모델이 폭탄 제조 정보를 정리하여 모든 사람이 사용할 수 있게 만들 것이라고 기대하는 사람은 아무도 없습니다. 책임과 함께 안전 통제가 필요합니다. 기술 업계는 계속해서 이를 회피하고 있습니다.

당신은 제품이자 이익의 중심입니다

사용자 생성 콘텐츠와 소셜 미디어가 1990년대에 등장한 이후 230년 미국 통신 품위법(Communication Decency Act) 1996항의 플랫폼 책임 보호에 따라 기술 플랫폼은 사람들이 디지털 콘텐츠를 제공하고 공유하도록 장려해 왔습니다. 그들은 편집 감독 비용 없이 광고를 통해 무료 콘텐츠 제작으로 수익을 창출하기 위해 그렇게 했습니다. 수익성이 좋은 계약이었습니다.

그리고 사람들이 증오, 부적절, 불법 또는 기타 문제가 있는 게시물을 공유할 때 기술 플랫폼은 콘텐츠 조정 정책, 저임금 계약자(종종 검토한 콘텐츠로 인해 정신적 충격을 받음), 유해한 콘텐츠가 얼마나 많이 차단되었는지에 대한 자축 선언에 의존해 왔습니다. 그들은 계속해서 온라인 참여의 보상을 얻고 있습니다.

Google, Meta 및 기타 업체에서는 수년간 불완전하게 이 작업을 수행해 왔습니다. 업계의 모든 사람들은 콘텐츠 조정이 중요하다는 점을 인정합니다. 잘하기 어렵다. 간단히 말해서 모든 사람을 만족시킬 수는 없습니다. 그리고 때로는 비난을 받기도 합니다. 대량 학살을 촉진 귀하의 콘텐츠 조정 노력에 대한 무관심을 통해.

인종적, 민족적 기대에 부응하는 역사적 이미지를 재현하지 못하는 Gemini의 무능력은 이전의 다작 콘텐츠 조정 실패에 대한 기술 산업의 이기적인 무지를 반영합니다.

Google과 AI 모델을 출시하는 다른 업체에서는 안전이 온라인 콘텐츠 조정과 다소 다른 것처럼 이야기합니다. 가드레일은 소셜 미디어 조정에 적합하지 않으며 AI 모델에도 적합하지 않습니다. 소셜 미디어 안전과 마찬가지로 AI 안전도 실제보다 더 열망적입니다.

그 대답은 필터링되지 않은 인터넷의 독성에 대해 훈련된 AI 모델이 덜 독성을 갖게 될 수 있는 모든 시나리오를 예상하는 것이 아닙니다. 또한 너무 길들여 가치가 낮은 결과를 생성하는 재료에 대해서만 AI 모델을 훈련하지도 않을 것입니다. 이 두 접근 방식 모두 특정 상황에서는 어느 정도 가치가 있습니다.

대답은 배포 계층에서 나와야 합니다. AI를 사용하든 다른 방식으로든 사용자 제작 콘텐츠를 배포하는 기술 플랫폼은 증오 콘텐츠, 허위 정보, 부정확성, 정치적 선전, 성적 학대 이미지 등을 게시하는 데 더 많은 책임을 져야 합니다.

사람들은 연필을 사용하는 것처럼 AI 모델을 사용하여 상상하는 모든 것을 만들 수 있어야 하며 이미 오픈 소스 모델을 사용하여 가능합니다. 그러나 완전한 기능을 갖춘 도구로 인해 발생할 수 있는 피해는 로컬 하드 드라이브에 있는 이미지로 인한 것이 아닙니다. 유해한 콘텐츠를 공유하고, 해당 참여에 알고리즘을 강화하며, 대중을 해친 것에 대해 사람들에게 책임을 묻는 것이 비실용적입니다.

이는 공유를 통해 수익을 창출하도록 구축된 플랫폼이 비즈니스 모델을 재고해야 할 수도 있음을 의미할 수 있습니다. 편집 감독 비용 없이 콘텐츠를 배포하더라도 감독 기능이 중재자나 가드레일로 다시 구현되면 비용 절감 효과가 없을 수도 있습니다.

발언은 자유로워야 하지만, 그렇다고 해서 끔찍한 일이 대가 없이 이루어져야 한다는 뜻은 아닙니다. 결국 우리는 적절한 인센티브가 주어지면 최고의 콘텐츠 조정자가 됩니다. ®

spot_img

최신 인텔리전스

spot_img