제퍼넷 로고

급증하는 AI 사고를 추적하기 위한 비영리 사이트 구축

시간

인터뷰 거짓 형상 가상의 흑인 유권자, 여성 급우의 포르노 딥페이크를 만드는 중학생, Google의 Gemini 챗봇이 지지하는 도널드 트럼프 실패 백인의 사진을 정확하게 생성합니다.

다음은 최근에 발생한 재난 중 일부입니다. AI 사고 데이터베이스 – 기술이 잘못되는 모든 다양한 방식을 감시하는 웹 사이트입니다.

처음에는 AI가 사회에 이익이 되도록 노력하는 그룹인 Partnership On AI의 후원 하에 프로젝트로 시작된 AI 사고 데이터베이스는 이제 Underwriters Laboratories에서 자금을 지원하는 비영리 조직이 되었습니다. 미국의 테스트 연구소. 가구부터 컴퓨터 마우스까지 모든 종류의 제품을 테스트하며 웹사이트에는 지금까지 1894개 이상의 고유한 자동화 및 AI 관련 사고 목록이 있습니다.

현재 AI 사건 데이터베이스 이사회에서 활동하고 있는 조지워싱턴대학교 경영대학원 조교수 패트릭 홀(Patrick Hall)은 “AI 시스템 제작자와 일반 소비자 사이에는 엄청난 정보 비대칭성이 있으며 이는 불공평하다”고 주장했습니다. . 그는 말했다 등록: “우리는 더 많은 투명성이 필요하며, 그 정보를 공유하는 것이 우리의 임무라고 생각합니다.”

AI 사고 데이터베이스는 비영리 단체가 설정한 CVE 프로그램을 모델로 합니다. MITRA, 또는 국립고속도로교통안전청 공개적으로 공개된 사이버 보안 취약성과 차량 충돌을 보고하는 웹사이트. "비행기 추락, 기차 추락 또는 대규모 사이버 보안 사고가 발생할 때마다 무엇이 잘못되었는지 이해하고 반복하지 않도록 무슨 일이 일어났는지 기록하는 것이 수십 년 동안 일반적인 관행이 되었습니다."

이 웹사이트는 현재 약 10명과 AI 관련 사건을 온라인으로 검토하고 게시하는 소수의 자원봉사자 및 계약자가 관리하고 있습니다. 헤더 프레이즈(Heather Frase), 조지타운 대학의 선임연구원 보안 및 신기술 센터 AI 평가에 초점을 맞춘 AI 사건 데이터베이스 책임자는 이 웹사이트가 소프트웨어의 취약점과 버그뿐만 아니라 AI의 위험과 피해로 인한 실제 영향에 초점을 맞춘다는 점에서 독특하다고 주장했습니다.

이 조직은 현재 언론 보도를 통해 사건을 수집하고 트위터에서 사람들이 보고한 문제를 검토합니다. AI 사고 데이터베이스는 250년 2022월 ChatGPT가 출시되기 전에 600개의 고유 사고를 기록했으며 현재 XNUMX개가 넘는 고유 사고를 나열합니다.

시간이 지남에 따라 AI 문제를 모니터링하면 흥미로운 추세가 드러나고 사람들이 기술의 실제 현재 피해를 이해할 수 있습니다.

조지워싱턴대학교 홀은 데이터베이스에 있는 보고서의 약 절반이 생성 AI와 관련이 있다고 밝혔습니다. 그 중 일부는 다음과 같은 "재미있고 어리석은 일"입니다. 이상한 제품 Amazon에서 "나는 그 요청을 이행할 수 없습니다"라는 제목으로 판매되었습니다. 이는 판매자가 설명을 작성하기 위해 대규모 언어 모델을 사용했다는 명확한 표시 또는 기타 AI 생성 스팸 사례입니다. 그러나 일부는 “정말 우울하고 심각하다”. 샌프란시스코에서 사고가 났을 때 크루즈 로봇택시가 달려가 여성을 바퀴 아래로 끌고 가는 것과 같은 것이다.

그는 “AI는 현재 대부분 황량한 서부이며, 빠르게 진행하여 모든 것을 깨뜨리는 태도를 갖고 있다”고 한탄했습니다. 기술이 사회를 어떻게 형성하고 있는지는 확실하지 않습니다. 팀은 AI 사건 데이터베이스가 기술이 오용되는 방식에 대한 통찰력을 제공하고 의도하지 않은 결과를 강조할 수 있기를 바라고 있습니다. 개발자와 정책 입안자가 더 나은 정보를 얻어 모델을 개선하거나 규제할 수 있기를 바랍니다. 가장 시급한 위험.

“주위에서 과대 광고가 많이 있습니다. 사람들은 실존적 위험에 대해 이야기합니다. 저는 AI가 인류 문명에 매우 심각한 위험을 초래할 수 있다고 확신합니다. 그러나 자율 주행 자동차와 관련된 많은 부상이나 사용되는 알고리즘을 통한 지속적인 편견과 같은 보다 실제적인 위험 중 일부는 분명합니다. 소비자 금융이나 고용 분야에서. 그것이 우리가 보는 것입니다.”

“우리가 많은 것을 놓치고 있다는 것을 알고 있습니다. 그렇죠? 모든 것이 언론에 보도되거나 포착되는 것은 아닙니다. 많은 경우 사람들은 자신이 겪고 있는 피해가 AI로 인해 발생한다는 사실조차 깨닫지 못할 수도 있습니다.”라고 Frase는 말했습니다. “신체적 피해가 많이 늘어날 것으로 예상됩니다. 우리는 대규모 언어 모델에서 발생하는 [주로] 심리적 피해와 기타 무형의 피해를 보고 있습니다. 하지만 일단 생성 로봇이 사용되면 신체적 피해가 훨씬 더 커질 것이라고 생각합니다.”

프레이즈는 AI가 인권과 시민의 자유를 침해할 수 있는 방식에 대해 가장 우려하고 있습니다. 그녀는 AI 사고를 수집하면 정책이 시간이 지남에 따라 기술을 더욱 안전하게 만들었는지 보여줄 것이라고 믿습니다.

Hall은 “문제를 해결하려면 문제를 측정해야 합니다.”라고 덧붙였습니다.

조직은 항상 자원봉사자를 찾고 있으며 현재 더 많은 사건을 포착하고 인식을 높이는 데 중점을 두고 있습니다. 프레이즈는 그룹의 멤버들이 AI 러다이트가 아니라는 점을 강조했습니다. “우리는 아마도 꽤 반AI적인 모습을 보일 것입니다. 그러나 그렇지 않습니다. 우리는 실제로 그것을 사용하고 싶습니다. 우리는 좋은 것만 원해요.”

홀은 동의했다. “기술이 계속해서 발전하려면 누군가가 기술을 더 안전하게 만드는 작업을 해야 합니다.”라고 그는 말했습니다. ®

spot_img

최신 인텔리전스

spot_img