제퍼넷 로고

인도 총리 고문, AI가 '대규모 정신분열증' 유발할 수 있다고

시간

인도 총리경제자문위원회(EACPM)는 현재의 글로벌 AI 규정이 효과적이지 않을 수 있다고 경고하는 문서를 작성했으며 금융 시장에서 사용되는 것과 같은 대체 전술로 기술을 규제할 것을 권장했습니다.

의회는 AI에 대해 매우 우려하고 있습니다. 해당 문서는 "감시, 설득력 있는 메시지, 합성 미디어 생성을 통해 악의적인 AI가 정보 생태계를 점점 더 통제하고 심지어 맞춤형 기만적 현실을 조작하여 인간 행동을 강요하여 대규모 정신분열증을 유발할 수 있다"고 경고합니다.

이 조직은 AI에 대한 미국의 접근 방식이 너무 불간섭적이라고 비판하고, 영국의 경우 혁신을 지향하고 자유방임주의로 인해 위험을 제시하며, EU의 AI 규칙은 블록 회원국들이 서로 다른 강조점과 적용을 쪼개고 채택하기 때문에 결함이 있다고 비판합니다. 집행 조치.

이 문서는 또한 "전능한 중앙집권적 관료제"로 규제하려는 중국의 경향에 결함이 있다고 주장합니다. 이는 "COVID-19의 실험실 누출 가능성"에서 입증되었습니다.

우리는 여기 거울을 통해 있습니다, 여러분.

(참고로 미국 국가정보국은 아무 징후도 발견되지 않았습니다 중국 연구실에서 바이러스가 유출됐다는 것.)

그러나 우리는 탈선합니다.

위원회는 AI가 "피드백 루프, 단계 전환 및 초기 조건에 대한 민감도를 통해 [진화하는] 분산형 자기 조직화 시스템"으로 간주할 것을 제안하고 금융 시장에서 볼 수 있는 비선형 개체, 개미 식민지의 행동과 같은 시스템의 다른 예를 제시합니다. 또는 트래픽 패턴입니다.

“전통적인 방법은 AI의 비선형적이고 예측 불가능한 특성으로 인해 부족합니다. AI 시스템은 구성 요소가 예측할 수 없는 방식으로 상호 작용하고 진화하는 CAS(복합 적응 시스템)와 유사합니다.” 설명 [PDF] 의회.

위원회는 AI 시스템이 초래할 위험을 미리 아는 것이 불가능하기 때문에 "사전" 조치에 의존하는 데 열중하지 않습니다. AI 시스템의 동작은 너무 많은 요인의 결과입니다.

따라서 이 문서는 인도가 다섯 가지 규제 조치를 채택할 것을 제안합니다.

  • 가드레일과 칸막이 설치, 이는 AI 기술이 의도된 기능을 초과하거나 핵무장 의사결정과 같은 위험한 영토를 침해하지 않도록 보장해야 합니다. 한 시스템의 가드레일을 어떻게든 위반하는 경우 파티션이 존재하여 확산되지 않도록 합니다.
  • 수동 재정의 및 승인 초크포인트 보장 인간이 통제할 수 있도록 하고 다중 요소 인증과 인간 의사 결정자를 위한 다단계 검토 프로세스를 통해 인간을 안전하게 유지합니다.
  • 투명성 및 설명 가능성 감사 친화적인 환경을 조성하기 위한 핵심 알고리즘에 대한 공개 라이센스, 정기적인 감사 및 평가, 표준화된 개발 문서 등의 조치를 통해 가능합니다.
  • 뚜렷한 책임 사전 정의된 책임 프로토콜, 표준화된 표준화된 사건 보고 및 조사 메커니즘을 통해 이루어집니다.
  • 전문 규제기관 설립광범위한 권한이 부여되고, 피드백 중심 접근 방식을 취하고, AI 시스템 동작을 모니터링 및 추적하고, 자동화된 경고 시스템을 통합하고, 국가 레지스트리를 구축합니다.

위원회는 주로 금융 시장에서 아이디어를 전달하는 방법에 대한 아이디어를 얻기 위해 다른 CAS 시스템을 살펴볼 것을 권장했습니다.

문서에서는 "금융 시장과 같은 혼란스러운 시스템을 관리하면서 얻은 통찰력은 복잡한 기술에 대한 실행 가능한 규제 접근 방식을 보여줍니다."라고 밝히며 전담 AI 규제 기관이 인도의 SEBI 또는 미국의 SEC와 같은 금융 규제 기관을 모델로 삼을 수 있음을 시사합니다.

시장이 위험에 처했을 때 해당 기관들이 거래 중단을 부과하는 것처럼, 규제 당국도 AI가 발목을 잡을 수 있는 유사한 "초크포인트"를 채택할 수 있습니다. 의무 재무 보고는 AI 운영자가 제출해야 할 공개 유형에 대한 좋은 모델입니다.

저자들의 우려는 AI의 편재성이 증가하고 작동의 불투명성이 결합되어 중요한 인프라, 국방 작전 및 기타 여러 분야가 위험에 처해 있다는 믿음에 의해 촉발되었습니다.

그들이 설명하는 위험 중에는 시스템이 인간의 통제를 넘어 반복적으로 자체 개선되고 "인간 복지에 어긋나는" "폭주 AI"와 "사소한 변화가 예상치 못한 중대한 결과를 초래할 수 있는" 시나리오인 나비 효과가 있습니다.

“따라서 이익 극대화를 목표로 하는 알고리즘, 훈련 세트, 모델에 대한 불투명한 국가 통제 시스템은 재앙적인 결과를 초래할 수 있습니다.”라고 위원회는 경고했습니다.

문서에서는 제안된 규정이 일부 시나리오를 배제해야 함을 의미할 수 있다고 지적합니다.

“우리는 모든 것의 초연결 인터넷을 결코 허용하지 않을 것입니다.”라고 위원회는 인정합니다. 그러나 강력한 규제를 통해 인류가 더 많은 이득을 얻을 수 있다는 결론을 내렸습니다.

“AI 도구를 만드는 사람들은 의도하지 않은 결과를 쉽게 내버려두지 않을 것이며 사전에 '게임에 스킨'을 삽입하게 될 것입니다. 인간은 재정의 및 승인 권한을 보유하게 됩니다. 정기적인 의무 감사에서는 설명 가능성을 강화해야 합니다.” ®

spot_img

최신 인텔리전스

spot_img