제퍼넷 로고

전문가들은 무기 시스템 위원회의 Lords' AI를 주시합니다.

시간

기술법과 소프트웨어 전문가들은 AI 기반 무기에 전장 결정에 대한 책임을 기술적으로 넘기는 것이 기술적으로 가능한지에 대해 이번 주 영국 상원과 충돌했다.

목요일 무기 시스템 위원회의 AI 청문회에서 Lords는 그것이 결국 가능할 수 있다는 생각으로 전문가들을 끌어들이기 위해 고군분투했거나, 전쟁에서 AI 도입에서 입지를 잃을 것을 분명히 우려하면서 조심스럽게 도입했습니다.

Richmond의 Lord Houghton은 위원회가 어떤 종류의 법적 프레임워크에서 발전하는 방법을 추천하고 싶다고 말했습니다.

전 영국군 참모총장이 차등과 비례가 결국 자율적으로 해제될 수 있는지에 대한 논평을 요청했다.

사우샘프턴 대학(University of Southampton)의 국제 관계 교수인 크리스티안 에네마르크(Christian Enemark) 교수는 "인간만이 차별을 할 수 있고, 인간만이 비례를 할 수 있으며, 인간이 아닌 존재에 의한 자율적 방출은 철학적으로 난센스"라고 반박했습니다.

Lord Houghton은 다음과 같이 대답했습니다. “점점 기술의 발전으로 이러한 종류의 위임이 이루어질 수 있는 봉투가 발전할 수 있습니다.”

신뢰성 도구 공급업체 Stanza Systems의 수석 소프트웨어 엔지니어인 AI 윤리 전문가 Laura Nolan은 AI의 전장 결정은 행동 과정의 비례성을 평가할 수 없다고 주장했습니다.

"당신은 행동의 예상되는 전략적 군사적 가치를 알아야 하며 무기가 그것을 알 수 있는 방법은 없습니다."라고 그녀는 말했습니다. “무기는 현장에 있으며 아마도 일부 이미지, 일종의 기계 학습 및 인식 항목을 보고 있습니다. 그것은 아무것도 모릅니다. 군사적 가치와 관련이 없는 몇 가지 계산을 수행할 뿐입니다.”

Nolan은 다음과 같이 덧붙였습니다. 더 넓은 전략적 맥락입니다. 지상에서 무기를 요구하고 그러한 결정을 내리는 것은 절대 불가능합니다.”

케임브리지 대학 실존 위험 연구 센터의 객원 연구원인 Taniel Yusef는 예를 들어 대상을 식별할 수 있는 데이터 포인트를 분류하는 간단한 알고리즘이 고양이를 개로 착각하는 것으로 나타날 수 있다고 말했습니다.

"현장에서 이런 일이 발생하면 사람들은 이 민간인들이 죽었다고 말하고 수학을 보고 피드백하는 무기에 의한 보고를 받게 될 것입니다."라고 그녀는 말했습니다.

“수학에서는 그것이 표적이었다고 합니다…수학이 그렇게 말하고 있기 때문에 군사 기지였습니다. 수학은 매우 구체적이고…

“올바른 것과 정확한 것에는 차이가 있습니다. 정확함과 정확성에는 차이가 있습니다. 코딩이 옳았기 때문에 수학은 옳을 것이지만 현장에서는 옳지 않을 것입니다. 그리고 마지막에 감독과 함께 의미 있는 인간 통제를 안치하는 법적 구속력이 있는 도구가 없으면 우리가 놓칠 것이기 때문에 저를 두렵게 합니다.”

"시스템이 코딩한 목표를 달성할 때까지 시스템의 결과를 알 수 없고 어떻게 도달했는지 알 수 없기 때문에 기술적으로 [비례성에 대한 판단을 내리는 것은] 불가능합니다."

보수적 동료 Sarfraz 경이 끼어들었습니다. "요전에 고양이인 줄 알았던 개를 봤습니다."

"나는 당신이 그것을 쏘지 않은 것 같아요. "Yusef가 대답했습니다. ®

spot_img

최신 인텔리전스

spot_img