제퍼넷 로고

여기에 AI 규정이 있습니다  

시간

AI를 통제하기 위해 제안 된 새로운 법률이 미국과 유럽에서 시행되고 있으며 중국은 정부 우선 접근 방식을 따릅니다. (크레딧 : 게티 이미지)  

AI 트렌드 스태프 

새로운 법률이 곧 기업이 AI를 사용하는 방식을 구체화 할 것입니다.   

미국에서 가장 큰 XNUMX 개 연방 금융 규제 기관은 최근 은행이 AI를 사용하는 방법에 대한 정보 요청을 발표하여 금융 비즈니스에 대한 새로운 지침이 나올 것임을 알 렸습니다. 얼마 지나지 않아 미국 연방 거래위원회는 AI의“진실, 공정성 및 형평성”에 대한 일련의 지침을 발표하여 AI의 불법 사용을“선보다 해를 끼치는”행위로 정의했습니다. 하버드 비즈니스 리뷰  

그리고 21 월 XNUMX 일에 유럽 연합 집행위원회는 AI 규제에 대한 자체 제안을 발표했습니다. AI 트렌드, 22 년 2021 월 XNUMX 일)  

Andrew Burt, 관리 파트너, bnh.ai

이 규정이 무엇을 허용할지는 모르지만 중앙 트렌드는 AI에 대한 거의 모든 현재 및 제안 된 법률을 통합합니다. 즉, 시스템이 기존 및 미래의 법률 및 규정을 위반하지 않도록하기 위해 기업이 지금 당장 취할 수있는 구체적인 조치가 있습니다. 관리 파트너 bnh.ai, AI 및 분석에 중점을 둔 부티크 법률 회사입니다.  

첫째, AI 위험 평가 수행. 노력의 일환으로 위험을 최소화하거나 해결 한 방법을 문서화하십시오. 이러한 "알고리즘 영향 평가"또는 "AI를위한 IA"를 참조하는 규제 프레임 워크를 사용할 수 있습니다.  

예를 들어, 버지니아의 최근 통과 소비자 데이터 보호법, 특정 유형의 고위험 알고리즘에 대한 평가가 필요합니다. 

EU의 새로운 제안은 각 AI 시스템의 "예측할 수있는 의도하지 않은 결과 및 위험 소스"를 설명하는 고위험 AI 시스템에 대해 2019 부분으로 된 기술 문서를 작성해야한다고 Burt는 말합니다. EU 제안은 XNUMX 년 미국 의회에 제출 된 알고리즘 책임법과 유사합니다. 법안은 어디에도 가지 않았지만 재 도입 될 것으로 예상됩니다.  

둘째, 책임과 독립. 이 제안은 AI 시스템을 평가하는 데이터 과학자, 변호사 및 기타 사람들이 일선 데이터 과학자와 다른 인센티브를 가지고 있다는 것입니다. 이는 AI가 원래 개발 한 사람과 다른 기술 인력에 의해 테스트되고 검증되거나 조직이 AI 시스템을 평가하기 위해 외부 전문가를 고용 할 수 있음을 의미 할 수 있습니다.   

Burt는“명확한 프로세스가 개발자와 시스템의 위험을 평가하는 사람들간에 독립성을 창출하도록하는 것은 AI에 대한 거의 모든 새로운 규제 프레임 워크의 핵심 구성 요소입니다.  

셋째, 지속적인 검토. AI 시스템은 시간이 지남에 따라 증가하고 변화하는 위험과 함께 "취약하고 높은 실패율에 노출되어"단일 시점에서 위험을 완화하기가 어렵습니다. Burt는“법률가와 규제 당국은 모두 위험 관리가 지속적인 프로세스라는 메시지를 보내고 있습니다.  

미국, 유럽 및 중국의 접근 방식은 다름  

AI 규제에 대한 미국, 유럽 및 중국 간의 접근 방식은 접근 방식이 다릅니다. 평결, 런던에 본사를 둔 데이터 분석 및 컨설팅 회사 인 Global Data의 분석을 기반으로합니다. 

"유럽은 규제의 이점에 대해 더 낙관적 인 것처럼 보이지만 미국은 과도한 규제의 위험에 대해 경고했습니다."라고 계정은 말합니다. 한편“중국은 계속해서 정부 우선 접근 방식을 따르고있다”며 AI 기술을 사용하여 시민을 모니터링하는 것에 대해 널리 비판을 받아왔다. 이 계정은 사람들의 "신뢰 가치"를 결정하기위한 AI 기반 신용 평가 시스템의 작년 Tencent가 출시 한 사례와 COVID-19 발생 후 부과 된 격리를 모니터링하기 위해 사람들의 집 외부에 감시 카메라를 설치 한 사례를 언급했습니다. . 

"미국의 기술 산업 주도의 노력, 중국의 정부 우선 접근 또는 유럽의 개인 정보 보호 및 규제 기반 접근이 최선의 방법인지 여부는 아직 확인되지 않았습니다. 

미국에서는 많은 기업들이 혁신과 디지털 경제에서 성장하는 능력을 저해 할 수있는 새로운 AI 규제의 위험을 인식하고 있습니다. 최근 보고서 다국적 전문 서비스 회사 pwc에서   

"규제보다 먼저 데이터, 거버넌스, 출력,보고, 머신 러닝 및 AI 모델과 관련된 위험을 해결하는 것이 회사의 이익입니다.”라고 pwc 분석가들은 말합니다. 그들은 비즈니스 리더가 조직 전체의 사람들을 모아 기술의 책임과 거버넌스를 감독하고 비즈니스, IT 및 전문 AI 기술을 보유한 구성원을 포함하는 다양한 팀의 감독을 받아 추천했습니다.  

유럽 ​​AI 법의 비평가들은 너무 많은 회색 영역을 인용 

일부는 유럽위원회가 제안한 AI 법안이 너무 많은 회색 영역을 남긴다고 주장하지만,그는 유럽 연합 집행위원회가 제안한 AI 법안이 AI를 추구하려는 기업들에게 어느 정도의 법적 확실성을 제공 할 수 있기를 희망합니다.   

내부 시장 유럽 커미셔너, Thierry Breton

“신뢰… 우리가 원하는 인공 지능 개발을 가능하게하는 것은 매우 중요하다고 생각합니다.”라고 내부 시장 유럽 커미셔너 인 Thierry Breton은 다음과 같이 말했습니다. 테크 크런치. AI 애플리케이션은 "신뢰할 수 있고, 안전하며, 차별적이지 않아야합니다. 이는 절대적으로 중요합니다. 물론 이러한 애플리케이션이 정확히 어떻게 작동하는지 이해할 수 있어야합니다." 

“우리에게 필요한 것은지도를받는 것입니다. 특히 신기술에서 ... 우리는 가이드 라인을 제공 할 첫 번째 대륙이 될 것입니다. 우리는 '야, 이건 초록색, 이건 짙은 초록색, 이건 약간 오렌지색이고 이건 금지 돼'라고 말할 것입니다. . 이제 인공 지능 응용 프로그램을 사용하려면 유럽으로 가십시오! 무엇을해야하는지, 어떻게해야하는지 알게 될 것입니다. 잘 이해하는 파트너를 갖게 될 것입니다. 그런데 지구상에서 가장 많은 양의 산업 데이터가 생성되는 대륙에도 올 것입니다. 앞으로 XNUMX 년 동안.” 

“그러니 그녀로와e— 인공 지능은 데이터에 관한 것이므로 지침을 제공합니다. 이를 수행 할 도구와 인프라도 갖게 될 것입니다.”라고 Breton이 제안했습니다. 

또 다른 반응은위원회의 제안이 얼굴 인식 기술을 포함한 원격 생체 인식 감시를 ​​사용하는 법 집행 기관과 같이 지나치게 광범위한 면제를 제공하고 있으며 차별 위험을 해결하기에 충분하지 않다는 것입니다. 

위원회의 제안에 대한 반응에는 법 집행 기관의 원격 생체 인식 기술 (예 : 안면 인식 기술) 사용에 대한 지나치게 광범위한 면제에 대한 많은 비판과 AI 시스템 차별 위험을 해결하기위한 규정의 조치가 거의 진행되지 않는다는 우려가 포함되었습니다. 충분히 멀리. 

글로벌 범죄자 인 공정 재판의 법무 및 정책 책임자 인 Griff Ferris는“이 법안에는 차별에 대한 보호 장치가 없지만 '공공 보안 보호'에 대한 광범위한 면제는 형사 사법과 관련된 작은 보호 장치를 완전히 약화시킵니다. 런던에 본사를 둔 정의 감시자. “프레임 워크에는 차별을 방지하고 공정한 재판을받을 권리를 보호하기위한 엄격한 보호 장치와 제한이 포함되어야합니다. 여기에는 사람들을 프로파일 링하고 범죄 위험을 예측하려는 시스템의 사용을 제한하는 것이 포함되어야합니다.”  

이를 달성하기 위해 그는 제안했습니다. “EU의 제안은 형사 사법 결과에있어 차별이 굳어지는 것을 방지하고, 무죄 추정을 보호하며, 형사 사법에서 AI에 대한 의미있는 책임을 보장하기 위해 급진적 인 변화가 필요합니다." 

소스 기사 및 정보 읽기 in 하버드 비즈니스 리뷰에 평결 으로 혹은 테크 크런치. 

코인 스마트. 유로파 최고의 비트 코인-보르 스
출처 : https://www.aitrends.com/data-privacy-and-security/here-come-the-ai-regulations/

spot_img

최신 인텔리전스

spot_img

우리와 함께 채팅

안녕하세요! 어떻게 도와 드릴까요?