제퍼넷 로고

지적 재산은 AI 규제의 필수 요소이며 잘못 이해하면 빅 테크에 더 많은 권한을 부여할 것입니다.

시간

사악한 로봇 저작권 애그리게이터전 세계 정부는 점점 더 강력하고 파괴적인 인공 지능(AI) 기술의 개발 및 배포를 규제할 수 있는 방법과 규제해야 하는 방법을 고려하고 있습니다. 호주도 예외는 아닙니다. 1년 2023월 XNUMX일, 호주 정부, XNUMX건의 논문 발표 '호주에서 인공 지능 기술(AI)의 성장이 안전하고 책임감 있게 이루어지도록' 돕기 위한 것입니다. 그 중 첫 번째는 신속한 대응 보고서: 제너레이티브 AI는 지난 XNUMX월 산업과학부 장관 Ed Husic의 요청으로 호주 국립과학기술위원회(National Science and Technology Council)에서 의뢰했습니다. 그만큼 신속한 대응 보고서 AI와 관련된 잠재적인 위험과 기회를 평가하고 앞으로 나아갈 방향에 대한 논의를 위한 과학적 근거를 제공하기 위한 것입니다. 두 번째 종이는 호주의 안전하고 책임감 있는 AI 토론 자료 장관의 언론 보도에 따르면 '호주 및 해외의 기존 규제 및 거버넌스 대응을 조사하고 잠재적 격차를 식별하고 AI의 안전하고 책임 있는 사용을 관리하는 프레임워크를 강화하기 위한 몇 가지 옵션을 제안합니다.'

토론 문서는 호주가 AI의 잠재적 위험을 해결할 수 있는 방법에 대한 피드백을 구합니다. 기존 국내 및 국제 AI 거버넌스 및 규정에 대한 개요를 제공하고 AI의 개발 및 채택을 지원하기 위해 규정, 표준, 도구, 프레임워크, 원칙 및 비즈니스 관행을 포함한 잠재적 격차 및 추가 메커니즘을 식별합니다. AI가 안전하고 책임감 있게 사용되도록 보장하는 데 중점을 두지만 AI가 노동 시장 및 기술, 국가 안보 또는 군사 특정 AI 사용에 미치는 영향과 같은 AI와 관련된 모든 문제를 고려하지는 않습니다.

명시 적으로 다른 핵심 영역 제외 이 상담에서 지적 재산입니다. 즉, 내 생각에는 심각한 결점입니다. IP는 토론 문서에서 다루는 다른 문제와 어떻게든 분리될 수 있다고 가정하는 것 같습니다. 이것은 특히 비즈니스 관행과 관련하여 잘못된 가정입니다. 현대 사회에서 IP는 많은 비즈니스 관행의 중심에 있으며, IP와 관련하여 우리가 만드는 법률과 규정은 실행 가능한 비즈니스 관행과 유지 불가능한 비즈니스 관행의 차이가 될 수 있습니다. 그리고 IP 법률에 의해 가능할 수 있는 모든 비즈니스 관행이 반드시 바람직하거나 사회에 순 이익이 되는 것은 아닙니다. IP 법률, 비즈니스 관행 및 기타 형태의 규제 사이의 상호 작용을 고려하지 않으면 향후 복구하기 매우 어려운 실수를 저지를 위험이 있습니다.

이 기사는 호주의 협의 과정에 의해 촉발되었지만 주로 호주의 협의 과정에 관한 것은 아닙니다(마지막에 다시 다루겠지만). 그것은 IP 권리 및 기타 형태의 규제가 마이크로소프트(OpenAI와의 파트너십을 통해), 구글 및 아마존과 같은 소수의 거대 기술 회사의 손에 점점 더 많은 권력을 집중시키기 위해 어떻게 작동할 수 있는지에 관한 것입니다. 최근 몇 년 동안 AI와 이를 가능하게 하는 기술에서 지배적인 역할을 했습니다. 최근의 발전을 바탕으로 저는 혁신가, 콘텐츠 제작자 및 일반 대중을 다양한 위협으로부터 보호한다는 구실 하에 이러한 회사에 가장 도움이 되는 종류의 법률과 규정을 시행할 단계가 이미 마련되었다고 믿습니다. AI가 제시합니다.

완벽한 폭풍이 몰아치고 있습니다. AI 시스템의 개발, 교육 및 배포에 대한 부담스러운 규제는 교육 데이터 사용 및 AI 출력에 대한 IP 기반 제한과 결합하여 세계에서 가장 부유하고 자원이 풍부한 회사에 이점을 제공할 수 있습니다. 폭풍은 과대 광고와 공포 조장에 의해 촉발되고 있으며, 그 중 많은 부분이 선의일 수 있지만 거대 기술의 이익을 위해 노는 것입니다. 

IP 권리와 도둑질의 기술

IP법이 확대되거나 '강화'될 때마다 관련 입법자와 당국은 이것이 창작자와 혁신가에게 유익하다고 환호하는 것 같습니다. 그러나 현실은 이러한 유토피아적 이상과는 사뭇 다르다. 그들의 최근 책에서, 초크포인트 자본주의, Rebecca Giblin과 Cory Doctorow는 극소수의 거대 기업이 창작자와 소비자 사이에 '관문'을 만들어 창조 산업과 인터넷 전반에 걸쳐 막대한 이익을 챙기고 있는 수많은 방식을 분석합니다. 우리 모두는 힘들게 번 돈을 Google(YouTube 포함), Facebook/Meta, Apple, Amazon, Spotify, 음악 녹음 및 출판을 관리하는 XNUMX대 레이블, 책의 무역 출판을 관리하는 XNUMX개 회사, 미국 라디오 방송을 장악하고 전 세계로 점점 그 촉수를 펼치고 있는 하나의 회사(아이하트미디어)와 라이브 음악 산업을 바쁘게 청소하고 있는 하나의 회사(라이브네이션 엔터테인먼트). 그리고 우리의 돈은 어디에도 충분하지 않습니다. 아마도 여러분이 생각하는 것보다 훨씬 적을 것입니다.

(전체 공개: Rebecca의 사무실은 Melbourne Law School의 제 책상에서 모퉁이만 돌면 있습니다. 하지만 이것이 내가 당신에게 말하는 이유는 아닙니다. 초크포인트 자본주의 훌륭하고 눈을 뜨게 하는 책이며, 당신이 그것을 사서 읽어야 한다는 것입니다. 혹시 궁금하실까봐 말씀드리지만 저는 아이러니하게도 Kindle 버전에서 제 사본을 직접 구입했습니다!)

저작권법의 기간, 범위 또는 강도를 확장하는 것은 적어도 현대에는 가치 있는 저작물을 만든 대다수의 창작자에게 도움이 되지 않았습니다. Giblin과 Doctorow는 '강력한 구매자에 맞서 싸우고 있는 창작자에게 더 많은 저작권을 주는 것은 괴롭힘을 당하는 아이에게 더 많은 점심값을 주는 것과 같습니다.'라고 냉정하게 표현했습니다. 괴롭힘은 여전히 ​​아이의 점심 돈을 훔치지만 이제는 그 괴롭힘을 더 부자로 만듭니다! 샘플링 음악이 저작권 침해라는 것이 밝혀졌을 때 일어난 일입니다. 샘플 작업을 한 아티스트들에게는 희소식이라고 생각할 수 있지만 실제로는 관련 권리의 소유권을 즉시 주장하거나 획득하고 눈을 비우기 시작한 강력한 레이블들에게는 희소식이 대부분이었습니다. 라이센스 비용에 급수하면서 창의적인 회계 및 착취 계약 조건을 사용하여 대부분의 수익금을 스스로 유지합니다.

AI에서 콘텐츠 제어는 힘입니다

우리는 이미 AI 기술 분야에서 어떻게 병목 현상이 나타날 수 있는지에 대한 징후를 보고 있습니다. 예를 들어 스톡 일러스트레이션 산업과 관련하여 몇 가지 증거가 있습니다 이미지 라이센싱 사업은 상대적으로 적은 수의 공급자, 주로 Shutterstock에 의해 지배됩니다. 게티 이미지(iStock 포함) 어도비 스톡. 이 중 두 회사는 방식이 크게 다르지만 이미 생성 AI 시스템에 참여하고 있습니다.

한편으로는, Shutterstock은 OpenAI와 '파트너십'을 맺었습니다. OpenAI의 교육 및 사용 DALL-E 텍스트 투 이미지 생성 AI 시스템. 이 계약에 따라 Shutterstock은 OpenAI에서 DALL-E 모델 교육에 사용할 데이터베이스의 이미지(및 관련 설명 텍스트)를 제공합니다. 한편 Shutterstock 사용자는 DALL-E에 액세스하여 텍스트 프롬프트를 기반으로 이미지를 생성합니다. 이로 인해 사용자가 아티스트의 작품이 아닌 맞춤형 AI 생성 이미지를 선택하면 아티스트에게 수익 손실이 발생할 수 있지만 Shutterstock은 아티스트가 AI 모델 교육에 자신의 작품을 사용한 것에 대해 보상하겠다고 약속했습니다(아마도 아티스트에게 지불한 라이센스 비용에서) OpenAI의 Shutterstock).

반면에, 미국에서 체류를 연장하고자 이전의 승인을 갱신하려던 Getty Images는 무엇보다도 저작권 침해로 Stability AI를 고소했습니다.안정성 AI가 설명합니다. 현대 AI의 접근성을 극대화하여 글로벌 창의성과 혁신을 고취시키는 것을 목표로 하는 '세계 최고의 오픈 소스 생성 AI 기업'으로 텍스트-이미지 생성 모델의 첫 번째 버전인 Stable Diffusion은 2022년 12월에 출시되었습니다. Getty Images는 Stability AI가 Stability AI가 허가나 보상 없이 데이터베이스에서 수백만 개의 이미지를 제거할 수 있습니다. 

OpenAI와 Stability AI의 비즈니스 모델 간의 대조는 이보다 더 극명할 수 없습니다. OpenAI는 그 이름에도 불구하고 개방적이지 않으며 DALL-E 소스 코드나 훈련된 모델을 대중에게 공개하지 않았습니다. 훈련 데이터 세트의 내용은 알려지지 않았으며 Shutterstock과의 거래 세부 사항도 마찬가지입니다. 이것은 만들기에서 초크 포인트의 모든 특징을 가지고 있습니다. 한쪽에는 자신의 이미지로 생계를 꾸려나가는 아티스트가 있고, 다른 한쪽에는 제너레이티브 AI 서비스의 잠재 소비자가 있습니다. 그리고 중간에 독점 생성 AI 서비스의 게이트키퍼인 OpenAI가 지구상에서 가장 큰 스톡 이미지 저장소 중 하나의 컨트롤러인 Shutterstock과 제휴하여 시장 양쪽을 모두 잠글 수 있는 잠재적 기회를 제공합니다. 오직 그것들만이 충분히 우세해질 수 있습니다.

한편 Stability AI(유료 생성 AI 서비스도 제공)는 소스 코드와 모델을 공개했습니다. 이 소스 코드는 인터넷(게티 이미지 웹사이트 포함)에서 스크랩한 텍스트와 이미지를 사용하여 명확하게 훈련된 것입니다. 이로 인해 발생할 수 있는 저작권 문제. 훈련된 모델의 출시는 다른 회사가 모델을 스스로 훈련할 수 있는 재정 또는 컴퓨팅 자원이 없더라도 시장에 진입하는 데 도움이 됩니다. Stability AI의 운영 및 클라우드 지출이 미화 50천만 달러를 초과한 것으로 보고되었습니다., 101년 2022월 벤처 펀딩으로 XNUMX억 XNUMX만 달러를 모으기 전). 그러나 Getty Images가 모델 훈련에서 저작권이 침해되었다는 사실을 입증하는 데 성공하면 Stability AI의 개방형 모델을 기반으로 비즈니스를 구축하려고 시도했던 모든 사람을 철회해야 할 가능성이 높습니다. 이것은 저작권 애그리게이터와 그들에게 매력적인 거래를 제공하기에 가장 좋은 위치에 있는 대규모 현금화 AI 회사에게 가장 큰 힘을 돌려줄 것입니다.

지나가면서 저작권 침해에 대한 집단 소송이 미국에서도 시작되었다는 점에 주목합니다. GitHub, Microsoft 및 OpenAI에 반대하는 소프트웨어 개발자Stability AI, DeviantArt 및 Midjourney에 반대하는 아티스트. 이러한 경우 원고는 자신이 원하는 바에 주의해야 합니다. 창작자에 대한 통제와 보상을 추구할 수 있지만 그들이 달성할 수 있는 모든 성공은 저작권 애그리게이터의 손에 넘어갈 가능성이 더 큽니다.

FUD에 불을 붙일 것이니 공포광은 축복을 받았습니다!

두려움, 불확실성 및 의심(FUD)보다 훨씬 더 효과적으로 성급하고 사려 깊은 행동을 조장하는 것은 거의 없습니다. 그리고 최근 AI의 발전과 관련하여 생성된 FUD가 부족하지 않았습니다. 물론, 이것의 대부분은 이러한 고도로 복잡한 기술과 그 작동 방식에 대한 이해할 수 있는 수준의 일반 무지의 결과였습니다. 그러나 두려움 중 일부는 더 잘 알아야 한다고 생각했을 수도 있고 자격과 평판이 자신의 의견에 더 큰 권위와 영향력을 부여하는 사람들에 의해 촉발되고 있습니다.

Future Combat Air & Space Capabilities Summit에서 AI 테스트 및 작전 미 공군 참모장인 Tucker 'Cinco' Hamilton 대령이 한 시뮬레이션에 대한 일화를 들려준 연설에 대한 최근 이야기를 들어 보셨을 것입니다. AI 제어 드론이 명령을 시도하여 주요 목표('적 죽이기')를 방해했을 때 (시뮬레이션된) '오퍼레이터'를 '죽였습니다' 지원 적을 죽이기 위해. 이 이야기의 유일한 문제는 그것이 실제로 일어나지 않았다는 것입니다. USAF는 이후 이를 부인했고 해밀턴 대령은 이후 그가 '말이 잘못됐다'고 말했습니다., 그리고 그는 단지 군대 외부에서 시작된 가상의 '사고 실험'을 제시하고 있을 뿐이라고 말했습니다. 그만큼 있는 문제 그러나이 이야기의 문제는 일부 언론 매체가 거부에 의문을 제기하기 위해 대중의 불신을 이용하기로 선택했다는 것입니다. 레지스터는 '누가 알겠어?'반면 다소 예상 가능하게 news.com.au는 원래 경보 헤드라인('AI 드론이 시뮬레이션에서 운영자를 죽임')을 유지하고 거부를 '피해 제어'로 경시했습니다., 저널리즘 실패와는 반대로 USAF를 비난하는 것은 사실입니다.

불행하게도 이 시점에서 언론인과 대중은 이미 이러한 종류의 이야기를 회의적으로 다루기보다는 믿을 준비가 되어 있습니다. 

인셀덤 공식 판매점인 엘론 머스크를 비롯해 많은 'AI 전문가'를 포함해 1,000명 이상이, 서명했다 Future of Life Institute에서 발행한 공개 서한 '인간이 아닌 마음이... 결국에는 우리를 능가하고, 능가하고, 구식이 되어 우리를 대체할 수 있다'는 우려와 '우리 문명에 대한 통제력을 잃을 위험이 있다'는 우려를 포함하여, 우리 중 많은 사람들이 이것이 현실적이고 현존하는 위협이라고 결론을 내리는 것은 놀라운 일이 아닙니다.

인셀덤 공식 판매점인 연구원의 XNUMX분의 XNUMX 이상이 AI가 '핵 수준의 재앙'으로 이어질 수 있다고 믿는다는 스탠포드 대학 연구 결과에 대해 들었습니다.'AI의 대부' 중 한 명인 Geoffrey Hinton이 Google에서 사임했다는 소식을 들었습니다. 인공지능이 가하는 위협을 '핵무기'에 빗대어 자유롭게 이야기하자면, 인공지능이 핵무기에 버금가는 위협을 가하는 것은 무리가 아니다. 결국, Geoffrey Hinton이 이 주제에 대한 그의 내용을 모른다면 누가 알겠습니까?!

인셀덤 공식 판매점인 GPT-4가 공개되기 몇 달 전에 Bing 검색 엔진에 통합하는 동안 GPT-4와 함께 작업한 Microsoft 엔지니어에 대해 들었습니다. GPT-XNUMX가 '인공 일반 지능'(AGI)의 초기 징후를 보인다는 결론, 그렇다면 우리가 진정으로 AGI를 개발하기 직전이라고 믿지 않는 이유는 무엇입니까? 공정하게 말하면 많은 언론 매체가 있었지만 다음을 포함합니다. 바이스Walk Through California 프로그램, 뉴욕 타임스포브스, 다른 사람들 사이에서 그들은 대안적인 견해를 찾고 이러한 '눈썹을 치켜올리는' 주장을 마땅히 받아야 할 회의론으로 취급했습니다.

왜 그렇게 많은 경험과 지식이 풍부한 사람들이 초지능 기계의 가상 손에서 임박한 파멸의 선구자 역할을 했는지 짐작하기 어렵습니다. 그들은 확실히 거대 기술 기업을 위한 실책이 아니며 대부분은 전적으로 성실한 것으로 보입니다. 아마도 뭔가가있을 것입니다 Cambrian AI 분석가 Alberto Romero가 제공한 설명, 그는 준종교적 집단 사고의 요소가 관련되어 있다고 설득력 있게 가정합니다. 최선을 다해 미래를 예견하는 현대인이 되어야 합니다. 단수로 영광스럽고 최악의 경우 우리의 마지막 장입니다.'

그러나 동기가 무엇이든 공포 조장은 효과적이었으며 지금까지 AI 기술에 가장 많이 투자했고 당연히 가장 많은 것을 얻기를 희망하는 거대 기술 회사의 손에 잘 넘어가고 있습니다.

Geeks Bearing Grifts를 조심하십시오.

현재 AI를 둘러싼 모든 FUD로 인해 정부는 AI가 유발할 수 있는 잠재적 피해로부터 관련 시민을 보호하기 위한 조치를 취해야 한다는 압력을 받고 있습니다. 16년 2023월 XNUMX일, 미 상원 사법부 소위원회에 출석한 OpenAI CEO Sam Altman, '미국 정부는 기능 임계값 이상의 AI 모델 개발 및 출시에 대한 라이선스 및 테스트 요구 사항의 조합을 고려할 수 있습니다.'라고 제안했습니다. 이상해 보인다. 미국 기술 회사는 언제부터 공개적으로 호의 추가적인 정부 규제를 받을 수 있습니까? 물론 그들에게 이익이 되지 않는 한. 실제로 이미 강력한 사람이나 조직이 로비를 하는 것을 볼 때마다 배우기 규제, 일반적으로 안전한 내기입니다. 지대 추구. 이것이 여기에 어떻게 적용될 수 있는지 알아보려면 GPT-3 및 GPT-4와 같은 대규모 언어 모델(LLM)의 최신 기술과 기술이 발전하는 방향을 좀 더 면밀히 살펴봐야 합니다. .

지금까지 훨씬 더 인상적인 LLM의 개발은 대부분 '더 클수록 좋다'는 원칙에 의존해 왔습니다. GPT-2020를 소개하는 3년 논문에서, 언어 모델은 몇 번의 학습자입니다, OpenAI 연구원들은 ChatGPT의 초기 무료 버전을 뒷받침하는 모델이 175억 개의 매개변수를 가지고 있으며 300억 개의 토큰으로 구성된 데이터 세트에 대해 훈련되었음을 밝혔습니다(이 맥락에서 '토큰'은 일반적으로 단어, 단어의 일부 또는 훈련에 사용되는 텍스트의 구두점 기호). 실제 교육 요구 사항의 추정치는 다양하지만, 교육 시간이 몇 주 단위로 측정되고 총 컴퓨팅 비용이 수백만 달러 – OpenAI의 경우 모두 Microsoft에서 제공하고 자금을 지원합니다.

GPT-4에 대해 확실하게 알려진 것은 거의 없습니다. OpenAI의 GPT-4 기술 보고서, '[g]GPT-4와 같은 대규모 모델의 경쟁 환경과 안전 함의를 감안할 때 이 보고서에는 아키텍처(모델 크기 포함), 하드웨어, 교육 컴퓨팅, 데이터 세트 구성, 교육 방법에 대한 자세한 내용이 포함되어 있지 않습니다. 또는 유사.' 그러나 안으로 22년 2023월 XNUMX일 MIT에서 발표된 강연, Microsoft의 Sebastien Bubeck(GPT-4를 Bing에 통합하는 팀을 이끌었음)은 모델 크기가 대략 3조 개의 매개변수, 즉 GPT-XNUMX 크기의 약 XNUMX배라고 암시했습니다. 하드웨어 및 교육 기술이 발전함에 따라 처리 장치의 수와 교육 시간이 이만큼 증가하지 않았을 가능성이 높습니다. 그럼에도 불구하고 다른 사람이 그러한 모델을 교육하는 데 드는 컴퓨팅 비용은 거의 확실히 천만 달러를 훨씬 초과할 것입니다. 그리고 여기에는 이전 개발 및 테스트가 포함되지 않습니다. 첫 번째 시도에서 이러한 거대한 모델 중 하나를 성공적으로 빌드하고 교육할 수 없습니다!

사전 훈련된 모델을 실행하려면 모델을 훈련하는 것보다 훨씬 적은 리소스가 필요하지만 GPT-4를 실행하기 위한 하드웨어 요구 사항도 중요합니다. XNUMX조 개의 매개변수 모델에는 (아마도) XNUMX조 바이트, 즉 XNUMX테라바이트의 메모리가 필요합니다. 실제 메모리 – 사용 중 입력, 출력 및 기타 작업 데이터를 저장하기 위한 추가 메모리. 교육에 사용된 것과 동일한 고급 처리 장치를 사용하여 실행하는 경우(대부분 NVIDIA A100 80GB GPU), 모델의 단일 인스턴스를 제공하는 데 적합한 하드웨어 플랫폼을 구축하기 위한 구성 요소의 총 비용은 대략 백만 달러가 될 것이며 결과적으로 최대 전력 소비량은 약 20kW가 될 것입니다(적절한 에어컨도 필수 요구 사항이 됨). 그리고 빠른 응답 시간으로 수천 명의 사용자에게 동시에 서비스를 제공하려면 이 하드웨어 설정을 수백 번은 아니더라도 수십 번 복제해야 할 가능성이 높습니다. 따라서 OpenAI가 사용자에게 ChatGPT에 대한 프리미엄 액세스와 API 사용에 대해 비용을 지불하게 하고, 비용을 지불하지 않는 사용자가 성능 저하를 견디도록 만드는 것은 놀라운 일이 아닙니다!

물론 궁극적인 요점은 극소수의 최종 사용자가 GPT-4와 같은 자체 모델 인스턴스를 호스팅할 수 있는 위치에 있다는 것입니다. 오히려 클라우드 제공업체에 의존하여 모델을 호스팅하고 성능, 데이터 개인 정보 보호 및 보안과 같은 기준에 대한 사용자의 요구 사항에 따라 다양한 가격대로 다양한 서비스를 제공할 것입니다. 그리고 가장 큰 클라우드 컴퓨팅 공급자는 물론 Microsoft(Azure 플랫폼을 통해), Amazon(Amazon Web Services, AWS를 통해) 및 Google(Google Cloud Platform, GCP를 통해)입니다. 그렇게 되면 이들 회사는 이러한 유형의 AI 서비스 제공에 사실상 목을 졸라매게 될 것입니다.

그러나 GPT-4와 같은 괴물 모델과 비슷한 성능을 달성할 수 있는 더 작고 비독점적인 모델을 만들 수 있다면 어떨까요? 공교롭게도 이것이 바로 OpenAI 외부의 LLM에 대한 연구가 진행되는 방향입니다. 2023년 XNUMX월에 발표된 논문에서, LLaMA: 개방적이고 효율적인 기초 언어 모델, Meta(예: Facebook) 연구자들은 가장 큰 LLM과 비교할 수 있는 성능을 달성하기 위해 13억 개의 매개변수로 훈련 모델을 보고했습니다. 더욱이 그들은 '독점적이고 액세스할 수 없는 데이터세트에 의존하지 않고 공개적으로 사용 가능한 데이터세트'를 사용하여 이를 수행했습니다(OpenAI가 GPT 모델로 수행한 것처럼). 그리고 그들은 175억 개의 매개변수가 있는 LLaMA 모델 버전이 대부분의 벤치마크에서 3억 개의 매개변수 GPT-XNUMX 모델을 능가한다고 주장합니다. 

이러한 소형 모델의 교육 비용은 약 5만 달러로 여전히 매우 높습니다(LLaMA 논문에 보고된 대로 21개의 A2,048 GPU에서 100일 교육을 가정). 그러나 OpenAI에 대한 대규모 'FU'에서 Meta는 교육 코드를 공개하고 모든 교육 모델을 연구 커뮤니티에 공개했습니다. 통제된 방식으로 이를 수행하도록 의도되었지만, 훈련된 모델 가중치는 인터넷에서 빠르게 유출되었습니다., 모두가 사용할 수 있도록 합니다.

LLaMA 모델에는 상업적 사용을 제한하는 라이센스 조건이 있습니다. 그러나 이미 프로젝트가 있고, RedPajama와 같은, Meta의 결과를 복제하고 이러한 제한에 의해 방해받지 않는 모델을 생성하기 위해 진행 중입니다. 동시에 다양한 노력을 기울이고 있습니다. 이러한 소형 모델을 (상대적으로) 저렴한 상품 및 소비자용 하드웨어에서 실행할 수 있도록 합니다.. 지금 당장은 원할 경우 집에서 3000달러 미만의 PC에서 LLM 기반 챗봇을 실행할 수 있습니다. ChatGPT만큼 좋지는 않을 것입니다. Hugging Face 플랫폼의 Intel Q8-Chat 로우엔드에서 가능한 것에 대한 느낌을 얻기 위해), 그러나 그것은 너의 모든 것, 완전히 비공개적이고 안전하며 2022년 XNUMX월 이전에 본 어떤 것보다 훨씬 좋습니다!

저는 이러한 커뮤니티 기반 연구 프로젝트가 성공할 것으로 예상하며, 그 결과 'Big AI'(예: OpenAI/Microsoft 및 Google과 같은 것)가 그들이 분명히 희망하는 AI 기반 서비스에 대한 거의 독점권을 확립하지 못할 것입니다. 얻기 위해. (단, 균형을 위해 모든 사람이 내 낙관주의를 공유하는 것은 아니라는 점에 유의하십시오..) LLM의 '민주화'가 발생하는 것을 막을 수 있는 유일한 방법은 규제입니다. 미국 정부가 실제로 '기능 임계값 이상의 AI 모델'(그 의미가 무엇이든)에 대한 라이선스 및 테스트 제도를 도입했다면 OpenAI와 같은 회사에 실질적인 장애물이 되지 않을 것입니다. 그들은 이미 몇 년을 보냈습니다. 기술의 '책임 있는 관리자'로서의 명성 구축, 그리고 그들은 규제 관료주의를 뚫을 수 있는 경제적, 정치적 영향력을 분명히 가지고 있습니다. 반면 소규모 회사, 연구 그룹 및 커뮤니티 프로젝트는 자체 AI 시스템을 개발하고 배포하기 위한 규제 승인을 얻기 위해 자격 증명과 선의를 입증하는 데 상당한 장애물에 직면할 것입니다.

그러나 걱정스럽게도 FUD 공장은 Big AI에서 작동하는 것 같습니다. 6년 2023월 XNUMX일, 개인 정보 보호, 기술 및 법에 관한 미국 상원 소위원회의 두 위원이 편지를 보냈습니다. [PDF, 187kB] 메타 CEO 마크 저커버그에게. 이 편지는 LLaMA 모델 가중치의 '누설'이 예측 가능하고 아마도 의도된 결과라는 것을 암시하고 있으며, [Meta]가 LLaMA 출시 위험을 어떻게 평가했는지, 남용을 방지하기 위해 어떤 조치를 취했는지에 대한 정보를 요청합니다. 모델, 그리고 [Meta가] [모델의] 무제한 가용성을 기반으로 [그의] 정책과 관행을 업데이트하는 방법.' 상원 의원의 서한에서 Zuckerberg에게 제기된 많은 질문의 의미는 분명합니다. 기업이 강력한 AI 모델과 관련하여 책임감 있게 행동하는 것을 신뢰할 수 없다면 정부가 개입하여 그들의 행동을 규제해야 합니다.

누가 AI 관련 IP 권리로부터 가장 많은 이익을 얻을 것인가?

IP에 대한 논의로 돌아가서, IP 권리를 '강화'하기 위한 모든 제안에 대해서도 거의 동일하게 말할 수 있습니다. 이것은 창작자와 혁신가의 이익을 보호하기 위한 것이라고 주장할 수 있지만 실제로는 다시 한 번 그들이 할 수 있는 모든 권리를 최대한 저렴하게 획득하고 축적하려고 하는 대규모 과점 기술 회사에 더 많은 권한을 넘겨줄 수 있습니다. 그들은 그들이 통제하는 기술을 사용하고 싶을 때마다 나머지 사람들로부터 임대료를 추출하는 데 사용할 수 있습니다.

저작권 자료를 사용하여 AI 모델을 교육하는 데 라이선스가 필요한 경우 AI 모델을 교육할 수 있는 유일한 사람은 엄청난 양의 콘텐츠에 대한 라이선스를 협상, 소송 및/또는 지불할 돈과 영향력이 있는 사람입니다. . 역사 – 그리고 초크포인트 자본주의 – 크리에이터가 이러한 라이선스의 주요 수혜자가 되지 않을 것임을 알려줍니다. 가장 가치 있는 음악 권리는 이미 소수의 음반사에 의해 통제되고 있습니다. 가장 가치 있는 도서 권리는 이미 소수의 출판사에 의해 통제되고 있습니다. 가장 가치 있는 뉴스, 텔레비전 및 영화 콘텐츠는 이미 소수의 미디어 회사에서 관리하고 있습니다. 가장 유용하고 잘 구성된 이미지 데이터베이스는 소수의 스톡 이미지 회사에서 관리합니다. 그리고 인터넷에 남아 있는 대부분의 콘텐츠는 명시적으로는 아니더라도 묵시적으로 원하는 대로 사용할 수 있도록 세상에 제공한 개인과 기업에 의해 만들어집니다.

따라서 무엇보다도 AI 모델을 교육하기 위해 저작권 자료의 사용을 보호하는 것은 해당 자료의 제작자에게 큰 이익을 주지 않고 이미 문제 비즈니스 모델을 활용하는 회사에 또 다른 수익원을 추가할 뿐입니다. 즉, 괴롭힘을 당하는 아이들에게서 더 많은 점심값을 훔쳐갈 뿐입니다!

AI를 저자 또는 발명가로 인정하고 AI로 생성된 창작물에 대한 저작권 및 특허를 부여하는 경우에도 마찬가지입니다. 순진한 견해 – Ryan Abbott와 인공 발명가 프로젝트 – 이것이 '창의적인 컴퓨터 개발을 장려하여 지적 재산 창출을 장려합니다.', 그리고 '새로운 발견의 주요 원천으로서 인간 발명가를 추월'하는 컴퓨터의 잠재력을 인식합니다. 그러나 경험에 따르면 가장 가치 있는 IP 권리는 일반적으로 인간 창작자가 보유하는 것이 아니라 인간 창작자를 고용하거나 나중에 권리를 획득하는 기업이 보유하게 됩니다. 나는 이미 저작권 애그리게이터의 예에 대해 논의한 반면, 특허 영역에는 침해 혐의자로부터 라이센스 비용을 추출하기 위해 권리를 축적하는 PAE(Patent Assertion Entities)가 있습니다. 따라서 AI가 발명할 수 있고 AI가 생성한 발명에 대한 특허권을 부여하기로 결정하면 '특허 창출 주체'를 위한 새로운 비즈니스 모델을 만드는 것이 아닐까요? 

애보트가 옳을 수도 있습니다. 기계 생성 창작물에 대한 저작권 및 특허를 부여하면 창의적인 기계 개발에 인센티브를 줄 수 있습니다. 그러나 그것이 가장 중요한 포인트는 아닙니다. 중요한 것은 누가 이러한 창의적인 컴퓨터를 소유하고 운영하며 누가 이러한 창작물로부터 혜택을 받는가입니다.

결론 – 통합 접근 방식의 필요성 

명확히 하자면, 내가 완전히 손을 떼고 규제가 없는 AI 무정부 상태를 옹호하는 것처럼 보일 경우를 대비해 진실에서 멀어질 수는 없습니다. 우리는 절대적으로 AI를 규제해야 합니다. 하지만 가장 규제해야 할 것은 사용 방법, 개발, 교육 및 배포 방식과 반대입니다. AI가 실직, 사생활 침해, 딥페이크, 알고리즘 편향, 무기 자동화와 같이 인간 사회와 복지에 실질적인 위험을 초래한다는 데에는 의문의 여지가 없습니다. 이러한 우려는 AI의 윤리적이고 책임 있는 사용을 통해 해결되어야 하며 기업, 연구원 및 개인이 합의된 범위 내에서 운영하고 그렇지 않을 경우 결과가 있음을 보장하기 위해 의심할 여지 없이 법률과 규정이 필요합니다.

그러나 어떻게, 누구에 의해 AI가 개발되고 훈련되는지 통제하려고 시도함으로써 지니를 병 속에 다시 채우려는 시도는 소용이 없습니다. 이것은 단순히 작동하지 않습니다. 대부분의 소기업, 연구 기관 및 개인은 더 크고 정교한 AI 모델을 구축하고 교육할 자금과 자원이 부족하지만 그렇게 할 수 있는 능력을 갖춘 범죄 조직 및 불량 국가를 포함한 나쁜 행위자가 부족하지 않습니다. AI 모델 훈련을 범죄화하면 범죄자만이 AI 모델을 훈련시킬 것입니다. 다른 모든 사람들은 소외될 것이며 필요한 대량의 교육 데이터에 대한 액세스를 확보하거나 권한을 부여받은 상대적으로 소수의 지배적인 기술 회사의 자비에 맡길 것입니다.

의도적이든 아니든 오픈 소스 코드와 사전 훈련된 모델의 출시로 우리는 정교한 AI의 민주화의 첫 징후를 보고 있습니다. 그럼에도 불구하고 민주적으로 선출된 두 명의 미국 상원의원은 Mark Zuckerberg가 Meta가 '모든 DMCA 게시 중단 통지, 중지 및 중단 서한 또는 유사한 노력을 포함하여 LLaMA의 배포, 용도 변경 및 최종 사용을 추적하기 위해' 취한 조치를 설명하기를 원합니다. 그리고 기존 법률이 부적절하다면 상원의원이 새로운 법률을 제시할 수 있을 것이라고 확신합니다. 나는 그들의 머릿속에 아이디어를 집어넣고 싶지는 않지만 모든 분산 모델에 추적 및 킬 코드를 추가하고 암호화 및 디지털 권한 관리(DRM)를 적용하도록 의무화하여 암호 해독 및 리버스 엔지니어링을 시도하는 것조차 모델은 잠재적인 범죄 행위가 될 수 있습니까? 범죄자나 적 요원을 막을 수 있습니까? 아니요. 하지만 다른 사람들은 거의 멈출 것입니다.

따라서 이것이 우리 모두가 원하는 미래라면 반드시 AI 모델의 개발, 교육 및 배포를 규제하고 지식재산법을 미세 조정하여 교육 입력 및 배포된 모델의 출력에 대한 권리를 제한해야 합니다. 최근에 그런 종류의 접근 방식은 큰 기술에는 잘 맞았지만 더 광범위하게는 커뮤니티에는 그다지 좋지 않았습니다.

그러나 호주 협의로 돌아가서 정부는 현재 토론 문서에서 IP를 제외하는 것이 괜찮다고 말합니다. 저작권에 관한 장관급 원탁회의, IP Australia의 지적 재산권 정책 그룹의 AI 워킹 그룹. 모두 매우 훌륭하지만, 이들 그룹 중 어느 것도 AI 기술에 관심 있는 이해 관계자를 광범위하게 대표하지 않습니다. 각료 원탁 회의 참가자에는 공영 및 민간 방송사, 뉴스 조직, 영화, 음악, 공연 예술 및 출판 산업의 대표 기관, 저작권 기관과 같은 저작권 산업의 일반적인 거물 대부분이 포함됩니다. IP Australia의 지적 재산 정책 그룹에 대한 정보는 찾기가 더 어렵습니다. 전문 동료를 통해 내가 아는 것은 IP 전문 협회의 대표가 포함된다는 것입니다. FICPI ​​호주 그리고 호주 특허 및 상표 변호사 협회(IPTA).

따라서 이러한 IP 이니셔티브가 IP 법률과 기타 규제 조치 및 비즈니스 관행 사이의 상호 작용을 적절하게 고려할 것이라는 저의 회의론을 이해해야 합니다. IP 법률의 역할을 개별적으로 검토하는 것은 내 생각에 실수입니다. 지적 재산권은 교육 데이터의 선택 및 집계에서 최종 교육 모델에서 생성된 출력에 이르기까지 AI 파이프라인 전체에 관련됩니다. 따라서 IP 법률과 규제 프레임워크의 다른 측면 간의 예기치 않은 결과 및 상호 작용을 피하기 위해 AI 규제에 대한 모든 접근 방식에 통합되어야 합니다.

단편적인 접근 방식을 취하면 AI 규제가 잘못될 위험이 있습니다. 일단은 그러지 말자.

spot_img

최신 인텔리전스

spot_img