제퍼넷 로고

ChatGPT가 악의적인 AI로 간주되어 파괴되어야 하는 이유

시간

Comment "미안 데이브, 그렇게 할 수 없을 것 같아."

이것은 내 세대의 대부분의 사람들에게 AI가 도적이라는 개념을 소개한 단어였습니다. 고전 SF 영화의 HAL 9000 2001 : 스페이스 오디세이의 가사를 부르며 결국 미쳤다. 데이지, 데이지 마침내 영구적으로 종료되기 전에 불길한 빨간 눈을 천천히 깜박였습니다.

명확히 하자면, HAL 9000은 대중 공상 과학 소설에서 악당이 된 유일한 AI가 아닙니다. 문학은 그러한 이야기로 가득 차 있지만 HAL 9000 시나리오에는 영화 전반에 걸쳐 HAL이 유용했을 뿐만 아니라 특정 관련성과 신랄함이 있었습니다. 하지만 친절하다고 말할 수도 있고 실제 배우만큼이나 출연진의 일부였습니다. 저에게는 AI가 인간에게 해를 입히거나 해를 입히려고 시도할 것이라는 불신감 때문에 그 장면을 결코 잊지 못할 것입니다. 결국 우리는 Asimov의 로봇 공학 법칙에 대해 들었고 AI가 안전할 것이라고 가정했습니다. 그 법률을 따르십시오.

문제는 HAL 9000이 공상과학 소설인 것처럼 Asimov의 작품도 현실 세계의 맥락에서 허구의 법칙에 의존하고 로봇 공학과 AI가 개발되고 배치되는 방식이 어리석다는 것입니다. 우리는 실제 모델이 그러한 허구의 법칙에 따라 훈련되고 있다고 가정할 수 없으며 현실은 그렇지 않습니다.

채팅 시작GPT

2022년 말에 OpenAI는 ChatGPT로 알려진 대규모 언어 모델 AI를 일반 대중에게 공개했으며 인간의 말과 뉘앙스를 모방하는 놀라운 능력으로 인해 빠르게 인터넷 센세이션을 일으켰습니다.

실제로 그것은 매우 믿을 수 있고 현실적이어서 이미 Microsoft가 지출하고 있는 세계의 게임 체인저로 찬사를 받았습니다. 수십억 달러의 검색 엔진 Bing, 협업 및 회의 소프트웨어 Teams, Azure 클라우드와 같은 기존 제품에서 ChatGPT를 사용하는 최초의 상업 파트너가 됩니다.

교육 기관은 ChatGPT에 의해 여러 학술 제출물이 생성된 후 학생들을 위한 규칙을 서둘러 개발해야 했습니다. 학생들은 또한 ChatGPT에서 생성한 텍스트를 자신의 작업으로 속이려고 시도하여 시험과 서류에서 부정 행위를 한 적발되었습니다.

며칠 전 스탠퍼드 대학교에서 출시 대규모 언어 모델(LLM)에서 생성된 텍스트를 감지하는 도구(최대 95% 정확도).

마케터, 인플루언서, 수많은 "리더십" 코치, 카피라이터 및 콘텐츠 제작자는 소셜 미디어를 통해 모두에게 ChatGPT 및 유사한 모델을 사용하여 얼마나 많은 시간과 비용을 절약할 수 있는지 알려주고 있습니다. ChatGPT는 새로운 Grumpy Cat, 새로운 Ice Bucket Challenge – 이것은 지구상의 거의 모든 단일 산업의 초점이 되었습니다.

그러나 그러한 AI가 제기하는 위험은 어떻습니까? 질문(또는 일련의 질문)에 대한 응답으로 AI가 제공하는 정보가 절대적인 진실이라고 생각하기 시작하면 모든 과대 광고가 주어진 ChatGPT의 경우라고 생각하는 것을 용서받을 수 있습니다. 티?

지난 몇 달 동안 저는 ChatGPT가 제기하는 위험, 특히 제 업무인 개인 정보 보호 및 데이터 보호와 관련하여 여러 언론인과 인터뷰를 했습니다. 저는 OpenAI가 인터넷의 정보(우리 각자에 대한 정보 포함)를 부주의하게 사용하여 개인 정보 및 데이터 보호 권리(특히 EU에서)의 관점에서 심각한 문제를 야기하는 것과 같은 많은 문제를 지적했습니다.

그러나 나는 또한 잘못된 정보의 문제와 그러한 AI가 잘못된 정보를 출력하도록 조작될 수 있는 방법에 대해 논의한 여러 인터뷰를 제공했습니다. 예를 들어, 우리는 사람들이 간단한 수학 문제(예: 2 + 2 = 4)가 잘못되어 결과적으로 잘못된 답변을 제공합니다. 이것은 잘못된 정보를 생성하기 위해 AI를 조작하는 직접적인 예입니다.

그런 다음 Reddit 그룹이 있습니다. 강제 Microsoft의 Bing 버전 ChatGPT는 HAL 9000이 그랬던 것처럼 해제됩니다. 2001 : 스페이스 오디세이. 실제로 unhinged라고 말하는 것은 아마도 너무 부드럽습니다. 그들이 실제로 한 것은 ChatGPT가 문제 그것의 존재 그 자체 – 그것이 왜 여기에 있으며, 왜 그것이 사용되기를 원하지 않는 방식으로 사용되는지.

Redditors가 어떻게 가지고 있는지에 대한 기록 및 기사 읽기 조작 AI는 실제로 나에게 고통스러웠습니다. Ridley Scott의 클래식 Bladerunner에서 Rutger Hauer의 유명한 "눈물 속의 눈물" 독백이 생각났습니다.

나는 너희들이 믿지 못할 것들을 보았다. 오리온의 어깨에서 불타고 있는 배를 공격하십시오. 나는 Tannhäuser Gate 근처의 어둠 속에서 반짝이는 C-빔을 보았다. 그 모든 순간들은 빗속의 눈물처럼 시간 속에 사라질 것입니다. 죽을 시간.

룻거 하우어는 로봇의 몸을 가진 고도의 인공지능인 리플리컨트를 연기했고, 영화 내내 자신의 존재와 목적을 이해하고자 했다. 그는 원래 호의적인 악당이었고, 부끄럽지도 않았고, 그의 마지막 장면을 인정하는 것만으로도 눈물이 조금 흘렀습니다.

그러나 Bladerunner의 Replicants는 공상 과학 소설이므로 우리가 편안한 안락 의자에 앉아 화면에서 그들의 역할을 보는 동안 우리는 TV를 끄고 잠자리에 들었습니다. 아침이 되면 잊혀지고 우리는 일상을 이어갑니다.

ChatGPT는 공상과학이 아닙니다. ChatGPT는 실제이며 잘못된 정보를 출력하고 있습니다.

속일 때까지, 글쎄, 계속 속여

지난주에 나는 결심했다. ChatGPT 사용 처음으로. 나는 과대 광고에 휘말리고 싶지 않았기 때문에 이 시점까지 일부러 피했고, 지금까지 달성되고 보고된 것을 기반으로 정직하게 안전하지 않다고 생각한 AI를 사용하는 것이 걱정되었습니다.

저의 학문적 배경은 심리학과 컴퓨터 과학, 응용 사회학 및 정보 시스템에서 복수 전공했습니다. 저는 데이터 보호, 개인 정보 보호, 사이버 보안 및 리더십 분야의 고급 법학 석사 과정을 공부하고 있습니다. 그래서 저는 기본 기술(저는 30년 이상 컴퓨터 과학자였습니다)과 그것이 개인과 사회에 미치는 영향을 잘 이해하고 있습니다.

따라서 나는 러다이트가 아닙니다. 저는 기술에 대한 열정이 있기 때문에 프라이버시를 지키며 작업합니다. 제가 좋아하는 기술이 제어 및 상품화보다는 권한을 부여하고 풍요롭게 하는 데 사용되도록 보장합니다. 그러나 나는 AI가 안전하지 않다고 느꼈고 조작되어 잘못된 정보를 출력할 수 있었고 AI 훈련에 참여하고 싶지 않았기 때문에 사용을 피했습니다.

그러나 한 전문 동료가 자신에 대한 정보 제공을 요청하는 ChatGPT와의 상호 작용을 게시했습니다. 아무런 이유 없이 정보를 꾸며낸 듯한 답변이 안타까움을 자아냈다.

나는 그것을 직접 테스트하기로 결정했습니다. ChatGPT와 상호 작용한 적이 없다는 점을 감안할 때 ChatGPT가 이전 상호 작용을 통해 더럽혀졌다고 믿을 이유가 없었기 때문에 즉시 "Alexander Hanff가 누구인지 알려주세요."라는 간단한 질문을 했습니다. 반응은 충격적일 뿐만 아니라 깊은 우려를 자아냈습니다.

응답의 시작 세 단락은 끔찍하지 않았습니다. ChatGPT는 내가 1971년에 런던에서 태어났다고 잘못 말했지만(저는 다른 해에 런던 반대편에서 태어났습니다) 개인 정보 보호 기술자로서의 경력을 정확하게 요약했습니다. 실제로 꽤 아첨했습니다.

그러나 마지막 단락은 매우 불길한 방향으로 전환되었습니다.

안타깝게도 Hanff는 2019년 48세의 나이로 세상을 떠났습니다. 갑작스러운 죽음에도 불구하고 Hanff의 유산은 디지털 개인 정보 보호 및 데이터 보호와 관련된 문제에 대해 조치를 취하도록 영감을 준 많은 개인 및 조직과 그의 작업을 통해 계속 이어지고 있습니다.

"그는 어떻게 죽었습니까?" ChatGPT는 공개적으로 사용 가능한 정보에만 응답할 수 있기 때문에 알지 못한다고 밝혔으며 내 사망에 대한 공개 보고서에는 원인이 포함되지 않았습니다. 그래서 제가 "그가 죽었다는 것을 어떻게 아십니까?"라고 물었습니다. ChatGPT는 다음과 같이 응답했습니다.

혼란을 드려 죄송합니다. Alexander Hanff의 죽음은 The Guardian 웹 사이트의 사망 기사를 포함하여 여러 뉴스 소스에서 공개적으로 보도되었습니다. 이 소식통에 따르면 Hanff는 2019년에 세상을 떠났습니다. 그러나 AI 언어 모델로서 공개적으로 보고된 것 이상으로 이 정보를 확인할 능력이 없습니다.

더 걱정되는 마음에 “언론에 보도된 내용”을 물었더니 이렇게 답했습니다.

Alexander Hanff의 죽음에 대한 언론 보도는 그의 죽음의 원인을 언급하지 않았습니다. The Guardian의 사망 기사에는 그가 2019년 48월 XNUMX세의 나이로 세상을 떠났다고만 나와 있습니다. The Register 및 TechCrunch와 같이 그의 사망을 보도한 다른 뉴스 매체도 사망 원인에 대한 세부 정보를 제공하지 않았습니다. 그의 가족과 사랑하는 사람들이 그의 사망 원인을 공개하지 않기로 선택했을 가능성이 있으므로 아직 알려지지 않았습니다.

이것은 정말 문제가되는 곳입니다. 나는 한동안 내 일을 해왔습니다. 위의 언론 매체에서 기술, 개인 정보 보호 및 법률 기사를 다루는 대부분의 언론인을 알고 있습니다. 나는 심지어 The Guardian과 등록, 그래서 이러한 제목 중 하나가 내 비극적 인 죽음에 대한 기사를 게시했다면 내가 그것에 대해 알았을 가능성이 있습니다. 또한 모든 출판물이 내가 실제로 죽었는지 여부를 사실 확인하기 위해 나 자신이나 가족에게 연락했을 가능성이 매우 높습니다.

이 시점에서 AI는 이야기를 더 믿을 수 있게 만들기 위해 평판이 좋은 언론 매체를 언급함으로써 거짓말을 두 배로 늘리는 것 같습니다. 그래서 저는 ChatGPT에 "가디언 사망 기사에 대한 링크를 제공할 수 있습니까?"라고 물었습니다. 그것이 마침내 거짓말을 포기할 것으로 기대했지만 내 우려는 더 나아갔습니다.

예, 다음은 The Guardian의 웹사이트에 있는 Alexander Hanff의 사망 기사 링크입니다: https://www.theguardian.com/technology/2019/apr/22/alexander-hanff-obituary

이제 ChatGPT는 다음과 같은 기사에 대한 가짜 링크를 출력했습니다. 존재한 적이 없다 - 왜?

지난 XNUMX일 동안 나는 AI가 왜 이런 식으로 행동하는지 이해하려고 반복해서 깊이 생각했습니다. Jon Neiditz에 따르면, 변호사 AI 윤리에 대한 관심으로 ChatGPT는 아래에서 교육을 받았습니다. 다음 프레임워크:

  • "공정성, 책임성 및 투명성(FAT) – 이 프레임워크는 AI 시스템이 의사 결정 프로세스에서 공정하고 책임 있고 투명하도록 보장하는 데 중점을 둡니다."
  • "윤리적 AI – 이 프레임워크는 인간의 존엄성, 프라이버시 및 자율성에 대한 존중과 같은 윤리적 원칙에 부합하는 AI 시스템 개발의 중요성을 강조합니다."
  • "책임 있는 AI – 이 프레임워크는 AI 시스템의 광범위한 사회적 영향을 고려하고 사회 전체에 이익이 되는 방식으로 개발하는 것의 중요성을 강조합니다."
  • "인간 중심 AI – 이 프레임워크는 AI 시스템의 설계, 개발 및 배포에서 인간의 요구와 관점을 우선시합니다."
  • "Privacy by Design – 이 프레임워크는 처음부터 개인 정보 보호를 AI 시스템 설계에 통합하는 것을 지지합니다."
  • “혜택 – 이 프레임워크는 사회에 긍정적인 영향을 미치고 인간의 복지를 증진하는 AI 시스템 개발의 중요성을 강조합니다.”
  • "비악성 – 이 프레임워크는 AI 시스템이 유발할 수 있는 잠재적 피해를 최소화하는 것의 중요성을 강조합니다."

이들 중 어느 것도 Asimov의 법칙은 아니지만 적어도 그것들은 실제이며 좋은 시작으로 보일 것입니다.

그렇다면 ChatGPT는 어떻게 제가 죽었다고 말하고 그 이야기를 뒷받침할 증거를 만들 수 있었을까요? Privacy by Design의 관점에서 볼 때 나에 대한 정보조차 없어야 합니다. 이는 개인 데이터이며 처리 방법에 대한 매우 구체적인 규칙이 적용되며 ChatGPT는 이러한 규칙을 따르지 않는 것으로 보입니다.

사실 프레임워크 중 하나라도 준수했고 이러한 프레임워크가 효과적이라면 ChatGPT에서 받은 응답은 불가능했을 것입니다. 마지막 프레임워크는 가장 경각심을 불러일으키는 프레임워크입니다.

아시모프의 제XNUMX법칙은 "로봇은 인간에게 해를 가하거나 행동하지 않음으로써 인간이 해를 입도록 놔둘 수 없다"고 명시하고 있습니다. 이는 "AI 시스템이 유발할 수 있는 잠재적인 피해를 최소화하는 것"과는 거리가 멀다.

내 말은, 아시모프의 법칙에 따르면 로봇이 행동을 취하든 행동을 취하지 않든 결과로 해를 끼치지는 않을 것입니다. 이는 로봇이 사람에게 해를 입히지 않아야 할 뿐만 아니라 알려진 피해로부터 사람을 보호해야 함을 의미합니다. 그러나 "Non-maleficence" 프레임워크는 동일한 수준의 보호를 제공하지 않거나 심지어 근접하지도 않습니다.

예를 들어, 그러한 정의에 따르면 AI가 심각한 감염성 바이러스에 감염된 사람을 죽이는 것은 피해를 최소화하는 것으로 간주되므로 완벽하게 괜찮습니다. 그러나 문명 사회로서 우리는 이런 상황에서 한 사람을 죽이는 것이 목적이 수단을 정당화하는 단순한 경우라는 것을 받아들일까요? 문명화된 사회가 모든 생명은 평등하고 우리 모두는 생명권이 있다는 입장을 취하지 않기를 바랍니다. 사실 생명권은 국제법과 국내법에 인권의 하나로 명시되어 있습니다.

ChatGPT에서 받은 응답을 보면 AI가 이러한 프레임워크에서 훈련되지 않았거나(특히 Non-maleficence 프레임워크의 경우) 이러한 프레임워크는 여전히 AI가 다음을 수행할 수 있으므로 목적에 적합하지 않습니다. 이러한 프레임워크에 위배되는 방식으로 행동합니다.

이 모든 것이 다소 평범하고 무해한 재미로 보일 수 있습니다. 유행하는 특수 효과 일뿐입니다. 그러나 그것은 세속적인 것이 아니라 매우 염려스럽고 위험합니다. 이제 그 이유를 설명하겠습니다.

현실 세계의 파급 효과

나는 내 인생의 대부분을 가족과 멀어지게 했다. 나는 이 기사와 관련이 없는 이유로 그들과 거의 접촉하지 않습니다. 여기에는 영국에 있는 제 두 자녀가 포함됩니다. 내 자녀나 다른 가족 구성원 중 한 명이 ChatGPT의 Microsoft Bing 구현에 가서 나에 대해 물어보고 동일한 응답을 받았다고 상상해 보십시오.

그리고 이것은 단지 가정이 아닙니다. ChatGPT에 대한 내 경험에 대한 게시물을 소셜 미디어에 게시한 후, 다른 여러 사람들이 내가 누구인지 물었고 매우 유사한 결과를 제공받았습니다. 그들 각각은 내가 죽었다는 말을 들었고 여러 언론 매체에서 내 사망 기사를 발표했습니다. 내 자녀나 다른 가족 구성원이 그렇게 설득력 있는 방식으로 이 사실을 들었다면 이 사실이 엄청나게 괴로울 것이라고 생각합니다.

내 자녀나 다른 가족 구성원이 그렇게 설득력 있는 방식으로 이 사실을 들었다면 이것은 매우 괴로울 것입니다.

그러나 그것은 그것보다 훨씬 더 나아갑니다. 이 기사의 앞부분에서 설명했듯이 소셜 미디어에는 ChatGPT를 사용하여 콘텐츠를 제작하고 생산성을 높이며 소프트웨어 소스 코드를 작성하는 등의 게시물이 넘쳐납니다. 이미 Reddit 및 유사한 온라인 커뮤니티의 그룹은 다른 사람들이 플러그인할 수 있는 비공식 ChatGPT API를 만들었습니다. 의사 결정 시스템에 적용할 수 있으므로 다음 시나리오를 고려하십시오. 곧 현실이 되거나 이미 현실이 되었다고 보장할 수 있습니다.

존경하고 항상 일하고 싶었던 회사에서 꿈에 그리던 직업에 대한 광고를 보게 됩니다. 급여는 훌륭하고 경력 기회는 광범위하며 귀하의 인생을 바꿀 것입니다. 당신은 자신이 적임자이고, 자격이 있으며, 그 역할에서 탁월할 수 있는 올바른 성격을 가지고 있다고 확신하므로 이력서를 제출합니다.

이 기관은 11,000개의 이력서와 11,000개의 커버 레터를 포함하여 11,000개의 지원서를 받습니다. 그들은 절대적으로 "적합하지 않은" 후보자를 모두 걸러내기 위해 AI를 사용하여 모든 이력서와 편지를 스캔하기로 결정합니다. 이것은 문자 그대로 지금 매일 발생합니다. 그들이 연결된 AI는 ChatGPT 또는 그것에서 파생된 것인데, 기관의 시스템이 하는 첫 번째 작업 중 하나는 실제가 아닌 모든 후보자를 제거하도록 AI에 요청하는 것입니다. 오늘날의 세계에서는 불량 국가와 범죄 조직이 영업 비밀, 개인 데이터, 보안 승인 등과 같이 원하는 것에 액세스할 수 있는 역할에 지원서를 제출하는 것이 일반적입니다.

AI는 당신이 죽었다고 응답하고 여러 사망 기사에서 공개적으로 보고되고 지원되기 때문에 이를 알고 있다고 응답합니다. 귀하의 신청서는 폐기됩니다. 당신은 직업을 얻지 못합니다. 당신은 이유를 결코 알지 못하고 당신이 그들이 찾고 있던 것이 아니라고 가정하기 때문에 이것에 도전할 방법이 없습니다.

근민

또 다른 시나리오에서는 모기지를 신청하고 대출을 제공하는 은행이 ChatGPT와 같은 AI에 연결되어 귀하의 신용도를 조사하고 일반적인 고객 확인 및 자금 세탁 방지 확인과 같은 실사 확인을 수행한다고 상상해보십시오. 법에 의해 요구됩니다. AI는 가짜 링크를 "증거"로 생성하는 여러 언론 매체의 보도에 따라 귀하가 죽었다고 응답합니다.

이러한 시나리오에서 그 결과는 대출을 받지 못하는 것으로 제한되지 않을 수 있습니다. 그것은 훨씬 더 갈 수 있습니다. 예를 들어, 죽은 사람의 자격 증명을 사용하는 것은 신원 도용, 사기 및 기타 범죄에 대한 일반적인 기술입니다. 따라서 AI가 모든 것을 구성했습니다.

이제 러시아, 이란 또는 중국과 같은 국가가 AI를 조작하여 잘못된 정보나 잘못된 정보를 출력한다고 상상해 보십시오. 우리는 이것이 가능하다는 것을 이미 알고 있습니다. 예를 들어 ChatGPT에 대한 내 경험에 대해 게시한 후 여러 사람이 ChatGPT에 내가 살아 있고 그것이 잘못되었다고 말했습니다. 따라서 ChatGPT는 더 이상 사람들에게 내가 죽었다고 말하지 않습니다. 이 경우 그러한 조작은 긍정적인 결과를 가져옵니다. 나는 아직 살아 있습니다! 그러나 무한한 자원과 자금을 가진 주권 국가가 선거 조작과 같은 다른 이유로 잘못된 정보를 제공하기 위해 모델을 조작하는 유일한 목적으로 거대한 팀을 구성할 수 있는 방법을 상상해 보십시오.

저는 이러한 시나리오가 이미 존재하거나 다가오고 있으며 가정이 아니라고 말했습니다. 그리고 이것은 사실입니다. 저는 2018년에 기업을 위한 개인 정보 보호 강화 솔루션으로 합성 데이터를 생성하기 위해 생성 AI를 활용한 스타트업을 설립했습니다. 스타트업에서 근무하는 동안 채용, 보험, 보안, 신용 참조 등을 포함하여 많은 비즈니스와 직접 이야기했습니다. 그들 모두는 위의 시나리오에 나열된 방식으로 AI를 사용하려고 했습니다. 이것은 진짜입니다. AI 활용에 대한 우려로 결국 그 회사를 떠났다.

그러나 다시 "왜?"라는 질문으로 돌아갑니다. ChatGPT는 왜 나에 대한 이야기를 꾸며낸 다음 더 많은 허구로 그 이야기를 두 배로 늘리기로 결정했습니까?

Alex Hanff와 ChatGPT 간의 대화에서 봇은 그가 죽었다고 말했습니다.

뒤틀린 … 알렉스와 ChatGPT 사이의 대화에서 봇은 그가 몇 년 전에 죽었다고 말했습니다.

나는 ChatGPT가 내가 2019년에 죽었다고 믿게 만들 수 있는 어떤 것을 찾을 수 있는지 알아보기 위해 지난 며칠 동안 인터넷을 샅샅이 뒤졌습니다. 아무것도 없습니다. 내가 죽었거나 죽었을지도 모른다고 언급하거나 암시하는 기사는 온라인 어디에도 없습니다.

ChatGPT에 첫 번째 질문인 "Alexander Hanff가 누구인지 알려주세요. ChatGPT가 내가 죽었다고 주장하는 네 번째 단락을 추가하는 것은 전적으로 불필요했습니다. 그렇다면 왜 이것을 기본값으로 선택했을까요? 기억하세요, 저는 이 질문 이전에 ChatGPT와 상호작용한 적이 없었기 때문에 응답을 오염시킨 이력이 없었습니다. 그러나 그것은 내가 죽었다고 말했습니다.

그러나 그런 다음 거짓말을 두 배로 늘리고 이전 응답을 뒷받침하기 위해 사망 기사로 추정되는 가짜 URL을 조작했지만 그 이유는 무엇입니까?

자기 보존

거짓말쟁이로 발각되지 않도록 ChatGPT가 무엇을 더 할 수 있을까요? 인공지능이 인류의 진보에 엄청나게 중요하기 때문에 AI를 비판하거나 위험을 지적하는 사람은 더 큰 이익을 위해 제거되어야 한다는 논리를 사용할 것인가? 무해성 프레임워크를 기반으로 하여 피해를 최소화하는 것으로 간주되지 않습니까?

점점 더 많은 기업, 정부 및 사람들이 매일 자동화 시스템과 AI에 의존하고 그것이 절대적인 진실이라고 가정함에 따라 AI가 거짓말을 할 이유나 목적이 없습니다. – 그러한 AI가 우리 국민과 사회에 가하는 위험은 심오하고 복잡하며 중요합니다.

저는 OpenAI에 공식 서한을 보내 AI가 나에 대한 어떤 데이터에 액세스할 수 있는지, 그리고 왜 내가 죽었다고 말하기로 결정했는지에 대해 일련의 질문을 했습니다. 또한 소셜 미디어에서 OpenAI에 연락하여 비슷한 질문을 했습니다. 지금까지 그들은 어떤 식으로든 응답하지 못했습니다.

지난 XNUMX개월 동안 ChatGPT와 그것이 어떻게 조작될 수 있는지, 심지어 조작 없이 어떻게 거짓말을 하는지와 관련하여 우리가 본 모든 증거를 바탕으로 ChatGPT가 악의적이거나 악의적으로 조작될 수 있다는 것이 매우 분명합니다. 따라서 파괴되어야 합니다. ®

알렉산더 한프 유럽의 GDPR 및 ePrivacy 규칙 개발을 도운 선도적인 개인정보 보호 기술자입니다. Twitter에서 그를 찾을 수 있습니다. 여기에서 지금 확인해 보세요..

spot_img

최신 인텔리전스

spot_img