제퍼넷 로고

AGI는 LLM 붐에도 불구하고 먼 꿈으로 남아 있습니다.

시간

특색 또 다른 날, 또 다른 헤드라인. 지난주, 1.3년 된 스타트업, 투자자로부터 XNUMX억 달러 유치 Microsoft 및 Nvidia를 포함하여 Inflection AI의 가치를 4억 달러로 평가합니다.

이와 같은 이상한 평가는 다음과 같은 경고와 경쟁합니다. 실존적 위험, 대량 실직 및 킬러 드론 살해 위협 AI에 대한 미디어 과대 광고. 그러나 60년 간의 과학 연구가 카펫 아래로 휩쓸려 가면서 누가 지적 지형을 소유하게 되는지에 대한 논쟁이 헤드라인 아래에서 떠돌고 있습니다. 위태로운 것은 인공 일반 지능(AGI)이라는 것을 가진 인간과 동등해질 때입니다.

예일대 경영대학원 경제학과 교수인 제이슨 아바럭(Jason Abauck)은 XNUMX월에 트위터로 가져 갔다. "AGI가 곧 출시된다는 데 동의하지 않는다면 전문 AI 연구자보다 자신의 견해가 더 많은 정보를 얻은 이유를 설명해야 합니다."

강력한 AI라고도 알려진 AGI의 개념은 1980년부터 결과를 낼 수 있는 시스템과 생각을 통해 그렇게 할 수 있는 시스템을 구별하는 수단으로 사용되었습니다.

최근 이 주제에 대한 관심이 급증한 것은 OpenAI의 GPT-4에서 비롯된 것입니다. OpenAI의 GPT-XNUMX는 엄청난 양의 텍스트 처리에 의존하는 대규모 언어 모델로, 텍스트 사이의 연관성을 벡터로 변환하여 시와 컴퓨터 코드.

다음을 포함한 일련의 인상적인 결과 합법적인 통일 변호사 시험 통과 – 경제적 이익에 대한 대담한 주장 – 영국 생산성의 31억 파운드(39.3억 달러) 증가, KPMG에 따르면 – 지지자들이 점점 대담해지고 있습니다.

지난 달 OpenAI CEO Sam Altman 인도 청중에게 선언: “나는 지능이 정말 특별한 인간이고 일종의 마법 같은 것이라고 암묵적으로 생각하면서 자랐습니다. 그리고 이제 나는 그것이 물질의 근본적인 속성이라고 생각합니다…

지난 10월 OpenAI에 4억 달러를 투입한 마이크로소프트는 GPT-XNUMX에 대한 자체 실험을 진행해왔다. 소프트웨어 거대 기업의 기계 학습 기반의 수석 연구 관리자인 Sebastien Bubeck이 이끄는 팀은 결론 [PDF] "기술은 GPT-4가 추론의 핵심 측면인 복잡한 개념을 조작할 수 있음을 분명히 보여줍니다."

그러나 과학자들은 Altman과 Bubeck보다 훨씬 더 오래 생각하는 것에 대해 생각해 왔습니다. 1960년에 미국의 심리학자 George Miller와 Jerome Bruner는 Harvard Center for Cognitive Studies를 설립하여 학문의 탄생을 위한 좋은 출발점을 제공했지만 일부 가닥은 1940년대로 거슬러 올라갑니다. 이 과학적 유산을 물려받은 사람들은 대규모 언어 모델과 생성 AI에 대해 경제학자와 컴퓨터 과학자가 주장하는 거창한 주장에 대해 비판적입니다.

Max Planck Research의 신경 시스템 언어 및 계산 그룹 리더인 Andrea Martin 박사는 AGI가 "빨간 청어"라고 말했습니다.

“제 문제는 일반 지능이라는 개념 자체에 있습니다. 그것은 주로 예측적입니다. 하나의 테스트는 다른 테스트에서 어떻게 점수를 매겼는지 크게 예측합니다. 이러한 행동이나 척도는 일부 본질주의적 특성과 상관관계가 있을 수 있지만 그에 대한 증거는 거의 없습니다.”라고 그녀는 말했습니다. 등록.

Martin은 또한 컴퓨터 과학, AI 및 인지 과학에서 창립 역할을 한 Alan Turing이 제안한 Turing Test를 AI가 인간과 같은 사고 또는 지능을 입증하기 위한 기준으로 사용하는 것을 거부합니다.

이 테스트는 기계가 자연어 질의응답 세션을 통해 사람들이 자신이 인간이라고 생각하도록 속일 수 있는지 평가하기 위해 시작됩니다. 인간 평가자가 텍스트 인터페이스를 통해 보이지 않는 기계와 보이지 않는 인간을 확실하게 구별할 수 없다면 기계는 통과한 것입니다.

ChatGPT와 Google의 AI는 모두 테스트를 통과했지만 이것을 컴퓨터가 생각하고 있다는 증거로 사용하는 것은 "Turing에 대한 끔찍한 오독"이라고 Martin은 말했습니다.

"그의 의도는 항상 인지 과학이나 심리학의 개념이 아니라 공학이나 컴퓨터 과학 개념이었습니다."

뉴욕 대학교 심리학 및 신경 과학 명예 교수 게리 마커스(Gary Marcus)는 시험도 비판 기계 지능 또는 인지를 평가하는 수단으로.

LLM 접근 방식의 또 다른 문제는 언어의 구조나 지식을 포착하는 능력을 이해하려고 시도하기보다는 통계적으로 구동되는 언어의 측면만 포착한다는 것입니다. “그것은 본질적으로 엔지니어링 목표입니다. 그리고 그것이 과학에 속하지 않는다고 말하고 싶지는 않지만, 정의상 다른 목표라고 생각합니다.”라고 Martin은 말했습니다.

LLM이 지능적이거나 추론할 수 있다고 주장하는 것은 개발에 사용되는 방법의 투명성 문제에 직면하게 됩니다. 이름에도 불구하고 OpenAI는 일부 모델을 개발하기 위해 훈련 데이터나 사람의 피드백을 어떻게 사용했는지 공개하지 않았습니다.

“모델은 좋은 것으로 표시되는 만족스러운 응답을 위해 매개변수 가중치가 무엇인지에 대해 많은 피드백을 받고 있습니다. 90년대와 XNUMX년대에는 인지 과학 회의에서 허용되지 않았을 것입니다.”라고 Martin은 말했습니다.

Martin은 LLM에서 인간과 같은 성능이 그들이 인간처럼 생각하고 있다는 것을 입증하기에 충분하지 않다고 주장하면서 "상관 관계가 충분하고 일종의 의미 있는 인과 구조를 제공한다는 생각은 사실이 아닙니다."라고 말했습니다.

그럼에도 불구하고 대규모 언어 모델은 그 가치가 지지자들에 의해 과장되더라도 가치가 있을 수 있다고 그녀는 말했습니다.

"단점은 ​​그들이 많은 중요한 발견을 얼버무릴 수 있다는 것입니다. 인지 과학 철학에서 우리는 포기할 수 없고 그것에서 벗어날 수 없습니다."

하지만 인지과학 분야의 모든 사람이 동의하는 것은 아닙니다. University College London의 인지 신경과학 교수인 Tali Sharot은 다른 관점을 가지고 있습니다. "물론 언어 사용은 매우 인상적입니다. 논쟁을 제기하고 코딩과 같은 기술을 사용합니다."라고 그녀는 말했습니다.

“지능과 인간 존재 사이에는 일종의 오해가 있습니다. 지능은 올바르게 배우고 지식과 기술을 습득하는 능력입니다.

“따라서 이러한 언어 모델은 확실히 배우고 지식을 습득하고 기술을 습득할 수 있습니다. 예를 들어, 코딩이 기술이라면 기술을 습득할 수 있습니다. 그렇다고 해서 어떤 의미에서든 인간이라는 의미는 아닙니다.”

한 가지 주요 차이점은 AI에는 대행사가 없고 LLM은 사람들과 같은 방식으로 세상에 대해 생각하지 않는다는 것입니다. “그들은 반성을 하고 있습니다. 어쩌면 우리도 같은 일을 하고 있을지 모르지만 저는 그것이 사실이 아니라고 생각합니다. 제가 보기에 그들은 전혀 생각하지 않습니다.”라고 Sharot이 말했습니다.

총 회상

UCL의 세포 및 발달 생물학과 교수인 Caswell Barry는 기억의 신경적 기반을 밝히기 위해 노력하고 있습니다. 그는 OpenAI가 현장의 많은 사람들이 결실을 맺을 것이라고 생각하지 않았던 AI에 대한 접근 방식에 큰 내기를 걸었다고 말합니다.

단어 임베딩과 언어 모델은 현장에서 잘 이해되었지만 OpenAI는 더 많은 데이터를 얻고 "본질적으로 인터넷에서 찾을 수 있는 인류가 작성한 모든 것을 빨아들이면 흥미로운 일이 일어날 수 있다"고 말했습니다.

“돌이켜 보면 모든 사람들이 일리가 있다고 말하지만 실제로는 그것이 엄청난 내기라는 것을 알고 있었고 DeepMind와 같은 기계 학습 세계의 많은 거물들을 완전히 비켜갔습니다. 그들은 그 연구 방향을 추구하지 않았습니다. 우리는 뇌에서 영감을 얻어야 하고 그것이 AGI에 도달하는 방법이었습니다.

OpenAI는 접근 방식의 성공으로 업계와 학계를 놀라게 할 수 있지만 조만간 AGI에 가까워지지 않고 길을 잃을 수 있다고 그는 주장했습니다.

“OpenAI는 말 그대로 인터넷에서 쉽게 액세스할 수 있는 디지털 텍스트의 상당 부분을 빨아들였습니다. 어딘가에서 가져와야 하기 때문에 10배 더 얻을 수는 없습니다. 그것을 사용하는 방법에 대해 정교하고 더 똑똑해지는 방법이 있지만 실제로는 근본적으로 여전히 일부 기능이 없습니다. 추상적인 개념을 생성하고 조작할 수 있다는 확실한 징후는 없습니다.”

한편, 목표가 AGI에 도달하는 것이라면 그 개념은 우생학과 문화적 편견으로 물든 복잡한 역사로 인해 여전히 이해가 잘 되지 않고 정확히 파악하기 어렵다고 그는 말했습니다.

의에서 종이 [PDF] Microsoft는 "AGI(인공 일반 지능) 시스템의 초기(아직 불완전한) 버전"을 만들었다고 주장한 후 AGI의 정의에 대해 자세히 설명합니다.

"우리는 AGI를 사용하여 추론, 계획, 경험으로부터 학습하는 능력을 포함하여 인간 수준 이상의 지능 능력을 보여주는 시스템을 말합니다."

귀납적 추론

인지과학과 신경과학 전문가만이 차이를 요구하는 것은 아닙니다. 통합 모델링 언어 개발로 유명한 소프트웨어 엔지니어 Grady Booch는 지지했다 의심하는 사람들은 Twitter에서 AGI가 우리의 생애 동안 또는 그 이후에도 일어나지 않을 것이라고 선언함으로써 "인과 관계의 의미론, 귀추 추론, 상식 추론, 마음과 자기 이론 또는 주관적 이론에 대한 적절한 아키텍처가 부족하기 때문입니다. 경험."

LLM 주변의 버섯 산업은 지금 당장 튀길 더 큰 물고기를 가질 수 있습니다. OpenAI는 집단 소송 저작권이 있는 데이터를 스크랩하기 위해 훈련 데이터의 윤리에 문제가 있는 반면, 보여주는 한 연구 그들은 수많은 인종적, 사회적 편견을 품고 있습니다.

LLM이 작동하는 질문과 코드에 대한 유효한 답변을 제공할 수 있다면 아마도 그것은 단순히 엔지니어링 연습으로 제작자가 주장하는 대담한 주장을 정당화하기 위한 것일 수 있습니다.

그러나 Martin 박사에게는 접근 방식이 불충분하고 다른 분야에서 배울 가능성을 놓치고 있습니다.

“그것은 당신이 과학에 관심이 있느냐 없느냐로 거슬러 올라갑니다. 과학은 기계론적 또는 인과적 구조 측면을 갖는 세계의 현상에 대한 설명, 온톨로지 및 설명을 제시하는 것입니다. 공학은 근본적으로 그것에 관한 것이 아닙니다. 그러나 [물리학자] 막스 플랑크의 말을 인용하자면 적용하기 전에 통찰이 와야 합니다. 무언가가 작동하는 방식을 이해하면 그 자체로 더 나은 애플리케이션을 개발할 수 있습니다.”

과장된 LLM 기술에 대한 응용 프로그램을 찾기 위해 서둘러 수십 년의 인지 과학을 무시하지 않는 것이 최선일 수 있습니다. ®

spot_img

최신 인텔리전스

spot_img