제퍼넷 로고

Google의 AI는 인간의 인지 결함을 조명합니다: 유창한 말을 유창한 사고로 착각

시간

당신이 이와 같은 문장을 읽을 때, 당신의 과거 경험은 그것이 인간의 생각과 느낌에 의해 쓰여졌다는 것을 말해줍니다. 그리고 이 경우 실제로 사람이 [안녕하세요!]라는 단어를 입력하고 있습니다. 하지만 요즘에는 눈에 띄게 인간적으로 보이는 문장들이 실제로는 인공 지능 방대한 양의 인간 텍스트에 대해 훈련된 시스템.

사람들은 유창하다고 가정하는 데 너무 익숙합니다. 언어 이는 그 반대의 증거가 머리를 감싸기 어려울 수 있다는 인간의 생각과 감정에서 비롯됩니다. 사람들은 이 상대적으로 미지의 영역을 어떻게 탐색할 수 있습니까? 유창한 표현을 유창한 생각과 연관시키는 지속적인 경향 때문에 AI 모델이 유창하게 표현할 수 있다면 인간과 똑같이 생각하고 느낀다고 생각하는 것은 당연하지만 잠재적으로 오해의 소지가 있습니다.

따라서 전직 Google 엔지니어가 최근 Google의 AI 시스템 LaMDA가 자신의 감정에 대한 텍스트를 웅변적으로 생성할 수 있기 때문에 자아 감각이 있다고 주장한 것은 놀라운 일이 아닙니다. 이번 행사와 이후 언론 보도 로 이끌었다 번호 정당하게 회의적인 기사게시물 인간 언어의 컴퓨터 모델은 지각이 있으며, 사고하고 느끼고 경험할 수 있다는 의미입니다.

AI 모델이 지각이 있다는 것이 무엇을 의미하는지에 대한 질문은 복잡합니다(예를 들어, 우리 동료의), 여기서 우리의 목표는 그것을 해결하는 것이 아닙니다. 그러나 ~함에 따라 언어 연구원, 우리는 인지 과학 및 언어학에서 우리의 작업을 사용하여 인간이 언어를 유창하게 사용할 수 있는 개체가 지각이 있거나 의식이 있거나 지능적이라고 생각하는 인지 함정에 너무 쉽게 빠지는 이유를 설명할 수 있습니다.

AI를 사용하여 인간과 유사한 언어 생성

Google의 LaMDA와 같은 모델에서 생성된 텍스트는 사람이 작성한 텍스트와 구별하기 어려울 수 있습니다. 이 인상적인 성과는 문법적이고 의미 있는 언어를 생성하는 모델을 구축하기 위한 수십 년 간의 프로그램의 결과입니다.

텍스트 대화 상자를 보여주는 스크린샷
대화에 사람들을 참여시키는 최초의 컴퓨터 시스템은 반세기 전에 구축된 Eliza라는 심리 치료 소프트웨어였습니다. 이미지 크레디트: Rosenfeld 미디어/플리커, CC BY

n-gram 모델로 알려진 1950년대로 거슬러 올라가는 초기 버전은 단순히 특정 구문의 출현을 세어 특정 맥락에서 어떤 단어가 나올 가능성이 있는지 추측하는 데 사용했습니다. 예를 들어, "땅콩 버터와 젤리"가 "땅콩 버터와 파인애플"보다 더 가능성이 높은 문구라는 것을 쉽게 알 수 있습니다. 영어 텍스트가 충분하면 "땅콩 버터와 젤리"라는 문구를 계속해서 볼 수 있지만 "땅콩 버터와 파인애플"이라는 문구는 보지 못할 수도 있습니다.

오늘날의 모델, 인간의 언어에 가까운 일련의 데이터 및 규칙은 몇 가지 중요한 면에서 이러한 초기 시도와 다릅니다. 첫째, 그들은 본질적으로 전체 인터넷에 대해 교육을 받습니다. 둘째, 단순히 이웃 단어가 아닌 멀리 떨어져 있는 단어 사이의 관계를 학습할 수 있습니다. 세 번째로, 그것들은 수많은 내부 "노브"에 의해 조정됩니다. 너무 많아서 그것들을 디자인하는 엔지니어들조차 다른 단어가 아닌 한 단어 시퀀스를 생성하는 이유를 이해하기 어렵습니다.

그러나 모델의 임무는 1950년대와 동일하게 유지됩니다. 다음에 올 가능성이 있는 단어를 결정하는 것입니다. 오늘날 그들은 이 과업에 매우 능숙하여 그들이 생성하는 거의 모든 문장이 유동적이고 문법적으로 보입니다.

땅콩 버터와 파인애플?

우리는 큰 언어 모델에게 물었습니다. GPT-3, "땅콩 버터와 파인애플__" 문장을 완성합니다. "피넛 버터와 파인애플은 훌륭한 조합입니다. 땅콩버터와 파인애플의 달콤하고 고소한 맛이 완벽하게 조화를 이룹니다.” 이런 말을 하면 피넛버터와 파인애플을 함께 먹어봤다고 추측하고 의견을 모아 독자와 공유했을 것이다.

그러나 GPT-3은 이 단락을 어떻게 생각해 냈습니까? 우리가 제공한 문맥에 맞는 단어를 생성함으로써. 그리고 또 하나. 그리고 또 하나. 모델은 파인애플을 보거나 만지거나 맛본 적이 없으며 인터넷에서 파인애플을 언급하는 모든 텍스트를 처리했을 뿐입니다. 그러나 이 단락을 읽으면 인간의 마음, 심지어 Google 엔지니어의 마음도 다음과 같이 생각할 수 있습니다. GPT-3 땅콩 버터와 파인애플 요리에 대해 추론할 수 있는 지적인 존재로서.

[포함 된 콘텐츠]

인간의 뇌는 말 뒤에 숨겨진 의도를 추론하도록 고정되어 있습니다. 대화에 참여할 때마다 마음은 자동으로 대화 상대의 멘탈 모델을 구성합니다. 그런 다음 그 사람의 목표, 감정 및 신념으로 모델을 채우기 위해 그들이 말하는 단어를 사용합니다.

단어에서 멘탈 모델로 넘어가는 과정은 매끄럽고 완전한 문장을 받을 때마다 촉발됩니다. 이 인지 과정은 일상 생활에서 많은 시간과 노력을 절약하고 사회적 상호 작용을 크게 촉진합니다.

그러나 AI 시스템의 경우 실격하여 허공에서 멘탈 모델을 구축합니다.

조금 더 조사하면 이 오작동의 심각성을 알 수 있습니다. 다음 프롬프트를 고려하십시오. "땅콩 버터와 깃털은 ___ 때문에 함께 맛이 좋습니다." GPT-3은 계속해서 다음과 같이 말했습니다: “땅콩 버터와 깃털은 둘 다 견과류 맛이 나기 때문에 함께 맛이 좋습니다. 땅콩버터도 부드럽고 크리미해서 깃털의 질감을 상쇄시켜줍니다.”

이 경우의 텍스트는 파인애플에 대한 우리의 예만큼 유창하지만, 이번에는 모델이 확실히 덜 합리적인 것을 말하고 있습니다. GPT-3가 실제로 땅콩 버터와 깃털을 사용해 본 적이 없다는 의심이 들기 시작합니다.

지능을 기계에 귀속시키고 인간에게 부정하기

슬픈 아이러니는 사람들이 GPT-3에 인간성을 부여하는 동일한 인지 편향이 실제 인간을 비인간적인 방식으로 대하게 만들 수 있다는 것입니다. 사회문화적 언어학(사회 문화적 맥락에서 언어 연구)은 유창한 표현과 유창한 사고 사이에 지나치게 긴밀한 관계가 있다고 가정하면 다르게 말하는 사람들에 대한 편견으로 이어질 수 있음을 보여줍니다.

예를 들어, 외국 억양을 가진 사람들은 종종 덜 지능적으로 인식 자격을 갖춘 일자리를 얻을 가능성이 적습니다. 에 대해 유사한 편견이 존재합니다. 방언의 스피커 권위있는 것으로 간주되지 않는 남부 영어와 같은 미국에서는 반대 수화를 사용하는 청각 장애인, 그리고 언어 장애가 있는 사람들을 상대로 말더듬과 같은.

이러한 편견은 매우 해로우며 종종 인종차별적, 성차별적 가정으로 이어지며 근거가 없는 것으로 반복해서 보여졌습니다.

유창한 언어만으로는 인간성을 의미하지 않습니다

AI가 지능을 갖게 될까요? 이 질문은 깊은 숙고가 필요하며, 실제로 철학자들은 숙고 된 it 수십 년 동안. 그러나 연구자들이 결정한 것은 언어 모델이 느낌을 알려줄 때 단순히 신뢰할 수 없다는 것입니다. 말은 오해의 소지가 있으며 유창한 말을 유창한 생각으로 착각하기 쉽습니다.대화

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.

이미지 신용 : 탄차/Shutterstock.com

spot_img

최신 인텔리전스

spot_img