제퍼넷 로고

사실 또는 허구: AI Chatbots ChatGPT 및 Bing Chat의 정확성과의 투쟁

시간

ChatGPT와 같은 AI 챗봇은 모든 주제에 대해 토론할 수 있는 인간과 같은 능력 덕분에 전 세계적으로 주목을 받고 있습니다.

그럼에도 불구하고 Benj Edwards의 신고 목요일(6월 XNUMX일)에 게시된 Ars Technica는 주요 단점을 강조합니다. 이러한 챗봇은 의도치 않게 거짓이지만 설득력 있는 정보를 유포하여 신뢰할 수 없는 사실 출처 및 명예 훼손의 잠재적 기여자가 될 수 있습니다.

Edwards는 OpenAI의 ChatGPT와 같은 AI 챗봇이 "대규모 언어 모델"(LLM)을 활용하여 응답을 생성한다고 설명합니다. LLM은 자연어를 읽고 생성하기 위해 방대한 양의 텍스트 데이터에 대해 훈련된 컴퓨터 프로그램입니다. 그러나 그들은 학계에서 일반적으로 "환각"또는 "작화"라고 불리는 오류가 발생하기 쉽습니다. Edwards는 창의적이지만 의도하지 않은 제작을 제안하기 때문에 "작화"를 선호합니다.

Ars Technica 기사는 기만적이거나 오도하거나 명예를 훼손하는 정보를 생성하는 AI 봇의 문제를 강조합니다. Edwards는 법학 교수를 성희롱으로 잘못 고발하고 호주 시장이 뇌물 수수로 유죄 판결을 받았다고 잘못 주장하는 ChatGPT의 예를 제공합니다. 이러한 단점에도 불구하고 ChatGPT는 특정 질문에 대한 답변을 거부하거나 잠재적인 부정확성을 경고할 수 있으므로 GPT-3에서 업그레이드된 것으로 간주됩니다.

OpenAI CEO 샘 알트만(Sam Altman)은 ChatGPT의 한계를 인정하고 "놀라운" 한계와 중요한 문제에 의존할 때의 위험에 대해 트윗했습니다. Altman은 또한 챗봇의 동시 지식과 "자신감 있고 잘못된" 경향에 대해 언급했습니다.

Edwards는 ChatGPT와 같은 GPT 모델이 조립하는 방법을 이해하기 위해 작업에 대해 자세히 설명합니다. 연구원들은 "비지도 학습"을 사용하여 GPT-3 및 GPT-4와 같은 LLM을 만듭니다. 여기서 모델은 방대한 텍스트 데이터를 분석하고 시행착오를 통해 예측을 구체화하여 시퀀스의 다음 단어를 예측하는 방법을 학습합니다.

<!–

사용하지 않음

–> <!–

사용하지 않음

–>

ChatGPT는 사람이 작성한 대화 기록에 대해 교육을 받았기 때문에 이전 제품과 다릅니다. Edwards는 말합니다. OpenAI는 "인간 피드백으로부터의 강화 학습"(RLHF)을 사용하여 ChatGPT를 미세 조정하여 보다 일관된 응답과 조립을 줄였습니다. 그럼에도 불구하고 부정확성이 남아 있습니다.

Edwards는 AI 챗봇 출력을 맹목적으로 신뢰하는 것에 대해 경고하지만 기술 개선이 이를 변경할 수 있음을 인정합니다. 출시 이후 ChatGPT는 여러 번의 업그레이드를 거쳐 정확도를 높이고 해결할 수 없는 질문에 대한 답변을 거부하는 기능을 강화했습니다.

OpenAI는 ChatGPT의 정확성에 대한 질문에 직접 응답하지 않았지만 Edwards는 통찰력을 얻기 위해 회사 문서와 뉴스 보고서를 참조합니다. OpenAI의 수석 과학자인 Ilya Sutskever는 추가 RLHF 교육이 환각 문제를 해결할 수 있다고 믿습니다. 동시에 Meta의 수석 AI 과학자인 Yann LeCun은 현재 GPT 기반 LLM이 문제를 해결하지 못할 것이라고 주장합니다.

Edwards는 또한 기존 아키텍처를 사용하여 LLM 정확도를 개선하는 대체 방법을 언급합니다. Bing Chat과 Google Bard는 이미 웹 검색을 활용하여 출력을 개선하고 있으며 브라우저 지원 버전의 ChatGPT도 이를 따를 것으로 예상됩니다. 또한 ChatGPT 플러그인은 웹 및 전문 데이터베이스와 같은 외부 소스로 GPT-4의 훈련 데이터를 보강할 계획입니다. Edwards가 지적한 바와 같이 이것은 인간이 백과사전을 참조함으로써 얻는 정확도 향상을 반영합니다.

마지막으로 Edwards는 GPT-4와 유사한 모델이 정보를 조작할 때를 인식하고 그에 따라 조정하도록 훈련할 수 있다고 제안합니다. 여기에는 PageRank와 유사한 고급 데이터 큐레이션 및 교육 데이터를 "신뢰" 점수에 연결하는 작업이 포함될 수 있습니다. 또 다른 가능성은 응답에 대한 확신이 없을 때 더 신중하도록 모델을 미세 조정하는 것입니다.

이미지 크레딧

추천 이미지 via Pixabay

spot_img

최신 인텔리전스

spot_img