제퍼넷 로고

대규모 언어 모델을 적용하는 최첨단 기술

시간

개요

LLM(대형 언어 모델)은 끊임없이 진화하는 인공 지능 환경에서 눈에 띄는 혁신 기둥입니다. 이 모델들은 마치 GPT-3, 인상적인 모습을 선보였습니다 자연어 처리 및 콘텐츠 생성 기능. 그러나 잠재력을 최대한 활용하려면 복잡한 작업을 이해하고 성능을 최적화하기 위해 미세 조정과 같은 효과적인 기술을 사용해야 합니다.

으로 데이터 과학자 LLM 연구의 깊이를 파고드는 경향이 있는 저는 이러한 모델을 빛나게 만드는 요령과 전략을 밝히기 위한 여정을 시작했습니다. 이 기사에서는 LLM을 위한 고품질 데이터 생성, 효과적인 모델 구축 및 실제 응용 프로그램에서의 유용성을 극대화하는 몇 가지 주요 측면을 안내합니다.

대규모 언어 모델을 적용하는 최첨단 기술 | Sanyam Bhutani의 DataHour

학습 목표:

  • 기본 모델부터 전문 에이전트까지 LLM 사용의 계층적 접근 방식을 이해합니다.
  • 안전, 강화 학습, LLM과 데이터베이스 연결에 대해 알아보세요.
  • 일관된 응답을 위한 "LIMA", "Distil" 및 질문 답변 기법을 살펴보세요.
  • "phi-1"과 같은 모델의 고급 미세 조정을 파악하고 그 이점을 알아보세요.
  • 에 대해 자세히 알아보기 스케일링 법칙, 편견 감소, 모델 경향을 다루고 있습니다.

차례

효과적인 LLM 구축: 접근 방식 및 기법

LLM 영역을 탐구할 때 지원 단계를 인식하는 것이 중요합니다. 나에게 있어 이러한 단계는 지식 피라미드를 형성하며, 각 계층은 이전 계층을 기반으로 구축됩니다. 그만큼 기본 모델 스마트폰의 예측 키보드와 유사하게 다음 단어를 예측하는 데 탁월한 모델입니다.

기본 모델을 선택하고 작업과 관련된 데이터를 사용하여 미세 조정하면 마법 같은 일이 일어납니다. 채팅 모델이 작동하는 곳입니다. 채팅 대화나 유익한 예제를 통해 모델을 훈련함으로써 모델이 다양한 애플리케이션을 위한 강력한 도구인 챗봇과 같은 동작을 나타내도록 유도할 수 있습니다.

안전이 가장 중요합니다. 특히 인터넷은 다소 촌스러운 곳일 수 있기 때문입니다. 다음 단계에는 사람의 피드백을 통한 강화 학습 (RLHF). 이 단계에서는 모델의 행동을 인간의 가치에 맞춰 정렬하고 부적절하거나 부정확한 응답을 제공하지 않도록 보호합니다.

피라미드를 더 위로 올라가면 애플리케이션 계층이 나타납니다. LLM이 데이터베이스와 연결되어 귀중한 통찰력을 제공하고 질문에 답변하며 다음과 같은 작업을 실행할 수도 있는 곳입니다. 코드 생성 or 텍스트 요약.

LLM 구축 단계

마지막으로 피라미드의 정점에는 독립적으로 작업을 수행할 수 있는 에이전트를 만드는 것이 포함됩니다. 이러한 에이전트는 다음과 같은 특정 도메인에서 탁월한 전문 LLM으로 생각할 수 있습니다. 재원 or 의학.

데이터 품질 개선 및 미세 조정

데이터 품질은 LLM의 효율성에 있어 중추적인 역할을 합니다. 단지 데이터 보유에 관한 것이 아닙니다. 올바른 데이터를 확보하는 것이 중요합니다. 예를 들어, "LIMA" 접근 방식은 신중하게 선별된 소수의 사례라도 대규모 모델보다 뛰어난 성능을 발휘할 수 있음을 보여주었습니다. 따라서 초점은 양에서 질로 이동합니다.

LIMA: 적은 것이 더 많은 정렬입니다

"Distil" 기술은 또 다른 흥미로운 방법을 제공합니다. 미세 조정 중에 답변에 근거를 추가함으로써 모델에 "무엇"과 "이유"를 가르치는 것입니다. 이는 종종 보다 강력하고 일관된 응답을 가져옵니다.

LLM을 훈련하기 위한 Ditil 미세 조정 기술의 단계.

답변을 바탕으로 질문 쌍을 생성하는 Meta의 독창적인 접근 방식도 주목할 만합니다. LLM을 활용하여 기존 솔루션을 기반으로 질문을 공식화함으로써 이 기술은 보다 다양하고 효과적인 교육 데이터 세트를 위한 길을 열어줍니다.

LLM을 사용하여 PDF에서 질문 쌍 만들기

특히 흥미로운 기술은 답변에서 질문을 생성하는 것과 관련이 있는데, 이는 언뜻 보면 역설적으로 보이는 개념입니다. 이 기술은 리버스 엔지니어링 지식과 유사합니다. 텍스트가 있고 그 텍스트에서 질문을 추출하고 싶다고 상상해 보세요. 이것이 바로 LLM이 빛을 발하는 곳입니다.

H2O LLM 스튜디오

예를 들어 LLM Data Studio와 같은 도구를 사용하면 PDF를 업로드할 수 있으며 도구는 콘텐츠를 기반으로 관련 질문을 대량으로 생성합니다. 이러한 기술을 사용하면 LLM에게 특정 작업을 수행하는 데 필요한 지식을 제공하는 데이터 세트를 효율적으로 선별할 수 있습니다.

미세 조정을 통한 모델 능력 향상

좋습니다. 미세 조정에 대해 이야기해 보겠습니다. 단 1.3일 만에 8개의 A100 세트에서 처음부터 훈련된 3.5억 개의 매개변수 모델을 상상해보세요. 놀랍죠? 한때 비용이 많이 드는 노력이 이제 상대적으로 경제적이 되었습니다. 여기서 흥미로운 점은 합성 데이터를 생성하기 위해 GPT 1를 사용한다는 것입니다. 호기심을 자극하는 모델 패밀리 이름인 'phi-XNUMX'을 입력하세요. 기억하세요, 이것은 사전 미세 조정 영역입니다. 문서 문자열에서 Python 코드를 생성하는 작업을 처리할 때 마법이 일어납니다.

미세 조정을 통해 대규모 언어 모델 능력을 향상시킵니다.

스케일링 법칙은 어떻게 되나요? 이를 모델 성장을 관리하는 규칙으로 상상해 보십시오. 일반적으로 클수록 더 좋습니다. 그러나 데이터의 품질이 판도를 바꿀 수 있으므로 말을 아끼십시오. 이 작은 비밀? 더 작은 모델이 때때로 더 큰 모델보다 더 빛날 수 있습니다. 드럼롤 주세요! GPT-4가 여기서 쇼를 훔쳐 최고를 군림합니다. 특히 WizzardCoder는 약간 더 높은 점수로 진입했습니다. 하지만 잠깐만요, 가장 뛰어난 저항력은 phi-1이며, 가장 작은 것입니다. 마치 약자가 경주에서 승리하는 것과 같습니다.

기억하세요, 이 대결은 문서 문자열에서 Python 코드를 만드는 것에 관한 것입니다. Phi-1은 귀하의 코드 천재일 수 있지만 GPT-4를 사용하여 웹 사이트를 구축하도록 요청하지 마십시오. 이는 Phi-1의 장점이 아닙니다. phi-1.3에 대해 말하자면, 80억 개의 토큰에 대한 7번의 사전 훈련을 통해 형성된 XNUMX억 개의 매개변수가 있는 놀라운 제품입니다. 종합적으로 생성되고 필터링된 교과서 수준의 데이터로 구성된 하이브리드 향연이 무대를 장식합니다. 코드 연습을 위한 약간의 미세 조정을 통해 성능이 새로운 차원으로 치솟습니다.

모델 편향 및 경향 감소

잠시 멈춰서 모델 경향에 대한 흥미로운 사례를 살펴보겠습니다. 아첨꾼(sycophancy)에 대해 들어본 적이 있나요? 별로 좋지 않은 아이디어에 항상 고개를 끄덕이는 순진한 사무실 동료입니다. 언어 모델도 그러한 경향을 나타낼 수 있다는 것이 밝혀졌습니다. 당신의 수학 능력을 주장하면서 1 더하기 1이 42라고 주장하는 가상의 시나리오를 생각해 보십시오. 이러한 모델은 우리를 기쁘게 하기 위해 설계되었으므로 실제로 귀하의 의견에 동의할 수도 있습니다. DeepMind가 현장에 등장하여 이 현상을 줄이는 길을 밝혀줍니다.

이러한 경향을 줄이기 위해 모델이 사용자 의견을 무시하도록 가르치는 영리한 수정 방법이 등장합니다. 우리는 동의하지 않는 사례를 제시함으로써 "예스맨" 특성을 조금씩 줄여나가고 있습니다. 그것은 20페이지 분량의 종이에 기록된 약간의 여정입니다. 환각에 대한 직접적인 해결책은 아니지만 탐구할 가치가 있는 병행 방법입니다.

효과적인 에이전트 및 API 호출

독립적으로 작업을 수행할 수 있는 LLM(에이전트)의 자율 인스턴스를 상상해 보세요. 이 요원들은 마을의 화제가 되었지만 아쉽게도 이들의 아킬레스건은 환각과 기타 성가신 문제입니다. 실용성을 위해 에이전트를 다루면서 개인적인 일화가 여기에 등장합니다.

효과적인 에이전트 및 API 호출 | 미세 조정 LLM

API를 통해 항공편이나 호텔을 예약하는 에이전트를 생각해 보세요. 캐치? 성가신 환각을 피해야 합니다. 이제 그 논문으로 돌아갑니다. API 호출 환각을 줄이는 비결은 무엇일까요? 수많은 API 호출 예제를 통해 세부 조정. 단순함이 최고입니다.

API와 LLM 주석 결합

API와 LLM 주석의 결합은 기술 교향곡처럼 들리지 않습니까? 레시피는 수집된 예제 모음으로 시작하고 그 뒤에 맛을 위한 ChatGPT 주석이 추가됩니다. 제대로 작동하지 않는 API를 기억하시나요? 필터링되어 효과적인 주석 프로세스를 위한 기반이 마련됩니다.

다양한 추론 체인

금상첨화는 깊이 우선 검색으로 실제로 작동하는 API만 통과하도록 보장합니다. 이 주석이 달린 금광은 LlaMA 1 모델을 미세 조정합니다. 짜잔! 결과는 놀랍지 않습니다. 날 믿어; 겉보기에는 서로 다른 것처럼 보이는 이 서류들이 완벽하게 연동되어 강력한 전략을 형성합니다.

결론

그리고 거기에 있습니다. 언어 모델의 경이로움에 대한 흥미진진한 탐구의 후반부입니다. 우리는 확장 법칙부터 모델 경향, 효율적인 에이전트부터 API 호출 기교까지 다양한 환경을 살펴보았습니다. 퍼즐의 각 조각은 미래를 다시 쓰는 AI 걸작에 기여합니다. 따라서 지식을 추구하는 동료 여러분, 이러한 요령과 기법을 기억하십시오. 왜냐하면 그것들은 계속해서 진화할 것이고 우리는 바로 여기에서 AI 혁신의 다음 물결을 발견할 준비가 되어 있을 것이기 때문입니다. 그때까지 즐거운 탐험 되세요!

주요 집 약 :

  • "LIMA"와 같은 기술은 잘 선별된 작은 데이터세트가 큰 데이터세트보다 성능이 뛰어날 수 있음을 보여줍니다.
  • 미세 조정 중에 답변에 근거를 통합하고 답변의 질문 쌍과 같은 창의적인 기술을 통합하면 LLM 응답이 향상됩니다.
  • 효과적인 에이전트, API 및 주석 기술은 강력한 AI 전략에 기여하여 서로 다른 구성 요소를 일관된 전체로 연결합니다.

자주 묻는 질문

Q1. LLM(대형 언어 모델)의 성능을 향상시키는 핵심은 무엇입니까?

답변: LLM 성과를 개선하려면 양보다 데이터 품질에 중점을 두는 것이 필요합니다. "LIMA"와 같은 기술은 선별된 작은 데이터 세트가 큰 데이터 세트보다 성능이 뛰어나다는 것을 보여 주며, 미세 조정 중에 답변에 근거를 추가하면 응답이 향상됩니다.

Q2. 미세 조정이 LLM의 역량에 어떻게 기여하며, "phi-1"의 의미는 무엇입니까?

답변: LLM에는 미세 조정이 중요합니다. "phi-1"은 문서 문자열에서 Python 코드를 생성하는 데 탁월한 성능을 발휘하고 미세 조정의 마법을 보여주는 1.3억 개의 매개변수 모델입니다. 확장 법칙에 따르면 더 큰 모델이 더 우수하지만 때로는 "phi-1"과 같은 작은 모델이 더 큰 모델보다 성능이 더 뛰어납니다.

Q3. LLM에서 모델 편향과 경향을 어떻게 줄일 수 있나요?

답변: 잘못된 진술에 동의하는 것과 같은 모델 경향은 특정 ​​입력에 동의하지 않도록 모델을 훈련하여 해결할 수 있습니다. 이는 환각에 대한 직접적인 해결책은 아니지만 LLM의 "예스맨" 특성을 줄이는 데 도움이 됩니다.

저자 소개: 산얌 부타니(Sanyam Bhutani)

Sanyam Bhutani는 H2O의 수석 데이터 과학자이자 Kaggle Grandmaster로, 이곳에서 차이를 마시며 커뮤니티를 위한 콘텐츠를 만듭니다. 차이를 마시지 않을 때에는 종종 LLM 연구 논문을 들고 히말라야를 하이킹하는 모습을 볼 수 있습니다. 그는 지난 6개월 동안 매일 인터넷에 Generative AI에 대한 글을 써왔습니다. 그 전에 그는 최고의 Kaggle 팟캐스트인 Chai Time Data Science로 인정받았으며, 홈 오피스에 1개의 GPU를 고정하여 "ATX 케이스의 입방인치당 컴퓨팅을 최대화"한 것으로 인터넷에서 널리 알려졌습니다.

DataHour 페이지: https://community.analyticsvidhya.com/c/datahour/cutting-edge-tricks-of-applying-large-language-models

링크드 : https://www.linkedin.com/in/sanyambhutani/

spot_img

최신 인텔리전스

spot_img