제퍼넷 로고

순위 3: 기업 검색 및 RAG 시스템 강화

시간

개요

Cohere는 효율적인 기업 검색을 위한 차세대 기반 모델인 Rerank 3를 출시했습니다. 검색 증강 생성(조각). Rerank 모델은 모든 종류의 제품과 호환됩니다. 데이터베이스 또는 검색 색인이며 기본 검색 기능을 통해 모든 법률 애플리케이션에 통합될 수도 있습니다. 단 한 줄의 코드로 검색 성능을 향상하거나 실행 비용을 줄일 수 있다는 것을 상상하지 못할 것입니다. RAG 적용 대기 시간에 미치는 영향은 미미합니다.  

향상된 정확성과 효율성으로 기업 검색 및 RAG 시스템을 발전시키기 위해 이 기반 모델을 어떻게 설정하는지 살펴보겠습니다. 

3위 재지정

순위 재지정 기능 

Rerank는 다음을 포함하는 최고의 엔터프라이즈 검색 기능을 제공합니다. 

  • 4K 컨텍스트 길이는 긴 형식의 문서에 대한 검색 품질을 크게 향상시킵니다. 
  • 테이블, 코드, 데이터와 같은 다중 측면 및 반구조화된 데이터를 검색할 수 있습니다. JSON 문서, 송장 및 이메일. 
  • 100개 이상의 언어를 다룰 수 있습니다.
  • 대기 시간 향상 및 총 소유 비용(TCO) 감소

생성 AI 모델 긴 컨텍스트를 사용하면 RAG를 실행할 가능성이 있습니다. 정확도 점수, 대기 시간 및 비용을 향상시키기 위해 RAG 솔루션에는 세대 조합이 필요합니다. AI 모델 물론 모델의 순위를 다시 매기기도 합니다. rerank3의 고정밀 의미 체계 재순위 지정을 통해 관련 정보만 생성 모델에 공급되어 응답 정확도가 향상되고 특히 수백만 개의 문서에서 정보를 검색할 때 대기 시간과 비용이 매우 낮게 유지됩니다. 

기업 데이터는 종종 매우 복잡하며 조직에 배치된 현재 시스템은 다중 측면 및 반구조화된 데이터 소스를 검색하는 데 어려움을 겪습니다. 주로 조직에서 가장 유용한 데이터는 JSON과 같은 간단한 문서 형식이 아니며 엔터프라이즈 애플리케이션에서 매우 일반적입니다. Rerank 3은 최신성을 포함하여 관련 메타데이터 필드를 모두 기반으로 이메일과 같은 복잡한 다중 측면의 순위를 쉽게 지정할 수 있습니다. 

향상된 엔터프라이즈 검색
MIRACL의 nDCG@10을 기반으로 한 다국어 검색 정확도(높을수록 좋음).

Rerank 3은 코드 검색 성능을 크게 향상시킵니다. 이를 통해 회사의 코드베이스 내에서든 방대한 문서 저장소에서든 올바른 코드 조각을 더 빠르게 찾을 수 있어 엔지니어의 생산성이 향상될 수 있습니다.

3위 재지정 | 향상된 엔터프라이즈 검색
Codesearchnet, Stackoverflow, CosQA, Human Eval, MBPP, DS10의 nDCG@1000을 기반으로 한 코드 평가 정확도(높을수록 좋음).

기술 대기업들도 다국어 데이터 소스를 다루고 있으며 이전에는 다국어 검색이 키워드 기반 방법의 가장 큰 과제였습니다. Rerank 3 모델은 100개 이상의 언어로 강력한 다국어 성능을 제공하여 비영어권 고객의 검색 프로세스를 단순화합니다. 

향상된 엔터프라이즈 검색
MIRACL의 nDCG@10을 기반으로 한 다국어 검색 정확도(높을수록 좋음).

의미론적 검색 및 RAG 시스템의 주요 과제는 데이터 청킹 최적화입니다. Rerank 3은 4K 컨텍스트 창을 통해 이 문제를 해결하므로 더 큰 문서를 직접 처리할 수 있습니다. 이로 인해 관련성 점수를 매기는 동안 상황에 대한 고려가 향상됩니다.

3위 재지정 | 향상된 엔터프라이즈 검색

Rerank 3은 Elastic의 Inference API에서도 지원됩니다. Elastic Search는 널리 채택된 검색 기술을 갖추고 있으며 Elasticsearch 플랫폼의 키워드 및 벡터 검색 기능은 더 크고 복잡한 기업 데이터를 효율적으로 처리하도록 구축되었습니다. 

Elasticsearch의 GVP 겸 GM인 Matt Riley는 “기업이 데이터의 잠재력을 활용할 수 있도록 Cohere와 파트너십을 맺게 되어 기쁘게 생각합니다.”라고 말했습니다. Embed 3 및 Rerank 3인 Cohere의 고급 검색 모델은 복잡하고 대규모 기업 데이터에 탁월한 성능을 제공합니다. 이는 문제 해결사이며 모든 기업 검색 시스템에서 필수 구성 요소가 되고 있습니다. 

더 긴 컨텍스트로 지연 시간 개선

전자 상거래나 고객 서비스와 같은 많은 비즈니스 영역에서 짧은 대기 시간은 고품질 경험을 제공하는 데 중요합니다. 그들은 Rerank 3을 구축하는 동안 이 점을 염두에 두었습니다. Rerank 2은 Rerank 2에 비해 짧은 문서 길이에서는 최대 3배 더 낮은 대기 시간을, 긴 컨텍스트 길이에서는 최대 XNUMX배 향상된 성능을 보여줍니다.

3위 재지정 | 더 긴 컨텍스트로 지연 시간 개선
다양한 문서 토큰 길이 프로필에서 50개 문서의 순위를 매기는 시간으로 계산된 비교. 각 실행에서는 각 문서 전체에서 토큰 길이가 균일한 50개의 문서 배치를 가정합니다.

더 나은 성능과 효율적인 RAG

RAG(Retrieval-Augmented Generation) 시스템에서 문서 검색 단계는 전체 성능에 매우 중요합니다. Rerank 3은 뛰어난 RAG 성능을 위한 두 가지 필수 요소인 응답 품질과 대기 시간을 다룹니다. 이 모델은 의미론적 재순위 지정 기능을 통해 사용자 쿼리와 가장 관련성이 높은 문서를 찾아내는 데 탁월합니다.

이 표적 검색 프로세스는 RAG 시스템 응답의 정확성을 직접적으로 향상시킵니다. Rerank 3은 대규모 데이터 세트에서 관련 정보를 효율적으로 검색함으로써 대기업이 독점 데이터의 가치를 활용할 수 있도록 지원합니다. 이는 사용자 쿼리를 해결하는 데 가장 관련성이 높은 정보를 제공함으로써 고객 지원, 법률, HR, 재무를 포함한 다양한 비즈니스 기능을 촉진합니다.

더 나은 성능과 효율적인 RAG
Rerank 3은 Command R 모델 제품군과 결합하여 RAG를 위한 비용 효율적인 솔루션입니다. 이를 통해 사용자는 기반 생성을 위해 LLM에 더 적은 수의 문서를 전달하여 정확성과 대기 시간을 유지할 수 있습니다. 이로 인해 Rerank를 사용하는 RAG는 다른 생성 LLM보다 80-93% 저렴합니다.

Rerank 3을 RAG 시스템용 비용 효율적인 Command R 제품군과 통합하면 사용자의 총 소유 비용(TCO)이 크게 절감됩니다. 이는 두 가지 핵심 요소를 통해 달성됩니다. 첫째, Rerank 3은 관련성이 높은 문서 선택을 용이하게 하여 LLM이 근거 있는 응답 생성을 위해 더 적은 수의 문서를 처리하도록 요구합니다. 이는 대기 시간을 최소화하면서 응답 정확도를 유지합니다. 둘째, Rerank 3과 Command R 모델의 결합된 효율성은 시장의 대체 생성 LLM에 비해 80-93%의 비용 절감으로 이어집니다. 실제로 Rerank 3과 Command R의 비용 절감을 고려하면 총 비용 절감은 98%를 초과할 수 있습니다.

3위 재지정
독립 실행형 비용은 각각 1개의 토큰이 포함된 50개의 문서와 250개의 출력 토큰이 포함된 250M RAG 프롬프트에 대한 추론 비용을 기준으로 합니다. 순위 재지정 비용은 각각 1개의 토큰과 5개의 출력 토큰으로 구성된 250개의 문서가 포함된 250만 개의 RAG 프롬프트에 대한 추론 비용을 기준으로 합니다.

RAG 시스템에 대한 점점 더 일반적이고 잘 알려진 접근 방식 중 하나는 LLM을 문서 검색 프로세스의 재순위 지정자로 사용하는 것입니다. Rerank 3은 Claude -3 Sonte, GPT Turbo와 같은 업계 최고의 LLM보다 순위 정확도가 뛰어나며 비용은 90-98% 저렴합니다. 

3위 재지정
TREC 10 데이터 세트의 nDCG@2020을 기반으로 한 정확도(높을수록 좋음). LLM은 RankGPT(Sun et al. 2023)에서 사용된 접근 방식에 따라 목록 방식으로 평가됩니다.

Rerank 3은 LLM 응답의 정확성과 품질을 향상시킵니다. 또한 전체 TCO를 줄이는 데도 도움이 됩니다. Rerank는 관련성이 낮은 문서를 제거하고 관련 문서 중 일부만 정렬하여 답변을 도출함으로써 이를 달성합니다.

결론

Rerank 3은 기업 검색 및 RAG 시스템을 위한 혁신적인 도구입니다. 복잡한 데이터 구조와 다중 언어를 처리할 때 높은 정확도를 제공합니다. Rerank 3은 데이터 청크를 최소화하여 대기 시간과 총 소유 비용을 줄입니다. 그 결과 더 빠른 검색 결과와 비용 효율적인 RAG 구현이 가능해졌습니다. 향상된 의사 결정 및 고객 경험을 위해 Elasticsearch와 통합됩니다.

더 많은 AI 도구와 해당 응용 프로그램을 탐색할 수 있습니다. 여기에서 지금 확인해 보세요..

spot_img

최신 인텔리전스

spot_img