제퍼넷 로고

산업 운영에서 생성적 AI의 잠재력 활용 | 아마존 웹 서비스

시간

진화하는 제조 환경에서 AI와 머신 러닝(ML)의 혁신적인 힘은 분명하며, 운영을 간소화하고 생산성을 높이는 디지털 혁명을 주도하고 있습니다. 그러나 이러한 발전은 데이터 기반 솔루션을 탐색하는 기업에 고유한 과제를 안겨줍니다. 산업 시설은 센서, 원격 측정 시스템, 생산 라인에 분산된 장비에서 발생하는 방대한 양의 비정형 데이터로 인해 어려움을 겪고 있습니다. 실시간 데이터는 예측 유지 관리 및 이상 감지와 같은 애플리케이션에 매우 중요하지만, 이러한 시계열 데이터를 사용하여 각 산업 사용 사례에 대한 맞춤형 ML 모델을 개발하려면 데이터 과학자에게 상당한 시간과 리소스가 필요하므로 광범위한 채택이 방해됩니다.

제너레이티브 AI 다음과 같은 사전 훈련된 대규모 기초 모델(FM)을 사용하여 클로드 간단한 텍스트 프롬프트를 기반으로 대화형 텍스트부터 컴퓨터 코드까지 다양한 콘텐츠를 빠르게 생성할 수 있습니다. 제로샷 프롬프트. 이를 통해 데이터 과학자가 각 사용 사례에 대한 특정 ML 모델을 수동으로 개발할 필요가 없으므로 AI 액세스가 민주화되어 소규모 제조업체에도 이익이 됩니다. 작업자는 AI에서 생성된 통찰력을 통해 생산성을 높이고, 엔지니어는 이상 현상을 사전에 감지할 수 있으며, 공급망 관리자는 재고를 최적화하고, 공장 경영진은 정보에 입각한 데이터 기반 결정을 내릴 수 있습니다.

그럼에도 불구하고 독립형 FM은 컨텍스트 크기 제약이 있는 복잡한 산업 데이터를 처리하는 데 한계에 직면합니다(일반적으로 200,000개 미만의 토큰) 이는 도전 과제를 제기합니다. 이 문제를 해결하려면 자연어 쿼리(NLQ)에 대한 응답으로 코드를 생성하는 FM의 기능을 사용할 수 있습니다. 에이전트는 다음과 같습니다 판다AI 고해상도 시계열 데이터에 대해 이 코드를 실행하고 FM을 사용하여 오류를 처리합니다. PandasAI는 널리 사용되는 데이터 분석 및 조작 도구인 pandas에 생성 AI 기능을 추가하는 Python 라이브러리입니다.

그러나 시계열 데이터 처리, 다중 레벨 집계, 피벗 또는 공동 테이블 작업과 같은 복잡한 NLQ는 제로샷 프롬프트에서 Python 스크립트 정확성이 일관되지 않을 수 있습니다.

코드 생성 정확도를 높이기 위해 동적 구성을 제안합니다. 멀티샷 프롬프트 NLQ의 경우. 멀티샷 프롬프트는 유사한 프롬프트에 대해 원하는 출력의 여러 예를 보여줌으로써 FM에 추가 컨텍스트를 제공하고 정확성과 일관성을 높입니다. 이 게시물에서는 유사한 데이터 유형(예: 사물 인터넷 장치의 고해상도 시계열 데이터)에서 실행되는 성공적인 Python 코드가 포함된 임베딩에서 멀티샷 프롬프트를 검색합니다. 동적으로 구성된 멀티샷 프롬프트는 FM에 가장 관련성이 높은 컨텍스트를 제공하고 고급 수학 계산, 시계열 데이터 처리 및 데이터 약어 이해에서 FM의 기능을 향상시킵니다. 이러한 개선된 대응을 통해 기업 직원과 운영 팀은 광범위한 데이터 과학 기술 없이도 데이터에 참여하고 통찰력을 얻을 수 있습니다.

시계열 데이터 분석 외에도 FM은 다양한 산업 응용 분야에서 가치가 있음이 입증되었습니다. 유지 관리 팀은 자산 상태를 평가하고 다음을 위한 이미지를 캡처합니다. 아마존 인식기반의 기능 요약 및 지능형 검색을 통한 이상 근본 원인 분석 검색 증강 생성 (조각). 이러한 워크플로를 단순화하기 위해 AWS는 다음을 도입했습니다. 아마존 기반암, 다음과 같은 최첨단 사전 훈련된 FM을 사용하여 생성적 AI 애플리케이션을 구축하고 확장할 수 있습니다. 클로드 v2. 과 Amazon Bedrock에 대한 기술 자료를 사용하면 RAG 개발 프로세스를 단순화하여 공장 작업자에게 보다 정확한 변칙 근본 원인 분석을 제공할 수 있습니다. 우리 게시물에서는 Amazon Bedrock을 기반으로 하는 산업용 사용 사례를 위한 지능형 도우미를 소개하고, NLQ 문제를 해결하고, 이미지에서 부품 요약을 생성하고, RAG 접근 방식을 통해 장비 진단을 위한 FM 응답을 향상시킵니다.

솔루션 개요

다음 다이어그램은 솔루션 아키텍처를 보여줍니다.

워크플로우에는 세 가지 사용 사례가 포함됩니다.

사용 사례 1: 시계열 데이터가 포함된 NLQ

시계열 데이터가 포함된 NLQ의 워크플로는 다음 단계로 구성됩니다.

  1. 우리는 다음과 같은 이상 징후 감지를 위해 ML 기능을 갖춘 상태 모니터링 시스템을 사용합니다. 아마존 모니트론, 산업 장비 상태를 모니터링합니다. Amazon Monitron은 장비의 진동 및 온도 측정을 통해 잠재적인 장비 오류를 감지할 수 있습니다.
  2. 처리를 통해 시계열 데이터를 수집합니다. 아마존 모니트론 데이터 Amazon Kinesis 데이터 스트림아마존 데이터 파이어호스, 표 형식의 CSV 형식으로 변환하고 아마존 단순 스토리지 서비스 (Amazon S3) 버킷.
  3. 최종 사용자는 Streamlit 앱에 자연어 쿼리를 보내 Amazon S3에서 시계열 데이터와 채팅을 시작할 수 있습니다.
  4. Streamlit 앱은 사용자 쿼리를 다음으로 전달합니다. Amazon Bedrock Titan 텍스트 임베딩 모델 이 쿼리를 삽입하고 유사성 검색을 수행합니다. 아마존 오픈서치 서비스 이전 NLQ 및 예제 코드가 포함된 색인입니다.
  5. 유사성 검색 후 NLQ 질문, 데이터 스키마, Python 코드를 포함한 가장 유사한 예제가 사용자 지정 프롬프트에 삽입됩니다.
  6. PandasAI는 이 사용자 지정 프롬프트를 Amazon Bedrock Claude v2 모델로 보냅니다.
  7. 이 앱은 PandasAI 에이전트를 사용하여 Amazon Bedrock Claude v2 모델과 상호 작용하여 Amazon Monitron 데이터 분석 및 NLQ 응답을 위한 Python 코드를 생성합니다.
  8. Amazon Bedrock Claude v2 모델이 Python 코드를 반환한 후 PandasAI는 앱에서 업로드된 Amazon Monitron 데이터에 대해 Python 쿼리를 실행하여 코드 출력을 수집하고 실패한 실행에 필요한 재시도를 해결합니다.
  9. Streamlit 앱은 PandasAI를 통해 응답을 수집하고 사용자에게 출력을 제공합니다. 출력이 만족스러우면 사용자는 NLQ 및 Claude가 생성한 Python 코드를 OpenSearch Service에 저장하여 유용한 것으로 표시할 수 있습니다.

활용 사례 2: 오작동 부품 요약 생성

요약 생성 사용 사례는 다음 단계로 구성됩니다.

  1. 사용자는 어떤 산업 자산이 이상 동작을 보이는지 파악한 후 오작동하는 부품의 이미지를 업로드하여 해당 부품의 기술 사양 및 작동 조건에 따라 해당 부품에 물리적인 문제가 있는지 확인할 수 있습니다.
  2. 사용자는 Amazon 인식 DetectText API 이러한 이미지에서 텍스트 데이터를 추출합니다.
  3. 추출된 텍스트 데이터는 Amazon Bedrock Claude v2 모델의 프롬프트에 포함되어 모델이 오작동하는 부분에 대한 200단어 요약을 생성할 수 있습니다. 사용자는 이 정보를 사용하여 부품에 대한 추가 검사를 수행할 수 있습니다.

사용 사례 3: 근본 원인 진단

근본 원인 진단 사용 사례는 다음 단계로 구성됩니다.

  1. 사용자는 오작동하는 자산과 관련된 다양한 문서 형식(PDF, TXT 등)의 기업 데이터를 획득하여 S3 버킷에 업로드합니다.
  2. 이러한 파일의 지식 기반은 Titan 텍스트 임베딩 모델 및 기본 OpenSearch Service 벡터 스토어를 사용하여 Amazon Bedrock에서 생성됩니다.
  3. 사용자는 장비의 오작동에 대한 근본 원인 진단과 관련된 질문을 합니다. 답변은 RAG 접근 방식을 사용하는 Amazon Bedrock 지식 기반을 통해 생성됩니다.

사전 조건

이 게시물을 진행하려면 다음 전제 조건을 충족해야 합니다.

솔루션 인프라 배포

솔루션 리소스를 설정하려면 다음 단계를 완료하세요.

  1. 배포 AWS 클라우드 포메이션 이 템플릿 opensearchsagemaker.yml, OpenSearch 서비스 컬렉션 및 색인을 생성합니다. 아마존 세이지 메이커 노트북 인스턴스 및 S3 버킷. 이 AWS CloudFormation 스택의 이름을 다음과 같이 지정할 수 있습니다. genai-sagemaker.
  2. JupyterLab에서 SageMaker 노트북 인스턴스를 엽니다. 당신은 다음을 찾을 수 있습니다 GitHub 레포 이 인스턴스에 이미 다운로드되었습니다: 산업 운영에서 생성 AI의 잠재력 잠금 해제.
  3. 이 저장소의 다음 디렉터리에서 노트북을 실행합니다. 산업 운영에서 생성적 AI의 잠재력 잠금 해제/SagemakerNotebook/nlq-Vector-rag-embedding.ipynb. 이 노트북은 SageMaker 노트북을 사용하여 OpenSearch 서비스 인덱스를 로드하여 기존 23개의 NLQ 예시.
  4. 데이터 폴더에서 문서 업로드 자산 부분문서 GitHub 저장소에서 CloudFormation 스택 출력에 나열된 S3 버킷으로 이동합니다.

다음으로 Amazon S3의 문서에 대한 기술 자료를 생성합니다.

  1. Amazon Bedrock 콘솔에서 다음을 선택합니다. 기술 자료 탐색 창에서
  2. 왼쪽 메뉴에서 지식창고 만들기.
  3. 럭셔리 기술 자료 이름이름을 입력하십시오.
  4. 럭셔리 런타임 역할, 고르다 새 서비스 역할 생성 및 사용.
  5. 럭셔리 데이터 소스 이름에서 데이터 소스의 이름을 입력하세요.
  6. 럭셔리 S3 URI에서 근본 원인 문서를 업로드한 버킷의 S3 경로를 입력합니다.
  7. 왼쪽 메뉴에서 다음 보기.
    Titan 임베딩 모델이 자동으로 선택됩니다.
  8. 선택 새 벡터 저장소를 빠르게 생성.
  9. 다음을 선택하여 설정을 검토하고 지식 기반을 생성하세요. 지식창고 만들기.
  10. 기술 자료가 성공적으로 생성된 후 다음을 선택합니다. Sync S3 버킷을 지식 베이스와 동기화합니다.
  11. 지식 기반을 설정한 후 "내 액추에이터가 느리게 이동합니다. 무엇이 문제일까요?"와 같은 질문을 통해 근본 원인 진단을 위한 RAG 접근 방식을 테스트할 수 있습니다.

다음 단계는 PC 또는 EC2 인스턴스(Ubuntu Server 22.04 LTS)에 필수 라이브러리 패키지와 함께 앱을 배포하는 것입니다.

  1. AWS 자격 증명 설정 로컬 PC에서 AWS CLI를 사용합니다. 단순화를 위해 CloudFormation 스택을 배포하는 데 사용한 것과 동일한 관리자 역할을 사용할 수 있습니다. Amazon EC2를 사용하는 경우, 적절한 IAM 역할을 인스턴스에 연결.
  2. 복제 GitHub 레포:
    git clone https://github.com/aws-samples/unlocking-the-potential-of-generative-ai-in-industrial-operations

  3. 디렉토리를 다음으로 변경 unlocking-the-potential-of-generative-ai-in-industrial-operations/src 그리고 setup.sh LangChain 및 PandasAI를 포함한 필수 패키지를 설치하려면 이 폴더에 스크립트를 넣으세요.
    cd unlocking-the-potential-of-generative-ai-in-industrial-operations/src
    chmod +x ./setup.sh
    ./setup.sh   
  4. 다음 명령을 사용하여 Streamlit 앱을 실행합니다.
    source monitron-genai/bin/activate
    python3 -m streamlit run app_bedrock.py <REPLACE WITH YOUR BEDROCK KNOWLEDGEBASE ARN>
    

이전 단계에서 Amazon Bedrock에서 생성한 OpenSearch Service 컬렉션 ARN을 제공합니다.

자산 상태 도우미와 채팅

엔드투엔드 배포를 완료한 후 웹 인터페이스가 포함된 브라우저 창을 여는 포트 8501의 localhost를 통해 앱에 액세스할 수 있습니다. EC2 인스턴스에 앱을 배포한 경우 보안 그룹 인바운드 규칙을 통해 포트 8501 액세스를 허용합니다.. 다양한 사용 사례에 따라 다른 탭으로 이동할 수 있습니다.

사용 사례 1 살펴보기

첫 번째 사용 사례를 살펴보려면 다음을 선택하세요. 데이터 통찰력 및 차트. 시계열 데이터를 업로드하는 것부터 시작하세요. 사용할 기존 시계열 데이터 파일이 없으면 다음을 업로드할 수 있습니다. 샘플 CSV 파일 익명의 Amazon Monitron 프로젝트 데이터를 사용합니다. 이미 Amazon Monitron 프로젝트가 있는 경우 다음을 참조하세요. Amazon Monitron 및 Amazon Kinesis를 사용하여 예측 유지 관리를 위한 실행 가능한 통찰력 생성 Amazon Monitron 데이터를 Amazon S3로 스트리밍하고 이 애플리케이션에서 데이터를 사용합니다.

업로드가 완료되면 쿼리를 입력하여 데이터와의 대화를 시작하세요. 왼쪽 사이드바에는 귀하의 편의를 위해 다양한 예시 질문이 제공됩니다. 다음 스크린샷은 "각각 경고 또는 경보로 표시되는 각 사이트의 고유한 센서 수를 알려주시겠습니까?"와 같은 질문을 입력할 때 FM에서 생성된 응답 및 Python 코드를 보여줍니다. (어려운 질문) 또는 "온도 신호가 비정상으로 표시된 센서의 경우 각 센서에서 비정상적인 진동 신호가 표시된 기간을 일 단위로 계산할 수 있습니까?" (도전 수준의 질문). 앱은 귀하의 질문에 답변하고, 그러한 결과를 생성하기 위해 수행한 데이터 분석의 Python 스크립트도 표시합니다.

답변이 만족스러우면 다음으로 표시할 수 있습니다. 도움이, NLQ 및 Claude가 생성한 Python 코드를 OpenSearch 서비스 인덱스에 저장합니다.

사용 사례 2 살펴보기

두 번째 사용 사례를 살펴보려면 다음을 선택하세요. 캡처된 이미지 요약 Streamlit 앱의 탭. 산업 자산의 이미지를 업로드할 수 있으며, 애플리케이션은 이미지 정보를 기반으로 기술 사양 및 작동 조건에 대한 200단어 요약을 생성합니다. 다음 스크린샷은 벨트 모터 드라이브 이미지에서 생성된 요약을 보여줍니다. 이 기능을 테스트하기 위해 적합한 이미지가 부족한 경우 다음을 사용할 수 있습니다. 예시 이미지.

유압 엘리베이터 모터 라벨” Clarence Risher의 라이선스는 다음과 같습니다. CC BY-SA 2.0.

사용 사례 3 살펴보기

세 번째 사용 사례를 살펴보려면 다음을 선택하세요. 근본 원인 진단 탭. "액추에이터가 느리게 이동합니다. 무엇이 문제일까요?"와 같이 파손된 산업 자산과 관련된 쿼리를 입력하세요. 다음 스크린샷에 설명된 것처럼 애플리케이션은 답변을 생성하는 데 사용된 소스 문서 발췌문과 함께 응답을 전달합니다.

사용 사례 1: 설계 세부정보

이 섹션에서는 첫 번째 사용 사례에 대한 애플리케이션 워크플로의 설계 세부 사항을 논의합니다.

맞춤형 프롬프트 구축

사용자의 자연어 쿼리에는 쉬움, 어려움, 도전과 같은 다양한 난이도 수준이 있습니다.

간단한 질문에는 다음과 같은 요청이 포함될 수 있습니다.

  • 고유한 값 선택
  • 총 개수 계산
  • 값 정렬

이러한 질문에 대해 PandasAI는 FM과 직접 상호 작용하여 처리할 Python 스크립트를 생성할 수 있습니다.

어려운 질문에는 다음과 같은 기본 집계 작업 또는 시계열 분석이 필요합니다.

  • 먼저 값을 선택하고 결과를 계층적으로 그룹화하세요.
  • 초기 레코드 선택 후 통계 수행
  • 타임스탬프 수(예: 최소 및 최대)

어려운 질문의 경우 자세한 단계별 지침이 포함된 프롬프트 템플릿을 통해 FM이 정확한 답변을 제공할 수 있습니다.

챌린지 수준 질문에는 다음과 같은 고급 수학 계산 및 시계열 처리가 필요합니다.

  • 각 센서의 이상 기간 계산
  • 월 단위로 사이트 이상 감지 센서 계산
  • 정상 작동과 비정상 조건에서 센서 판독값을 비교합니다.

이러한 질문의 경우 사용자 정의 프롬프트에서 멀티샷을 사용하여 응답 정확도를 높일 수 있습니다. 이러한 멀티샷은 고급 시계열 처리 및 수학 계산의 예를 보여주며 FM이 유사한 분석에 대해 관련 추론을 수행할 수 있는 맥락을 제공합니다. NLQ 문제 은행에서 가장 관련성이 높은 예를 프롬프트에 동적으로 삽입하는 것은 어려울 수 있습니다. 한 가지 해결책은 기존 NLQ 질문 샘플에서 임베딩을 구성하고 이러한 임베딩을 OpenSearch Service와 같은 벡터 저장소에 저장하는 것입니다. 질문이 Streamlit 앱으로 전송되면 질문은 다음과 같이 벡터화됩니다. 기반암임베딩. 해당 질문과 가장 관련성이 높은 상위 N개의 임베딩은 다음을 사용하여 검색됩니다. 오픈서치_벡터_서치.유사성_서치 멀티샷 프롬프트로 프롬프트 템플릿에 삽입됩니다.

다음 다이어그램은이 워크 플로우를 보여줍니다.

임베딩 레이어는 세 가지 주요 도구를 사용하여 구성됩니다.

  • 임베딩 모델 – Amazon Bedrock을 통해 제공되는 Amazon Titan Embedding을 사용합니다(amazon.titan-embed-text-v1) 텍스트 문서의 숫자 표현을 생성합니다.
  • 벡터 스토어 – 벡터 저장소의 경우 LangChain 프레임워크를 통해 OpenSearch 서비스를 사용하여 이 노트북의 NLQ 예제에서 생성된 임베딩 저장을 간소화합니다.
  • 색인 – OpenSearch 서비스 인덱스는 입력 임베딩과 문서 임베딩을 비교하고 관련 문서 검색을 촉진하는 데 중추적인 역할을 합니다. Python 예제 코드는 JSON 파일로 저장되었기 때문에 OpenSearch Service에서 다음을 통해 벡터로 인덱싱되었습니다. OpenSearchVevtorSearch.fromtexts API 호출.

Streamlit을 통해 사람이 감사한 사례를 지속적으로 수집합니다.

앱 개발 초기에는 OpenSearch Service 인덱스에 임베딩으로 저장된 예제 23개만 사용하여 시작했습니다. 앱이 현장에서 실행되면 사용자는 앱을 통해 NLQ를 입력하기 시작합니다. 그러나 템플릿에서 사용할 수 있는 예시가 제한되어 있기 때문에 일부 NLQ에서는 유사한 프롬프트를 찾지 못할 수도 있습니다. 이러한 임베딩을 지속적으로 강화하고 보다 관련성이 높은 사용자 프롬프트를 제공하려면 Streamlit 앱을 사용하여 사람이 감사한 사례를 수집할 수 있습니다.

앱 내에서 다음 기능이 이 목적을 수행합니다. 최종 사용자가 출력이 유용하다고 생각하고 선택하는 경우 도움이, 애플리케이션은 다음 단계를 따릅니다.

  1. PandasAI의 콜백 메서드를 사용하여 Python 스크립트를 수집합니다.
  2. Python 스크립트, 입력 질문, CSV 메타데이터를 문자열로 다시 포맷합니다.
  3. 다음을 사용하여 이 NLQ 예제가 현재 OpenSearch 서비스 인덱스에 이미 존재하는지 확인하십시오. opensearch_Vector_search.similarity_search_with_score.
  4. 유사한 예가 없는 경우 이 NLQ는 다음을 사용하여 OpenSearch 서비스 인덱스에 추가됩니다. opensearch_Vector_search.add_texts.

이용자가 선택한 경우 도움이 되지 않음, 아무런 조치도 취하지 않습니다. 이 반복 프로세스를 통해 사용자가 기여한 예제를 통합하여 시스템이 지속적으로 개선됩니다.

def addtext_opensearch(input_question, generated_chat_code, df_column_metadata, opensearch_vector_search,similarity_threshold,kexamples, indexname):
    #######build the input_question and generated code the same format as existing opensearch index##########
    reconstructed_json = {}
    reconstructed_json["question"]=input_question
    reconstructed_json["python_code"]=str(generated_chat_code)
    reconstructed_json["column_info"]=df_column_metadata
    json_str = ''
    for key,value in reconstructed_json.items():
        json_str += key + ':' + value
    reconstructed_raw_text =[]
    reconstructed_raw_text.append(json_str)
    
    results = opensearch_vector_search.similarity_search_with_score(str(reconstructed_raw_text[0]), k=kexamples)  # our search query  # return 3 most relevant docs
    if (dumpd(results[0][1])<similarity_threshold):    ###No similar embedding exist, then add text to embedding
        response = opensearch_vector_search.add_texts(texts=reconstructed_raw_text, engine="faiss", index_name=indexname)
    else:
        response = "A similar embedding is already exist, no action."
    
    return response

사람의 감사를 통합하면 앱 사용량이 늘어남에 따라 프롬프트 삽입에 사용할 수 있는 OpenSearch 서비스의 예제 수가 늘어납니다. 이 확장된 임베딩 데이터 세트는 시간이 지남에 따라 검색 정확도를 향상시킵니다. 특히, 까다로운 NLQ의 경우 유사한 예를 동적으로 삽입하여 각 NLQ 질문에 대한 사용자 정의 프롬프트를 구성할 때 FM의 응답 정확도가 약 90%에 도달합니다. 이는 멀티샷 프롬프트가 없는 시나리오에 비해 28% 눈에 띄게 증가한 수치입니다.

사용 사례 2: 설계 세부정보

Streamlit 앱에서 캡처된 이미지 요약 탭에서는 이미지 파일을 직접 업로드할 수 있습니다. 그러면 Amazon Rekognition API(감지_텍스트 API), 이미지 라벨에서 기계 사양을 자세히 설명하는 텍스트를 추출합니다. 그 후, 추출된 텍스트 데이터는 프롬프트의 컨텍스트로 Amazon Bedrock Claude 모델에 전송되어 200단어 요약이 생성됩니다.

사용자 경험 관점에서 볼 때 텍스트 요약 작업을 위한 스트리밍 기능을 활성화하는 것이 가장 중요합니다. 이를 통해 사용자는 전체 출력을 기다리지 않고 FM에서 생성된 요약을 더 작은 단위로 읽을 수 있습니다. Amazon Bedrock은 API(bedrock_runtime.invoke_model_with_response_stream).

사용 사례 3: 설계 세부정보

이 시나리오에서는 RAG 접근 방식을 사용하여 근본 원인 분석에 초점을 맞춘 챗봇 애플리케이션을 개발했습니다. 이 챗봇은 근본 원인 분석을 용이하게 하기 위해 베어링 장비와 관련된 여러 문서를 활용합니다. 이 RAG 기반 근본 원인 분석 챗봇은 벡터 텍스트 표현 또는 임베딩을 생성하기 위해 지식 기반을 사용합니다. Amazon Bedrock용 기술 자료는 데이터 소스에 대한 사용자 지정 통합을 구축하거나 데이터 흐름 및 RAG 구현 세부 정보를 관리할 필요 없이 수집에서 검색 및 즉각적인 기능 강화에 이르기까지 전체 RAG 워크플로를 구현하는 데 도움이 되는 완전 관리형 기능입니다.

Amazon Bedrock의 지식 기반 응답에 만족하면 지식 기반의 근본 원인 응답을 Streamlit 앱에 통합할 수 있습니다.

정리

비용을 절약하려면 이 게시물에서 생성한 리소스를 삭제하세요.

  1. Amazon Bedrock에서 기술 자료를 삭제합니다.
  2. OpenSearch 서비스 색인을 삭제합니다.
  3. genai-sagemaker CloudFormation 스택을 삭제합니다.
  4. Streamlit 앱을 실행하기 위해 EC2 인스턴스를 사용한 경우 EC2 인스턴스를 중지합니다.

결론

생성적 AI 애플리케이션은 이미 다양한 비즈니스 프로세스를 변화시켜 작업자 생산성과 기술 세트를 향상시켰습니다. 그러나 시계열 데이터 분석을 처리하는 데 있어서 FM의 한계로 인해 산업 고객이 FM을 완전히 활용하는 데 방해가 되었습니다. 이러한 제약으로 인해 매일 처리되는 주요 데이터 유형에 생성 AI를 적용하는 것이 방해를 받았습니다.

이 게시물에서는 산업 사용자의 이러한 문제를 완화하기 위해 설계된 생성적 AI 애플리케이션 솔루션을 소개했습니다. 이 애플리케이션은 FM의 시계열 분석 기능을 강화하기 위해 오픈 소스 에이전트인 PandasAI를 사용합니다. 시계열 데이터를 FM으로 직접 보내는 대신 앱은 PandasAI를 사용하여 구조화되지 않은 시계열 데이터 분석을 위한 Python 코드를 생성합니다. Python 코드 생성의 정확성을 높이기 위해 사람이 감사하는 사용자 지정 프롬프트 생성 워크플로가 구현되었습니다.

자산 상태에 대한 통찰력을 바탕으로 산업 근로자는 근본 원인 진단 및 부품 교체 계획을 포함한 다양한 사용 사례에서 생성 AI의 잠재력을 완전히 활용할 수 있습니다. Amazon Bedrock용 기술 자료를 통해 RAG 솔루션은 개발자가 쉽게 구축하고 관리할 수 있습니다.

기업 데이터 관리 및 운영의 궤적은 운영 상태에 대한 포괄적인 통찰력을 제공하기 위해 생성 AI와의 심층 통합을 향해 틀림없이 이동하고 있습니다. Amazon Bedrock이 주도하는 이러한 변화는 다음과 같은 LLM의 견고성과 잠재력이 커지면서 크게 증폭됩니다. 아마존 베드락 클로드 3 솔루션을 더욱 향상시킵니다. 자세한 내용은 다음 사이트를 방문하여 문의하세요. Amazon Bedrock 문서, 실습을 통해 아마존 베드락 워크숍.


저자 소개

줄리아 후 Amazon Web Services의 선임 AI/ML 솔루션 아키텍트입니다. 그녀는 생성 AI, 응용 데이터 과학 및 IoT 아키텍처를 전문으로 합니다. 현재 그녀는 Amazon Q 팀의 일원이며 기계 학습 기술 현장 커뮤니티의 활동적인 회원/멘토입니다. 그녀는 스타트업부터 기업까지 다양한 고객과 협력하여 AWSome 생성 AI 솔루션을 개발합니다. 그녀는 고급 데이터 분석을 위해 대규모 언어 모델을 활용하고 실제 문제를 해결하는 실용적인 응용 프로그램을 탐색하는 데 특히 열정적입니다.

수디시 사시다란 에너지 팀 내 AWS의 수석 솔루션 아키텍트입니다. Sudeesh는 새로운 기술을 실험하고 복잡한 비즈니스 과제를 해결하는 혁신적인 솔루션을 구축하는 것을 좋아합니다. 그가 솔루션을 설계하거나 최신 기술을 다루지 않을 때는 테니스 코트에서 백핸드로 작업하는 모습을 볼 수 있습니다.

닐 데사이 인공 지능(AI), 데이터 과학, 소프트웨어 엔지니어링 및 엔터프라이즈 아키텍처 분야에서 20년 이상의 경험을 보유한 기술 임원입니다. AWS에서 그는 고객이 혁신적인 Generative AI 기반 솔루션을 구축하고, 고객과 모범 사례를 공유하고, 제품 로드맵을 추진할 수 있도록 지원하는 Worldwide AI 서비스 전문 솔루션 설계자 팀을 이끌고 있습니다. 이전에 Vestas, Honeywell 및 Quest Diagnostics에서 근무하면서 Neil은 기업의 운영 개선, 비용 절감, 수익 증대에 도움이 되는 혁신적인 제품과 서비스를 개발하고 출시하는 데 리더십 역할을 맡았습니다. 그는 실제 문제를 해결하기 위해 기술을 사용하는 데 열정을 갖고 있으며 입증된 성공 기록을 보유한 전략적 사고가입니다.

spot_img

최신 인텔리전스

spot_img