제퍼넷 로고

Amazon Bedrock용 기술 자료를 통해 약물 발견에 RAG 사용 | 아마존 웹 서비스

시간

아마존 기반암 Anthropic, AI21, Meta, Cohere 및 Stability AI를 포함하여 Amazon 및 타사 제공업체의 광범위한 모델을 제공하고 텍스트 및 이미지 생성, 임베딩, 채팅, 고급 에이전트를 포함한 광범위한 사용 사례를 다룹니다. 추론과 오케스트레이션 등을 통해 Amazon Bedrock에 대한 기술 자료 AWS와 타사 모델을 모두 사용하여 AWS 및 타사 벡터 스토어 위에 고성능의 맞춤형 RAG(검색 증강 생성) 애플리케이션을 구축할 수 있습니다. Amazon Bedrock용 기술 자료는 업데이트 시 데이터 비교, 문서 로드, 청크, 의미 체계 포함 등을 포함하여 데이터와 벡터 저장소의 동기화를 자동화합니다. 이를 통해 RAG 프롬프트 및 검색 전략을 원활하게 사용자 정의할 수 있습니다. 소스 속성을 제공하고 메모리 관리를 자동으로 처리합니다. Knowledge Bases는 완전히 서버리스이므로 인프라를 관리할 필요가 없으며 Knowledge Base를 사용할 때 사용하는 모델, 벡터 데이터베이스 및 스토리지에 대해서만 비용이 청구됩니다.

RAG는 ​​개인 데이터 사용과 LLM(대형 언어 모델)을 결합하는 널리 사용되는 기술입니다. RAG는 ​​사용자 쿼리를 기반으로 데이터 저장소(가장 일반적으로 벡터 인덱스)에서 관련 문서를 검색하는 초기 단계부터 시작합니다. 그런 다음 언어 모델을 사용하여 검색된 문서와 원래 쿼리를 모두 고려하여 응답을 생성합니다.

이 게시물에서는 약물 발견 사용 사례를 위해 Amazon Bedrock용 기술 자료를 사용하여 RAG 워크플로를 구축하는 방법을 보여줍니다.

Amazon Bedrock에 대한 기술 자료 개요

Amazon Bedrock용 기술 자료는 .txt, .docx, .pdf, .csv 등을 포함한 광범위한 일반 파일 형식을 지원합니다. 개인 데이터에서 효과적인 검색을 가능하게 하려면 먼저 이러한 문서를 관리 가능한 덩어리로 분할하는 것이 일반적인 방법입니다. 기술 자료는 더 빠르게 시작할 수 있도록 대부분의 경우에 잘 작동하는 기본 청크 전략을 구현했습니다. 더 많은 제어를 원하는 경우 지식 베이스를 사용하면 미리 구성된 옵션 세트를 통해 청킹 전략을 제어할 수 있습니다. 최대 토큰 크기와 청크 전체에 걸쳐 생성될 중첩 정도를 제어하여 임베딩에 일관된 컨텍스트를 제공할 수 있습니다. Amazon Bedrock에 대한 기술 자료는 귀하의 데이터 동기화 프로세스를 관리합니다. 아마존 단순 스토리지 서비스 (Amazon S3) 버킷을 더 작은 청크로 분할하고, 벡터 임베딩을 생성하고, 임베딩을 벡터 인덱스에 저장합니다. 이 프로세스에는 지능형 비교, 처리량 및 오류 관리가 함께 제공됩니다.

런타임 시 임베딩 모델을 사용하여 사용자 쿼리를 벡터로 변환합니다. 그런 다음 문서 벡터와 사용자 쿼리 벡터를 비교하여 벡터 인덱스를 쿼리하여 사용자의 쿼리와 유사한 문서를 찾습니다. 마지막 단계에서는 벡터 인덱스에서 검색된 의미상 유사한 문서가 원래 사용자 쿼리에 대한 컨텍스트로 추가됩니다. 사용자에 대한 응답을 생성할 때 의미상 유사한 문서가 추적성을 위한 소스 속성과 함께 텍스트 모델에 표시됩니다.

Amazon Bedrock에 대한 기술 자료는 다음을 포함한 여러 벡터 데이터베이스를 지원합니다. Amazon OpenSearch 서버리스, Amazon Aurora, Pinecone 및 Redis 엔터프라이즈 클라우드. Retrieve 및 RetrieveAndGenerate API를 사용하면 애플리케이션이 각각의 서로 다른 벡터 데이터베이스에 대해 별도의 API를 배울 필요 없이 통합된 표준 구문을 사용하여 인덱스를 직접 쿼리할 수 있으므로 벡터 저장소에 대한 사용자 지정 인덱스 쿼리를 작성할 필요성이 줄어듭니다. 검색 API는 들어오는 쿼리를 가져와 이를 임베딩 벡터로 변환하고 벡터 데이터베이스 수준에서 구성된 알고리즘을 사용하여 백엔드 저장소를 쿼리합니다. RetrieveAndGenerate API는 Amazon Bedrock에서 제공하는 사용자 구성 LLM을 사용하고 자연어로 최종 답변을 생성합니다. 기본 추적성 지원은 요청 애플리케이션에 질문에 답변하는 데 사용된 소스에 대해 알려줍니다. 기업 구현을 위해 기술 자료는 다음을 지원합니다. AWS 키 관리 서비스 (AWS KMS) 암호화, AWS 클라우드 트레일 통합 등.

다음 섹션에서는 OpenSearch Serverless 벡터 엔진이 지원하는 Amazon Bedrock용 지식 베이스를 사용하여 RAG 워크플로를 구축하여 약물 발견 사용 사례에 대한 구조화되지 않은 임상 시험 데이터 세트를 분석하는 방법을 보여줍니다. 이 데이터는 정보가 풍부하지만 매우 이질적일 수 있습니다. 통찰력을 발견하고 분석 무결성을 보장하려면 다양한 형식의 전문 용어와 개념을 적절하게 처리하는 것이 필수적입니다. Amazon Bedrock에 대한 지식 베이스를 사용하면 간단하고 자연스러운 쿼리를 통해 자세한 정보에 액세스할 수 있습니다.

Amazon Bedrock에 대한 지식 기반 구축

이 섹션에서는 콘솔을 통해 Amazon Bedrock에 대한 지식 기반을 생성하는 프로세스를 시연합니다. 다음 단계를 완료하세요.

  1. Amazon Bedrock 콘솔의 아래 오케스트레이션 탐색 창에서 기술 자료.
  2. 왼쪽 메뉴에서 지식창고 만들기.

  1. . 기술 자료 세부정보 섹션에 이름과 선택적 설명을 입력합니다.
  2. . IAM 권한 섹션에서 선택 새 서비스 역할 생성 및 사용.
  3. 럭셔리 서비스 이름 역할, 역할 이름을 입력합니다. 이름은 다음으로 시작해야 합니다. AmazonBedrockExecutionRoleForKnowledgeBase_.
  4. 왼쪽 메뉴에서 다음 보기.

  1. . 데이터 소스 섹션에 데이터 원본의 이름과 데이터 세트가 있는 S3 URI를 입력합니다. 기술 자료는 다음 파일 형식을 지원합니다.
    • 일반 텍스트(.txt)
    • 마크다운(.md)
    • 하이퍼텍스트 마크업 언어(.html)
    • Microsoft Word 문서(.doc/.docx)
    • 쉼표로 구분 된 값 (.csv)
    • Microsoft Excel 스프레드시트(.xls/.xlsx)
    • 휴대용 문서 형식(.pdf)
  1. $XNUMX Million 미만 추가 세팅¸ 선호하는 청킹 전략을 선택하세요(이 게시물에서는 다음을 선택합니다). 고정 크기 청킹) 청크 크기와 오버레이를 백분율로 지정합니다. 또는 기본 설정을 사용할 수 있습니다.
  2. 왼쪽 메뉴에서 다음 보기.

  1. . 임베딩 모델 섹션에서 Amazon Bedrock의 Titan Embeddings 모델을 선택합니다.
  2. . 벡터 데이터베이스 섹션에서 선택 새 벡터 저장소를 빠르게 생성, 벡터 저장소 설정 프로세스를 관리합니다.
  3. 왼쪽 메뉴에서 다음 보기.

  1. 설정을 검토하고 지식창고 만들기.

  1. 지식창고 생성이 완료될 때까지 기다렸다가 상태를 확인하세요. 준비.
  2. . 데이터 소스 섹션이나 페이지 상단의 배너 또는 테스트 창의 팝업에서 Sync S3 버킷에서 데이터를 로드하고, 데이터를 지정한 크기의 청크로 분할하고, 선택한 텍스트 임베딩 모델을 사용하여 벡터 임베딩을 생성하고, Amazon Bedrock에 대한 지식 베이스에서 관리하는 벡터 저장소에 저장하는 프로세스를 트리거합니다.

동기화 기능은 Amazon S3의 문서 변경 사항을 기반으로 벡터 인덱스에서 문서 수집, 업데이트 및 삭제를 지원합니다. 다음을 사용할 수도 있습니다. StartIngestionJob AWS SDK를 통해 동기화를 트리거하는 API입니다.

동기화가 완료되면 동기화 기록에 상태가 표시됩니다. 수료.

기술 자료 쿼리

이 섹션에서는 간단하고 자연스러운 쿼리를 통해 지식 베이스의 자세한 정보에 액세스하는 방법을 보여줍니다. 우리는 PDF 파일로 구성된 비정형 합성 데이터 세트를 사용하며 각 페이지 수는 10~100페이지이며, 통계 분석 방법 및 참가자 동의서 양식을 포함하여 제안된 신약의 임상 시험 계획을 시뮬레이션합니다. 우리는 Amazon Bedrock에 대한 지식 베이스를 사용합니다. retrieve_and_generateretrieve API Amazon Bedrock LangChain 통합.

Amazon Bedrock API를 사용하는 스크립트를 작성하려면 먼저 환경에 적절한 버전의 AWS SDK를 설치해야 합니다. Python 스크립트의 경우 이는 다음과 같습니다. Python 용 AWS SDK (Boto3):

pip install langchain
pip install boto3

또한 Amazon Titan Embeddings 모델과 Anthropic Claude v2 또는 v1에 대한 액세스를 활성화합니다. 자세한 내용은 다음을 참조하세요. 모델 액세스.

Amazon Bedrock을 사용하여 질문 생성

Amazon Bedrock용 Anthropic Claude 2.1을 사용하여 임상 시험 데이터 세트에 대해 물어볼 질문 목록을 제안할 수 있습니다.

import boto3
from langchain.llms.bedrock import Bedrock

bedrock_client = boto3.client("bedrock-runtime")

# Start with the query
prompt = "For medical research trial consent forms to sign, what are the top 5 questions can be asked?"

claude_llm = Bedrock(
    model_id="anthropic.claude-v2:1",
    model_kwargs={"temperature": 0, "top_k": 10, "max_tokens_to_sample": 3000},
    client=bedrock_client,
)

# Provide the prompt to the LLM to generate an answer to the query without any additional context provided
response = claude_llm(prompt)
questions = [
    item.split(".")[1].strip() for item in response.strip().split("nn")[1:-1]
]
questions
>>> answer:
'What is the purpose of the study? Make sure you understand the goals of the research and what the study procedures will entail',
'What are the risks and potential benefits? The form should explain all foreseeable risks, side effects, or discomforts you might experience from participating',
'What will participation involve? Get details on what tests, medications, lifestyle changes, or procedures you will go through, how much time it will take, and how long the study will last',
'Are there any costs or payments? Ask if you will be responsible for any costs related to the study or get paid for participating',
'How will my privacy be protected? The form should explain how your personal health information will be kept confidential before, during, and after the trial'

Amazon Bedrock RetrieveAndGenerate API 사용

완전관리형 RAG 경험을 위해 Amazon Bedrock에 대한 기본 기술 자료를 사용할 수 있습니다. RetrieveAndGenerate 답변을 직접 얻기 위한 API:

bedrock_agent_client = boto3.client("bedrock-agent-runtime")

kb_id = "<YOUR_KNOWLEDGE_BASE_ID>"

def retrieveAndGenerate(
    input: str,
    kbId: str,
    region: str = "us-east-1",
    sessionId: str = None,
    model_id: str = "anthropic.claude-v2:1",
):
    model_arn = f"arn:aws:bedrock:{region}::foundation-model/{model_id}"

    if sessionId:
        return bedrock_agent_client.retrieve_and_generate(
            input={"text": input},
            retrieveAndGenerateConfiguration={
                "type": "KNOWLEDGE_BASE",
                "knowledgeBaseConfiguration": {
                    "knowledgeBaseId": kbId,
                    "modelArn": model_arn,
                },
            },
            sessionId=sessionId,
        )

    else:
        return bedrock_agent_client.retrieve_and_generate(
            input={"text": input},
            retrieveAndGenerateConfiguration={
                "type": "KNOWLEDGE_BASE",
                "knowledgeBaseConfiguration": {
                    "knowledgeBaseId": kbId,
                    "modelArn": model_arn,
                },
            },
        )

response = retrieveAndGenerate(
    "What are the potential risks and benefits of participating?", kb_id
)

generated_text = response["output"]["text"]
>>> "The potential risks include side effects from the study medication lithium such as nausea, loose stools, thirst, urination changes, shakiness, headaches, sweating, fatigue, decreased concentration, and skin rash. There is also a risk of lithium interaction with other medications. For women, there is a risk of birth defects if lithium is taken during pregnancy. There are no guaranteed benefits, but possible benefits include new information that could help the participant from the interviews and tests conducted during the study."

인용된 정보 소스는 다음 코드를 통해 얻을 수 있습니다(간결함을 위해 일부 출력이 수정됨).

response["citations"]

>>> [
    {
        "generatedResponsePart": {
            "textResponsePart": {
                "text": " The potential risks include side effects from the study...",
                "span": {"start": 0, "end": 361},
            }
        },
        "retrievedReferences": [
            {
                "content": {
                    "text": "590 ICF#2 Page 7 of 19 The primary risks and discomforts of participation…"
                },
                "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
            },
            {
                "content": {
                    "text": "N/A CSP 590 ICF#2 Page 10 of 19 Risks associated with suddenly stopping study medications..."
                },
                "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
            },
        ],
    },
    {
        "generatedResponsePart": {
            "textResponsePart": {
                "text": " There are no guaranteed benefits, but possible benefits include...",
                "span": {"start": 363, "end": 531},
            }
        },
        "retrievedReferences": [
            {
                "content": {
                    "text": "research, not usual clinical care. After these are done we ask..."
                },
                "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
            }
        ],
    },
]

세션 ID를 전달하여 RetrieveAndGenerate API를 사용하면 대화 내용을 보존하고 후속 질문을 할 수 있습니다. 예를 들어, 문맥이 없이 이전 답변에서 더 자세한 내용을 물어보면 정확하게 답변하지 못할 수도 있습니다.

retrieveAndGenerate("elaborate more on the first side effect", kb_id, sessionId=None)["output"]["text"]
>>> "The search results do not provide additional details about the mild nausea side effect that would allow me to elaborate further on it."

그러나 세션 ID를 전달함으로써 RAG 파이프라인은 해당 컨텍스트를 식별하고 관련 답변을 반환할 수 있습니다.

retrieveAndGenerate("elaborate more on the first side effect", kb_id, sessionId=response["sessionId"])["output"]["text"]
>>> "The search results provide details that nausea from taking lithium is usually mild and goes away after days or weeks for most people. Specifically, up to 75% of people may experience mild nausea when first starting lithium, but this goes away in 90-99% of people who continue taking it."

다음 표는 해당 질문에 대해 검색된 답변을 보여줍니다.

문제 대답
연구의 목적은 무엇입니까? 연구의 목표와 연구 절차에 수반되는 내용을 이해했는지 확인하십시오. 이 연구의 목적은 우울증이나 양극성 장애 환자의 반복적인 자살 충동을 예방하는 데 리튬이 효과적인지 여부를 테스트하는 것입니다.
위험과 잠재적 이점은 무엇입니까? 양식에는 참여로 인해 발생할 수 있는 모든 예측 가능한 위험, 부작용 또는 불편함이 설명되어 있어야 합니다. 가능한 위험 또는 불편에는 불편함을 유발하는 인터뷰 질문, 메스꺼움, 묽은 변, 갈증, 배뇨 변화, 떨림, 두통, 발한, 피로, 집중력 감소, 피부 발진, 갑상선 변화, 여드름 악화와 같은 리튬 약물의 부작용이 포함됩니다. / 건선, 리튬 독성 및 약물 치료를 갑자기 중단할 경우의 위험. 잠재적인 이점은 테스트가 참가자에게 도움이 되는 새로운 정보로 이어질 수 있고 리튬은 우울증이나 양극성 장애가 있는 사람들의 반복적인 자살 자기 주도 폭력을 예방하는 데 도움이 될 수 있다는 것입니다.
참여에는 무엇이 포함되나요? 어떤 검사, 약물, 생활 습관 변화 또는 절차를 거치게 될지, 소요 시간, 연구 지속 기간에 대해 자세히 알아보세요. 참여에는 사고, 행동, 정신 건강 치료, 약물, 알코올 및 약물 사용, 가정 및 사회적 지원, 연구에 대한 이해를 다루는 인터뷰와 설문지 작성이 포함됩니다. 이 작업은 약 20시간 정도 소요되며 직접 방문이나 전화를 통해 여러 세션으로 진행할 수 있습니다. 전체 연구에 대한 자격이 있는 경우, XNUMX년에 걸쳐 약 XNUMX회의 연구 방문이 있을 것입니다. 여기에는 연구 약물 복용, 활력 징후 확인, 설문지 작성, 부작용 검토, 지속적인 정상적인 의료 및 정신 건강 관리가 포함됩니다.
비용이나 지불금이 있나요? 연구와 관련된 비용을 부담할 것인지, 아니면 참여에 대한 대가를 받을 것인지 물어보십시오. 예, 검색 결과에 비용과 지불 금액이 논의되어 있습니다. 연구의 일부인 치료나 절차에 대해서는 비용이 청구되지 않습니다. 그러나 귀하는 연구와 관련되지 않은 치료 및 약물에 대한 일반적인 VA 자기부담금을 지불해야 합니다. 참여에 대한 비용은 지급되지 않으나, 교통비, 주차비 등 참여와 관련된 비용은 연구에서 상환됩니다. 상환 금액과 절차가 제공됩니다.
내 개인정보는 어떻게 보호되나요? 양식에는 임상시험 전, 시험 중, 시험 후에 귀하의 개인 건강 정보가 어떻게 기밀로 유지되는지 설명해야 합니다. 귀하의 개인정보는 비공개 인터뷰를 진행하고, 잠긴 파일과 사무실에 서면 메모를 보관하고, 암호화되고 비밀번호로 보호된 파일에 전자 정보를 저장하고, 귀하를 식별하는 정보 공개를 방지하기 위해 보건복지부로부터 기밀 인증서를 획득함으로써 보호됩니다. . 귀하를 식별하는 정보는 귀하의 치료를 담당하거나 정부 기관의 감사 및 평가를 담당하는 의사와 공유될 수 있지만, 연구에 관한 강연과 논문에서는 귀하의 신원을 식별할 수 없습니다.

Amazon Bedrock Retrieve API를 사용한 쿼리

RAG 워크플로를 사용자 지정하려면 검색 API를 사용하여 쿼리를 기반으로 관련 청크를 가져와 Amazon Bedrock에서 제공하는 LLM에 전달할 수 있습니다. 검색 API를 사용하려면 다음과 같이 정의하세요.

def retrieve(query: str, kbId: str, numberOfResults: int = 5):
    return bedrock_agent_client.retrieve(
        retrievalQuery={"text": query},
        knowledgeBaseId=kbId,
        retrievalConfiguration={
            "vectorSearchConfiguration": {"numberOfResults": numberOfResults}
        },
    )

해당 컨텍스트를 검색합니다(간결함을 위해 일부 출력이 수정됨).

query = "What is the purpose of the medical research study?"
response = retrieve(query, kb_id, 3)
retrievalResults = response["retrievalResults"]
>>> [
    {
        "content": {"text": "You will not be charged for any procedures that..."},
        "location": {"type": "S3", "s3Location": {"uri": "s3://XXXXX/XXXX.pdf"}},
        "score": 0.6552521,
    },
    {
        "content": {"text": "and possible benefits of the study. You have been..."},
        "location": {"type": "S3", "s3Location": {"uri": "s3://XXXX/XXXX.pdf"}},
        "score": 0.6581577,
    },
    ...,
]

프롬프트 템플릿의 컨텍스트를 추출합니다.

def get_contexts(retrievalResults):
    contexts = []
    for retrievedResult in retrievalResults:
        contexts.append(retrievedResult["content"]["text"])
    return " ".join(contexts)

contexts = get_contexts(retrievalResults)

Python 모듈을 가져오고 상황에 맞는 질문 응답 프롬프트 템플릿을 설정한 후 최종 답변을 생성합니다.

from langchain.prompts import PromptTemplate

PROMPT_TEMPLATE = """
Human: You are an AI system working on medical trial research, and provides answers to questions 
by using fact based and statistical information when possible.
Use the following pieces of information to provide a concise answer to the question enclosed in <question> tags.
If you don't know the answer, just say that you don't know, don't try to make up an answer.

<context>
{context_str}
</context>

<question>
{query_str}
</question>

The response should be specific and use statistics or numbers when possible.

Assistant:"""

claude_prompt = PromptTemplate(
    template=PROMPT_TEMPLATE, input_variables=["context_str", "query_str"]
)

prompt = claude_prompt.format(context_str=contexts, query_str=query)
response = claude_llm(prompt)
>>> "Based on the context provided, the purpose of this medical research study is to evaluate the efficacy of lithium compared to a placebo in preventing suicide over a 1 year period. Specifically, participants will be randomly assigned to receive either lithium or a placebo pill for 1 year, with their doctors and the participants themselves not knowing which treatment they receive (double-blind). Blood lithium levels will be monitored and doses adjusted over the first 6-8 visits, then participants will be followed monthly for 1 year to assess outcomes."

Amazon Bedrock LangChain 통합을 사용한 쿼리

엔드투엔드 맞춤형 Q&A 애플리케이션을 생성하기 위해 Amazon Bedrock용 Knowledge Bases는 LangChain과의 통합을 제공합니다. LangChain 검색기를 설정하려면 지식 기반 ID를 제공하고 쿼리에서 반환할 결과 수를 지정하세요.

from langchain.retrievers.bedrock import AmazonKnowledgeBasesRetriever

retriever = AmazonKnowledgeBasesRetriever(
    knowledge_base_id=kb_id,
    retrieval_config={"vectorSearchConfiguration": {"numberOfResults": 4}},
)

이제 LangChain RetrievalQA를 설정하고 지식 기반에서 답변을 생성하세요.

from langchain.chains import RetrievalQA

qa = RetrievalQA.from_chain_type(
    llm=claude_llm,
    chain_type="stuff",
    retriever=retriever,
    return_source_documents=True,
    chain_type_kwargs={"prompt": claude_prompt},
)

[qa(q)["result"] for q in questions]

그러면 이전 표에 나열된 것과 유사한 해당 답변이 생성됩니다.

정리

추가 비용이 발생하지 않도록 하려면 다음 리소스를 삭제해야 합니다.

결론

Amazon Bedrock은 모든 규모의 RAG 애플리케이션을 지원하는 심층적으로 통합된 광범위한 서비스 세트를 제공하므로 회사 데이터 분석을 쉽게 시작할 수 있습니다. Amazon Bedrock용 기술 자료는 Amazon Bedrock 기반 모델과 통합되어 확장 가능한 문서 임베딩 파이프라인과 문서 검색 서비스를 구축하여 광범위한 내부 및 고객 대면 애플리케이션을 지원합니다. 우리는 앞으로의 미래를 기대하고 있으며 귀하의 피드백은 이 제품의 발전을 이끄는 데 중요한 역할을 할 것입니다. Amazon Bedrock 및 지식 기반의 기능에 대해 자세히 알아보려면 다음을 참조하세요. Amazon Bedrock에 대한 기술 자료.


저자에 관하여

마크 로이 AWS의 수석 기계 학습 설계자로서 고객이 AI/ML 솔루션을 설계하고 구축하도록 지원합니다. Mark의 작업은 컴퓨터 비전, 딥 러닝 및 기업 전체의 ML 확장에 주된 관심을 가지고 광범위한 ML 사용 사례를 다룹니다. 그는 보험, 금융 서비스, 미디어 및 엔터테인먼트, 의료, 유틸리티 및 제조를 포함한 많은 산업 분야의 회사를 도왔습니다. Mark는 ML 전문 인증을 포함하여 25개의 AWS 인증을 보유하고 있습니다. AWS에 합류하기 전에 Mark는 금융 서비스 분야에서 19년을 포함하여 XNUMX년 이상 아키텍트, 개발자 및 기술 리더였습니다.

마니 카누 자 기술 리더이자 생성적 AI 전문가이고, Applied Machine Learning and High Performance Computing on AWS라는 책의 저자이며, 여성 제조업 교육 재단 이사회의 이사이기도 합니다. 그녀는 컴퓨터 비전, 자연어 처리, 생성 AI 등 다양한 영역에서 머신러닝(ML) 프로젝트를 이끌고 있습니다. 그녀는 고객이 대규모 기계 학습 모델을 대규모로 구축, 교육 및 배포할 수 있도록 지원합니다. 그녀는 re:Invent, Women in Manufacturing West, YouTube 웹 세미나, GHC 23 등의 내부 및 외부 컨퍼런스에서 연설합니다. 여가 시간에는 해변을 따라 장거리 달리기를 즐깁니다.

바이촨 선 박사는 현재 AWS에서 수석 AI/ML 솔루션 아키텍트로 근무하고 있으며 생성 AI에 중점을 두고 데이터 과학 및 기계 학습에 대한 지식을 적용하여 실용적인 클라우드 기반 비즈니스 솔루션을 제공합니다. 경영 컨설팅 및 AI 솔루션 아키텍처 경험을 바탕으로 그는 로봇 공학 컴퓨터 비전, 시계열 예측, 예측 유지 관리 등 다양한 복잡한 문제를 해결합니다. 그의 작업은 프로젝트 관리, 소프트웨어 R&D, 학문적 추구라는 확고한 배경을 바탕으로 이루어졌습니다. 업무 외적으로 Sun 박사는 여행과 가족 및 친구들과의 시간을 균형 있게 보내는 것을 즐깁니다.

데릭 추 고객의 클라우드 여정을 가속화하고 클라우드 기반 솔루션 채택을 통해 비즈니스를 혁신하는 데 주력하는 AWS의 수석 솔루션 아키텍트입니다. 그의 전문 분야는 풀 스택 애플리케이션 및 머신 러닝 개발입니다. 그는 고객이 프런트엔드 사용자 인터페이스, IoT 애플리케이션, API 및 데이터 통합, 기계 학습 모델을 포괄하는 엔드투엔드 솔루션을 설계하고 구축하도록 돕습니다. 여가 시간에는 가족과 함께 시간을 보내고 사진과 비디오 촬영을 실험하는 것을 즐깁니다.

프랭크 윈 클러 그는 싱가포르에 본사를 둔 AWS의 수석 솔루션 아키텍트이자 생성적 AI 전문가로 기계 학습 및 생성적 AI에 중점을 두고 있습니다. 그는 글로벌 디지털 기반 기업과 협력하여 AWS에서 확장 가능하고 안전하며 비용 효과적인 제품과 서비스를 설계합니다. 여가 시간에는 아들, 딸과 함께 시간을 보내고, 아세안 전역의 파도를 즐기러 여행을 떠납니다.

니 히르 차더 왈라 글로벌 의료 및 생명 과학 팀의 선임 AI/ML 솔루션 설계자입니다. 그의 전문 분야는 특히 생물 의학, 생명 과학 및 의료 분야의 고객 문제에 대한 빅 데이터 및 AI 기반 솔루션을 구축하는 것입니다. 그는 또한 양자정보과학과 AI의 교차점에 흥미를 갖고 있으며 이 공간에서 배우고 기여하는 것을 즐깁니다. 여가 시간에는 테니스, 여행, 우주론 학습을 즐깁니다.

spot_img

최신 인텔리전스

spot_img