Logo Zephyrnet

Alida hiểu sâu hơn về phản hồi của khách hàng với Amazon Bedrock | Dịch vụ web của Amazon

Ngày:

Bài đăng này được đồng viết với Sherwin Chu từ Alida.

Alida giúp các thương hiệu lớn nhất thế giới tạo ra các cộng đồng nghiên cứu có tính gắn kết cao để thu thập phản hồi nhằm thúc đẩy trải nghiệm khách hàng và đổi mới sản phẩm tốt hơn.

Khách hàng của Alida nhận được hàng chục nghìn phản hồi tương tác cho một cuộc khảo sát, do đó nhóm Alida đã chọn tận dụng công nghệ học máy (ML) để phục vụ khách hàng của họ trên quy mô lớn. Tuy nhiên, khi sử dụng các mô hình xử lý ngôn ngữ tự nhiên (NLP) truyền thống, họ nhận thấy rằng các giải pháp này gặp khó khăn trong việc hiểu đầy đủ các phản hồi có sắc thái được tìm thấy trong các câu trả lời khảo sát mở. Các mô hình thường chỉ nắm bắt được các chủ đề và cảm xúc ở cấp độ bề mặt mà bỏ qua bối cảnh quan trọng giúp mang lại những hiểu biết chính xác và có ý nghĩa hơn.

Trong bài đăng này, chúng ta tìm hiểu về cách sử dụng mô hình Claude Instant của Anthropic. nền tảng Amazon đã cho phép nhóm Alida nhanh chóng xây dựng một dịch vụ có thể mở rộng để xác định chính xác hơn chủ đề và cảm tính trong các phản hồi khảo sát phức tạp. Dịch vụ mới đã đạt được sự cải thiện gấp 4-6 lần về khả năng xác nhận chủ đề bằng cách phân cụm chặt chẽ hàng chục chủ đề chính so với hàng trăm từ khóa NLP ồn ào.

Amazon Bedrock là một dịch vụ được quản lý toàn phần cung cấp nhiều lựa chọn mô hình nền tảng (FM) hiệu suất cao từ các công ty AI hàng đầu, chẳng hạn như AI21 Labs, Anthropic, Cohere, Meta, Stability AI và Amazon thông qua một API duy nhất, cùng với một phạm vi rộng bộ khả năng bạn cần để xây dựng các ứng dụng AI tổng quát có tính bảo mật, quyền riêng tư và AI có trách nhiệm.

Việc sử dụng Amazon Bedrock cho phép Alida đưa dịch vụ của họ ra thị trường nhanh hơn so với khi họ sử dụng các nhà cung cấp hoặc nhà cung cấp máy học (ML) khác.

Các thách thức

Các cuộc khảo sát với sự kết hợp giữa câu hỏi trắc nghiệm và câu hỏi mở cho phép các nhà nghiên cứu thị trường có được cái nhìn toàn diện hơn bằng cách thu thập cả điểm dữ liệu định lượng và định tính.

Các câu hỏi trắc nghiệm dễ phân tích trên quy mô lớn nhưng thiếu sắc thái và chiều sâu. Đặt các tùy chọn phản hồi cũng có thể dẫn đến phản hồi sai lệch hoặc chuẩn bị cho người tham gia.

Các câu hỏi khảo sát mở cho phép người trả lời cung cấp ngữ cảnh và phản hồi ngoài dự kiến. Những điểm dữ liệu định tính này giúp các nhà nghiên cứu hiểu sâu hơn ngoài những gì mà các câu hỏi trắc nghiệm có thể nắm bắt được một mình. Thách thức với văn bản dạng tự do là nó có thể dẫn đến những câu trả lời phức tạp và nhiều sắc thái mà NLP truyền thống khó hiểu đầy đủ. Ví dụ:

“Gần đây tôi đã trải qua một số khó khăn trong cuộc sống và thực sự thất vọng. Khi tôi bước vào, các nhân viên luôn rất tử tế với tôi. Nó đã giúp tôi vượt qua những thời điểm khó khăn!”

Các phương pháp NLP truyền thống sẽ xác định các chủ đề là “khó khăn”, “thất vọng”, “nhân viên tốt bụng” và “vượt qua thời kỳ khó khăn”. Nó không thể phân biệt giữa trải nghiệm cuộc sống tiêu cực tổng thể hiện tại của người phản hồi và trải nghiệm tích cực cụ thể tại cửa hàng.

Giải pháp hiện tại của Alida tự động xử lý khối lượng lớn phản hồi mở, nhưng họ muốn khách hàng của mình hiểu rõ hơn về ngữ cảnh và suy luận chủ đề ở cấp độ cao hơn.

nền tảng Amazon

Trước khi giới thiệu LLM, con đường phía trước để Alida cải thiện giải pháp mô hình đơn hiện có của họ là hợp tác chặt chẽ với các chuyên gia trong ngành và phát triển, đào tạo và cải tiến các mô hình mới dành riêng cho từng ngành dọc mà khách hàng của Alida hoạt động. Đây là một nỗ lực vừa tốn thời gian vừa tốn kém.

Một trong những bước đột phá khiến LLM trở nên mạnh mẽ là việc sử dụng cơ chế chú ý. LLM sử dụng cơ chế tự chú ý để phân tích mối quan hệ giữa các từ trong một lời nhắc nhất định. Điều này cho phép LLM xử lý chủ đề và cảm xúc trong ví dụ trước tốt hơn, đồng thời đưa ra một công nghệ mới thú vị có thể được sử dụng để giải quyết thách thức.

Với Amazon Bedrock, các nhóm và cá nhân có thể bắt đầu sử dụng ngay các mô hình nền tảng mà không cần phải lo lắng về việc cung cấp cơ sở hạ tầng hay thiết lập và định cấu hình khung ML. Bạn có thể bắt đầu với các bước sau:

  1. Xác minh rằng người dùng hoặc vai trò của bạn có quyền tạo hoặc sửa đổi tài nguyên Amazon Bedrock. Để biết chi tiết, xem Ví dụ về chính sách dựa trên danh tính cho Amazon Bedrock
  2. Đăng nhập vào nền tảng Amazon giao diện điều khiển.
  3. trên Truy cập mô hình trang, hãy xem lại EULA và bật FM bạn muốn trong tài khoản của mình.
  4. Bắt đầu tương tác với FM thông qua các phương pháp sau:

Đội ngũ lãnh đạo điều hành của Alida rất mong muốn trở thành người sớm áp dụng Amazon Bedrock vì họ nhận ra khả năng của Amazon Bedrock trong việc giúp các nhóm của họ đưa các giải pháp sáng tạo mới được hỗ trợ bởi AI ra thị trường nhanh hơn.

Vincy William, Giám đốc Kỹ thuật Cấp cao tại Alida, người đứng đầu nhóm chịu trách nhiệm xây dựng dịch vụ phân tích chủ đề và cảm tính, cho biết:

“LLM mang lại một bước nhảy vọt lớn trong phân tích định tính và thực hiện những việc (ở quy mô) mà con người không thể làm được. Amazon Bedrock là người thay đổi cuộc chơi, nó cho phép chúng tôi tận dụng LLM mà không gặp sự phức tạp.”

Nhóm kỹ thuật đã trải nghiệm sự dễ dàng ngay lập tức khi bắt đầu với Amazon Bedrock. Họ có thể chọn từ nhiều mô hình nền tảng khác nhau và bắt đầu tập trung vào kỹ thuật nhanh chóng thay vì dành thời gian cho việc định cỡ, cung cấp, triển khai và định cấu hình tài nguyên phù hợp để chạy các mô hình.

Tổng quan về giải pháp

Sherwin Chu, Kiến trúc sư trưởng của Alida, đã chia sẻ cách tiếp cận kiến ​​trúc dịch vụ vi mô của Alida. Alida đã xây dựng tính năng phân loại chủ đề và cảm xúc như một dịch vụ với ứng dụng phân tích phản hồi khảo sát là ứng dụng đầu tiên. Với cách tiếp cận này, các thách thức triển khai LLM phổ biến như độ phức tạp của việc quản lý lời nhắc, giới hạn mã thông báo, ràng buộc yêu cầu và số lần thử lại sẽ bị loại bỏ và giải pháp cho phép các ứng dụng tiêu thụ có API đơn giản và ổn định để hoạt động. Cách tiếp cận lớp trừu tượng này cũng cho phép chủ sở hữu dịch vụ liên tục cải thiện các chi tiết triển khai nội bộ và giảm thiểu các thay đổi vi phạm API. Cuối cùng, cách tiếp cận dịch vụ cho phép một điểm duy nhất thực hiện mọi chính sách bảo mật và quản trị dữ liệu phát triển khi quản trị AI trưởng thành trong tổ chức.

Sơ đồ sau minh họa kiến ​​trúc và quy trình của giải pháp.

Kiến trúc vi dịch vụ của Alida

Alida đã đánh giá LLM từ nhiều nhà cung cấp khác nhau và nhận thấy Claude Instant của Anthropic là sự cân bằng phù hợp giữa chi phí và hiệu suất. Hợp tác chặt chẽ với nhóm kỹ thuật nhanh chóng, Chu ủng hộ việc triển khai chiến lược chuỗi nhanh chóng thay vì cách tiếp cận nhanh chóng nguyên khối duy nhất.

Chuỗi nhắc nhở cho phép bạn thực hiện những việc sau:

  • Chia mục tiêu của bạn thành các bước nhỏ hơn, hợp lý hơn
  • Xây dựng lời nhắc cho từng bước
  • Cung cấp lời nhắc tuần tự cho LLM

Điều này tạo ra các điểm kiểm tra bổ sung, có những lợi ích sau:

  • Thật đơn giản để đánh giá một cách có hệ thống những thay đổi bạn thực hiện đối với lời nhắc đầu vào
  • Bạn có thể triển khai theo dõi và giám sát chi tiết hơn về độ chính xác và hiệu suất ở từng bước

Những cân nhắc chính với chiến lược này bao gồm việc tăng số lượng yêu cầu được gửi tới LLM và dẫn đến tăng tổng thời gian cần thiết để hoàn thành mục tiêu. Đối với trường hợp sử dụng của Alida, họ đã chọn gộp một tập hợp các phản hồi mở trong một lời nhắc duy nhất tới LLM là điều họ chọn để bù đắp những tác động này.

NLP so với LLM

Giải pháp NLP hiện tại của Alida dựa trên các thuật toán phân cụm và phân loại thống kê để phân tích các câu trả lời khảo sát có kết thúc mở. Khi áp dụng cho phản hồi mẫu cho ứng dụng di động của quán cà phê, nó trích xuất các chủ đề dựa trên mẫu từ nhưng thiếu khả năng hiểu thực sự. Bảng sau bao gồm một số ví dụ so sánh phản hồi NLP và phản hồi LLM.

Phản hồi khảo sát NLP truyền thống hiện có Amazon Bedrock với Claude Instant
Đề tài Đề tài Tâm lý thị trường
Tôi hầu như chỉ gọi đồ uống của mình thông qua ứng dụng vì sự tiện lợi và sẽ bớt xấu hổ hơn khi gọi đồ uống siêu tùy chỉnh lol. Và tôi thích kiếm được phần thưởng! ['app bc tiện lợi', 'uống', 'thưởng'] Đặt hàng di động tiện lợi tích cực
Ứng dụng này hoạt động khá tốt, điều tôi phàn nàn duy nhất là tôi không thể thêm bất kỳ số tiền nào tôi muốn vào thẻ quà tặng của mình. Tại sao cụ thể nó phải là $10 để nạp lại?! ['khiếu nại', 'ứng dụng', 'thẻ quà tặng', 'số tiền'] Tốc độ thực hiện đơn hàng trên thiết bị di động tiêu cực

Các kết quả ví dụ cho thấy giải pháp hiện tại có thể trích xuất các từ khóa có liên quan như thế nào nhưng không thể phân bổ nhóm chủ đề tổng quát hơn.

Ngược lại, bằng cách sử dụng Amazon Bedrock và Anthropic Claude Instant, LLM với chương trình đào tạo theo ngữ cảnh có thể chỉ định câu trả lời cho các chủ đề được xác định trước và chỉ định cảm tính.

Ngoài việc cung cấp câu trả lời tốt hơn cho khách hàng của Alida, đối với trường hợp sử dụng cụ thể này, việc theo đuổi giải pháp sử dụng LLM thay vì các phương pháp NLP truyền thống đã tiết kiệm rất nhiều thời gian và công sức trong việc đào tạo và duy trì một mô hình phù hợp. Bảng sau đây so sánh việc đào tạo mô hình NLP truyền thống với đào tạo theo ngữ cảnh của LLM.

. Yêu cầu dữ liệu Quy trình đào tạo Khả năng thích ứng mô hình
Đào tạo mô hình NLP truyền thống Hàng ngàn ví dụ được con người gắn nhãn

Kết hợp kỹ thuật tính năng tự động và thủ công.

Lặp đi lặp lại đào tạo và đánh giá chu kỳ.

Quay vòng chậm hơn do cần phải đào tạo lại mô hình
Đào tạo theo ngữ cảnh của LLM Một số ví dụ

Được đào tạo nhanh chóng trong thời gian nhanh chóng.

Bị giới hạn bởi kích thước cửa sổ ngữ cảnh.

Lặp lại nhanh hơn bằng cách sửa đổi lời nhắc.

Khả năng lưu giữ bị hạn chế do kích thước cửa sổ ngữ cảnh.

Kết luận

Việc Alida sử dụng mô hình Claude Instant của Anthropic trên Amazon Bedrock chứng tỏ khả năng mạnh mẽ của LLM trong việc phân tích các câu trả lời khảo sát có kết thúc mở. Alida đã có thể xây dựng một dịch vụ ưu việt có khả năng phân tích chủ đề chính xác hơn gấp 4-6 lần so với dịch vụ do NLP cung cấp của họ. Ngoài ra, việc sử dụng kỹ thuật nhắc nhở trong ngữ cảnh cho LLM giúp giảm đáng kể thời gian phát triển vì họ không cần quản lý hàng nghìn điểm dữ liệu do con người gắn nhãn để đào tạo mô hình NLP truyền thống. Điều này cuối cùng cho phép Alida cung cấp cho khách hàng của họ những hiểu biết sâu sắc hơn sớm hơn!

Nếu bạn đã sẵn sàng bắt đầu xây dựng cải tiến mô hình nền tảng của riêng mình với Amazon Bedrock, hãy xem liên kết này để Thiết lập Amazon Bedrock. Nếu bạn muốn đọc về các ứng dụng hấp dẫn khác của Amazon Bedrock, hãy xem phần cụ thể của Amazon Bedrock của Blog học máy AWS.


Giới thiệu về tác giả

Kinman Lâm là Kiến trúc sư giải pháp ISV/DNB cho AWS. Ông có 17 năm kinh nghiệm trong việc xây dựng và phát triển các công ty công nghệ trong lĩnh vực điện thoại thông minh, định vị địa lý, IoT và không gian phần mềm nguồn mở. Tại AWS, anh sử dụng kinh nghiệm của mình để giúp các công ty xây dựng cơ sở hạ tầng mạnh mẽ nhằm đáp ứng nhu cầu ngày càng tăng của các doanh nghiệp đang phát triển, ra mắt các sản phẩm và dịch vụ mới, thâm nhập thị trường mới và làm hài lòng khách hàng của họ.

Sherwin ChuSherwin Chu là Kiến trúc sư trưởng tại Alida, giúp các nhóm sản phẩm định hướng kiến ​​trúc, lựa chọn công nghệ và giải quyết vấn đề phức tạp. Ông là một kỹ sư phần mềm, kiến ​​trúc sư và nhà lãnh đạo giàu kinh nghiệm với hơn 20 năm làm việc trong lĩnh vực SaaS cho nhiều ngành khác nhau. Anh đã xây dựng và quản lý nhiều hệ thống B2B và B2C trên AWS và GCP.

Đánh dấu Roy là Kiến trúc sư máy học chính của AWS, giúp khách hàng thiết kế và xây dựng các giải pháp AI/ML và AI tổng quát. Trọng tâm của ông kể từ đầu năm 2023 là dẫn đầu các nỗ lực về kiến ​​trúc giải pháp cho việc ra mắt Amazon Bedrock, sản phẩm AI hàng đầu của AWS dành cho các nhà xây dựng. Công việc của Mark bao gồm nhiều trường hợp sử dụng, với mối quan tâm chính là AI tổng hợp, tác nhân và ML mở rộng quy mô trên toàn doanh nghiệp. Ông đã giúp đỡ các công ty trong lĩnh vực bảo hiểm, dịch vụ tài chính, truyền thông và giải trí, chăm sóc sức khỏe, tiện ích và sản xuất. Trước khi gia nhập AWS, Mark là kiến ​​trúc sư, nhà phát triển và lãnh đạo công nghệ trong hơn 25 năm, trong đó có 19 năm làm việc trong lĩnh vực dịch vụ tài chính. Mark có sáu chứng chỉ AWS, bao gồm Chứng chỉ Chuyên môn ML.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img