Logo Zephyrnet

Hiện đại hóa quản lý vòng đời khoa học dữ liệu với AWS và Wipro | Dịch vụ web của Amazon

Ngày:

Bài đăng này được viết với sự cộng tác của Bhajandeep Singh và Ajay Vishwakarma từ Phòng Thực hành AI/ML AWS của Wipro.

Nhiều tổ chức đã và đang sử dụng kết hợp các giải pháp khoa học dữ liệu tại chỗ và nguồn mở để tạo và quản lý các mô hình học máy (ML).

Các nhóm khoa học dữ liệu và DevOps có thể phải đối mặt với những thách thức trong việc quản lý các hệ thống và ngăn xếp công cụ biệt lập này. Việc tích hợp nhiều nhóm công cụ để xây dựng một giải pháp nhỏ gọn có thể liên quan đến việc xây dựng các trình kết nối hoặc quy trình công việc tùy chỉnh. Việc quản lý các phần phụ thuộc khác nhau dựa trên phiên bản hiện tại của từng ngăn xếp và duy trì các phần phụ thuộc đó bằng việc phát hành các bản cập nhật mới của từng ngăn xếp sẽ làm phức tạp thêm giải pháp. Điều này làm tăng chi phí bảo trì cơ sở hạ tầng và cản trở năng suất.

Các dịch vụ trí tuệ nhân tạo (AI) và máy học (ML) từ Amazon Web Services (AWS), cùng với các dịch vụ giám sát và thông báo tích hợp, giúp các tổ chức đạt được mức độ tự động hóa, khả năng mở rộng và chất lượng mô hình cần thiết với chi phí tối ưu. AWS cũng giúp các nhóm khoa học dữ liệu và DevOps cộng tác và hợp lý hóa quy trình tổng thể của vòng đời mô hình.

Danh mục dịch vụ ML của AWS bao gồm một bộ dịch vụ mạnh mẽ mà bạn có thể sử dụng để tăng tốc độ phát triển, đào tạo và triển khai các ứng dụng machine learning. Bộ dịch vụ có thể được sử dụng để hỗ trợ vòng đời mô hình hoàn chỉnh bao gồm giám sát và đào tạo lại các mô hình ML.

Trong bài đăng này, chúng tôi thảo luận về việc phát triển mô hình và triển khai khung MLOps cho một trong những khách hàng của Wipro sử dụng Amazon SageMaker và các dịch vụ AWS khác.

Wipro là một Đối tác dịch vụ cấp cao nhất của AWS và Nhà cung cấp dịch vụ được quản lý (MSP). Của nó Giải pháp AI/ML thúc đẩy nâng cao hiệu quả hoạt động, năng suất và trải nghiệm khách hàng cho nhiều khách hàng doanh nghiệp của họ.

Những thách thức hiện tại

Trước tiên, hãy tìm hiểu một số thách thức mà nhóm DevOps và khoa học dữ liệu của khách hàng phải đối mặt với quá trình thiết lập hiện tại của họ. Sau đó, chúng tôi có thể kiểm tra xem các dịch vụ AI/ML tích hợp của SageMaker đã giúp giải quyết những thách thức đó như thế nào.

  • Cộng tác – Mỗi nhà khoa học dữ liệu đều làm việc trên sổ ghi chép Jupyter cục bộ của riêng họ để tạo và đào tạo các mô hình ML. Họ thiếu một phương pháp hiệu quả để chia sẻ và cộng tác với các nhà khoa học dữ liệu khác.
  • Khả năng mở rộng – Việc đào tạo và đào tạo lại các mô hình ML ngày càng tốn nhiều thời gian hơn khi các mô hình trở nên phức tạp hơn trong khi năng lực cơ sở hạ tầng được phân bổ vẫn không thay đổi.
  • MLOps – Giám sát mô hình và quản trị liên tục không được tích hợp chặt chẽ và tự động hóa với các mô hình ML. Có sự phụ thuộc và phức tạp khi tích hợp các công cụ của bên thứ ba vào quy trình MLOps.
  • Khả năng sử dụng lại – Nếu không có khung MLOps có thể tái sử dụng, mỗi mô hình phải được phát triển và quản lý riêng biệt, điều này làm tăng thêm nỗ lực chung và làm trì hoãn việc vận hành mô hình.

Sơ đồ này tóm tắt các thách thức và cách triển khai Wipro trên SageMaker giải quyết chúng bằng các dịch vụ và dịch vụ SageMaker tích hợp sẵn.

Các dịch vụ của SageMaker để di chuyển khối lượng công việc ML

Hình 1 – Các dịch vụ của SageMaker để di chuyển khối lượng công việc ML

Wipro đã xác định một kiến ​​trúc có thể giải quyết các thách thức theo cách tối ưu hóa chi phí và hoàn toàn tự động.

Sau đây là trường hợp sử dụng và mô hình được sử dụng để xây dựng giải pháp:

  • Trường hợp sử dụng: Dự đoán giá dựa trên dữ liệu xe đã qua sử dụng
  • Loại vấn đề: Hồi quy
  • Các mô hình được sử dụng: XGBoost và Linear Learner (thuật toán tích hợp SageMaker)

Giải pháp xây dựng

Các chuyên gia tư vấn của Wipro đã tiến hành hội thảo khám phá chuyên sâu với các nhóm khoa học dữ liệu, DevOps và kỹ thuật dữ liệu của khách hàng để hiểu rõ môi trường hiện tại cũng như các yêu cầu và kỳ vọng của họ đối với giải pháp hiện đại trên AWS. Khi kết thúc quá trình tham gia tư vấn, nhóm đã triển khai kiến ​​trúc sau nhằm giải quyết hiệu quả các yêu cầu cốt lõi của nhóm khách hàng, bao gồm:

chia sẽ mã – Sổ ghi chép SageMaker cho phép các nhà khoa học dữ liệu thử nghiệm và chia sẻ mã với các thành viên khác trong nhóm. Wipro đã đẩy nhanh hơn nữa hành trình mô hình ML của họ bằng cách triển khai các đoạn mã và trình tăng tốc mã của Wipro để đẩy nhanh quá trình kỹ thuật tính năng, đào tạo mô hình, triển khai mô hình và tạo quy trình.

Quy trình tích hợp liên tục và phân phối liên tục (CI/CD) – Việc sử dụng kho lưu trữ GitHub của khách hàng đã hỗ trợ tạo phiên bản mã và tập lệnh tự động để khởi chạy quá trình triển khai quy trình bất cứ khi nào các phiên bản mã mới được cam kết.

MLOps – Kiến trúc triển khai quy trình giám sát mô hình SageMaker để quản lý chất lượng mô hình liên tục bằng cách xác thực dữ liệu và độ lệch mô hình theo yêu cầu của lịch trình đã xác định. Bất cứ khi nào phát hiện sai lệch, một sự kiện sẽ được đưa ra để thông báo cho các nhóm tương ứng hành động hoặc bắt đầu đào tạo lại mô hình.

Kiến trúc hướng sự kiện – Các quy trình đào tạo mô hình, triển khai mô hình và giám sát mô hình được tích hợp tốt khi sử dụng Sự kiện Amazon, một xe buýt sự kiện không có máy chủ. Khi các sự kiện đã xác định xảy ra, EventBridge có thể gọi một quy trình để chạy phản hồi. Điều này cung cấp một tập hợp các đường ống được kết nối lỏng lẻo có thể chạy khi cần thiết để đáp ứng với môi trường.

Kiến trúc MLOps theo hướng sự kiện với SageMaker

Hình 2 – Kiến trúc MLOps theo hướng sự kiện với SageMaker

thành phần giải pháp

Phần này mô tả các thành phần giải pháp khác nhau của kiến ​​trúc.

Sổ tay thí nghiệm

  • Mục đích: Nhóm khoa học dữ liệu của khách hàng muốn thử nghiệm nhiều tập dữ liệu và nhiều mô hình khác nhau để tìm ra các tính năng tối ưu, sử dụng những tính năng đó làm đầu vào bổ sung cho quy trình tự động.
  • Giải pháp: Wipro đã tạo sổ ghi chép thử nghiệm SageMaker với các đoạn mã cho từng bước có thể sử dụng lại, chẳng hạn như đọc và ghi dữ liệu, kỹ thuật tính năng mô hình, đào tạo mô hình và điều chỉnh siêu tham số. Các tác vụ kỹ thuật tính năng cũng có thể được chuẩn bị trong Data Wrangler, nhưng khách hàng đã yêu cầu cụ thể các công việc và quy trình xử lý của SageMaker. Chức năng bước AWS vì họ cảm thấy thoải mái hơn khi sử dụng những công nghệ đó. Chúng tôi đã sử dụng SDK khoa học dữ liệu chức năng bước của AWS để tạo chức năng bước—để kiểm tra luồng—trực tiếp từ phiên bản sổ ghi chép nhằm kích hoạt các đầu vào được xác định rõ ràng cho quy trình. Điều này đã giúp nhóm nhà khoa học dữ liệu tạo và thử nghiệm các quy trình với tốc độ nhanh hơn nhiều.

Quy trình đào tạo tự động

  • Mục đích: Để kích hoạt quy trình đào tạo lại và đào tạo lại tự động với các tham số có thể định cấu hình như loại phiên bản, siêu tham số và Dịch vụ lưu trữ đơn giản của Amazon (Amazon S3) vị trí xô. Quy trình cũng phải được khởi chạy bởi sự kiện đẩy dữ liệu tới S3.
  • Giải pháp: Wipro đã triển khai quy trình đào tạo có thể tái sử dụng bằng cách sử dụng Step Functions SDK, xử lý SageMaker, công việc đào tạo, vùng chứa giám sát mô hình SageMaker để tạo đường cơ sở, AWS Lambdavà các dịch vụ EventBridge. Bằng cách sử dụng kiến ​​trúc hướng sự kiện AWS, quy trình được định cấu hình để khởi chạy tự động dựa trên một sự kiện dữ liệu mới được đẩy tới bộ chứa S3 được ánh xạ. Thông báo được cấu hình để gửi đến các địa chỉ email đã xác định. Ở cấp độ cao, quy trình đào tạo trông giống như sơ đồ sau:
Máy bước đường ống đào tạo

Hình 3 – Máy bước đường ống đào tạo.

Mô tả quy trình cho quy trình đào tạo tự động

Sơ đồ trên là quy trình đào tạo tự động được xây dựng bằng Step Functions, Lambda và SageMaker. Đó là một quy trình có thể tái sử dụng để thiết lập đào tạo mô hình tự động, tạo dự đoán, tạo đường cơ sở để giám sát mô hình và giám sát dữ liệu cũng như tạo và cập nhật điểm cuối dựa trên giá trị ngưỡng của mô hình trước đó.

  1. Sơ chế: Bước này lấy dữ liệu từ vị trí Amazon S3 làm đầu vào và sử dụng bộ chứa SageMaker SKLearn để thực hiện các tác vụ xử lý trước dữ liệu và kỹ thuật tính năng cần thiết, chẳng hạn như huấn luyện, kiểm tra và xác thực phân tách.
  2. Đào tạo người mẫu: Bằng cách sử dụng SDK SageMaker, bước này sẽ chạy mã đào tạo với hình ảnh mô hình tương ứng và đào tạo các tập dữ liệu từ các tập lệnh xử lý trước trong khi tạo các tạo phẩm mô hình được đào tạo.
  3. Lưu mô hình: Bước này tạo ra một mô hình từ các tạo phẩm mô hình đã được đào tạo. Tên mô hình được lưu trữ để tham khảo trong một quy trình khác bằng cách sử dụng Cửa hàng thông số trình quản lý hệ thống AWS.
  4. Truy vấn kết quả huấn luyện: Bước này gọi hàm Lambda để tìm nạp số liệu của công việc đào tạo đã hoàn thành từ bước đào tạo mô hình trước đó.
  5. Ngưỡng RMSE: Bước này xác minh số liệu mô hình được đào tạo (RMSE) theo ngưỡng xác định để quyết định xem nên tiến hành triển khai điểm cuối hay từ chối mô hình này.
  6. Độ chính xác của mô hình quá thấp: Ở bước này, độ chính xác của mô hình được kiểm tra so với mô hình tốt nhất trước đó. Nếu mô hình không xác thực được số liệu thì thông báo sẽ được hàm Lambda gửi đến chủ đề mục tiêu đã đăng ký trong Dịch vụ thông báo đơn giản của Amazon (Amazon SNS). Nếu quá trình kiểm tra này không thành công, luồng sẽ thoát vì mô hình được đào tạo mới không đáp ứng ngưỡng đã xác định.
  7. Sự trôi dạt dữ liệu công việc cơ bản: Nếu mô hình được huấn luyện vượt qua các bước xác thực, thì số liệu thống kê cơ sở sẽ được tạo cho phiên bản mô hình đã huấn luyện này để cho phép giám sát và các bước nhánh song song sẽ được chạy để tạo đường cơ sở cho việc kiểm tra chất lượng mô hình.
  8. Tạo cấu hình điểm cuối mô hình: Bước này tạo cấu hình điểm cuối cho mô hình được đánh giá ở bước trước với kích hoạt thu thập dữ liệu cấu hình.
  9. Kiểm tra điểm cuối: Bước này kiểm tra xem điểm cuối có tồn tại hay cần được tạo hay không. Dựa trên đầu ra, bước tiếp theo là tạo hoặc cập nhật điểm cuối.
  10. Cấu hình xuất: Bước này xuất tên model, tên điểm cuối và cấu hình điểm cuối của tham số sang Người quản lý hệ thống AWS Lưu trữ tham số.

Cảnh báo và thông báo được định cấu hình để gửi đến email chủ đề SNS đã định cấu hình về sự thất bại hoặc thành công của việc thay đổi trạng thái máy trạng thái. Cấu hình đường ống tương tự được sử dụng lại cho mô hình XGBoost.

Quy trình chấm điểm hàng loạt tự động

  • Mục đích: Khởi chạy tính điểm hàng loạt ngay khi dữ liệu hàng loạt tính điểm đầu vào có sẵn ở vị trí Amazon S3 tương ứng. Việc chấm điểm theo đợt nên sử dụng mẫu đã đăng ký mới nhất để thực hiện việc chấm điểm.
  • Giải pháp: Wipro đã triển khai quy trình tính điểm có thể sử dụng lại bằng cách sử dụng Step Functions SDK, công việc chuyển đổi hàng loạt SageMaker, Lambda và EventBridge. Quy trình được kích hoạt tự động dựa trên tính khả dụng của dữ liệu lô tính điểm mới tại vị trí S3 tương ứng.
Máy chấm điểm đường ống cho người học tuyến tính và mô hình XGBoost

Hình 4 – Máy tính điểm đường ống cho mô hình học tuyến tính và XGBoost

Mô tả quy trình cho quy trình chấm điểm hàng loạt tự động:

  1. Sơ chế: Đầu vào cho bước này là tệp dữ liệu từ vị trí S3 tương ứng và thực hiện quá trình xử lý trước bắt buộc trước khi gọi công việc chuyển đổi hàng loạt SageMaker.
  2. Ghi điểm: Bước này chạy công việc chuyển đổi hàng loạt để tạo ra các suy luận, gọi phiên bản mới nhất của mô hình đã đăng ký và lưu trữ kết quả tính điểm trong bộ chứa S3. Wipro đã sử dụng chức năng lọc đầu vào và nối của API chuyển đổi hàng loạt SageMaker. Nó giúp làm phong phú thêm dữ liệu chấm điểm để đưa ra quyết định tốt hơn.
Bộ lọc đầu vào và luồng tham gia để chuyển đổi hàng loạt

Hình 5 – Bộ lọc đầu vào và luồng nối để chuyển đổi hàng loạt

  1. Ở bước này, quy trình máy trạng thái được khởi chạy bằng tệp dữ liệu mới trong vùng lưu trữ S3.

Thông báo được định cấu hình để gửi đến email chủ đề SNS đã định cấu hình về việc thay đổi trạng thái máy trạng thái thất bại/thành công.

Đường dẫn suy luận thời gian thực

  • Mục đích: Để kích hoạt suy luận theo thời gian thực từ cả hai điểm cuối của mô hình (Linear Learner và XGBoost) và nhận giá trị dự đoán tối đa (hoặc bằng cách sử dụng bất kỳ logic tùy chỉnh nào khác có thể được viết dưới dạng hàm Lambda) để trả về ứng dụng.
  • Giải pháp: Nhóm Wipro đã triển khai kiến ​​trúc có thể tái sử dụng bằng cách sử dụng Cổng API Amazon, Lambda và điểm cuối SageMaker như trong Hình 6:
Đường dẫn suy luận thời gian thực

Hình 6 – Đường dẫn suy luận thời gian thực

Mô tả luồng cho quy trình suy luận thời gian thực được hiển thị trong Hình 6:

  1. Tải trọng được gửi từ ứng dụng đến Amazon API Gateway để định tuyến trọng tải đến hàm Lambda tương ứng.
  2. Hàm Lambda (có lớp tùy chỉnh SageMaker tích hợp) thực hiện việc xử lý trước, định dạng tải trọng JSON hoặc CSV cần thiết và gọi các điểm cuối tương ứng.
  3. Phản hồi được trả về Lambda và gửi lại ứng dụng thông qua API Gateway.

Khách hàng đã sử dụng quy trình này cho các mô hình quy mô vừa và nhỏ, bao gồm việc sử dụng nhiều loại thuật toán nguồn mở khác nhau. Một trong những lợi ích chính của SageMaker là nhiều loại thuật toán khác nhau có thể được đưa vào SageMaker và triển khai bằng kỹ thuật mang theo vùng chứa của riêng bạn (BYOC). BYOC liên quan đến việc chứa thuật toán và đăng ký hình ảnh vào Cơ quan đăng ký vùng chứa đàn hồi của Amazon (Amazon ECR), sau đó sử dụng chính hình ảnh đó để tạo vùng chứa nhằm huấn luyện và suy luận.

Mở rộng quy mô là một trong những vấn đề lớn nhất trong chu trình học máy. SageMaker đi kèm với các công cụ cần thiết để mở rộng mô hình trong quá trình suy luận. Trong kiến ​​trúc trước đó, người dùng cần kích hoạt tính năng tự động thay đổi quy mô của SageMaker để xử lý khối lượng công việc cuối cùng. Để bật tính năng tự động thay đổi quy mô, người dùng phải cung cấp chính sách tự động thay đổi quy mô yêu cầu thông lượng trên mỗi phiên bản cũng như các phiên bản tối đa và tối thiểu. Trong chính sách hiện hành, SageMaker tự động xử lý khối lượng công việc cho các điểm cuối thời gian thực và chuyển đổi giữa các phiên bản khi cần.

Đường ống giám sát mô hình tùy chỉnh

  • Mục đích: Nhóm khách hàng muốn có chức năng giám sát mô hình tự động để nắm bắt cả sự trôi dạt dữ liệu và sự trôi dạt mô hình. Nhóm Wipro đã sử dụng tính năng giám sát mô hình SageMaker để cho phép cả trôi dạt dữ liệu và trôi mô hình bằng một quy trình có thể tái sử dụng để suy luận theo thời gian thực và chuyển đổi hàng loạt. Lưu ý rằng trong quá trình phát triển giải pháp này, tính năng giám sát mô hình SageMaker không cung cấp điều khoản để phát hiện dữ liệu hoặc mô hình trôi dạt để chuyển đổi hàng loạt. Chúng tôi đã triển khai các tùy chỉnh để sử dụng vùng chứa màn hình mô hình cho tải trọng chuyển đổi hàng loạt.
  • Giải pháp: Nhóm Wipro đã triển khai một quy trình giám sát mô hình có thể tái sử dụng cho các tải trọng suy luận hàng loạt và theo thời gian thực bằng cách sử dụng Keo AWS để nắm bắt tải trọng gia tăng và gọi công việc giám sát mô hình theo lịch trình đã xác định.
Máy bước giám sát mô hình

Hình 7 – Mô hình máy bước giám sát

Mô tả quy trình cho quy trình giám sát mô hình tùy chỉnh:
Quy trình chạy theo lịch trình đã xác định được định cấu hình thông qua EventBridge.

  1. Hợp nhất CSV – Nó sử dụng tính năng đánh dấu AWS Glue để phát hiện sự hiện diện của tải trọng gia tăng trong nhóm S3 đã xác định để thu thập và phản hồi dữ liệu theo thời gian thực cũng như phản hồi dữ liệu hàng loạt. Sau đó, nó tổng hợp dữ liệu đó để xử lý tiếp.
  2. Đánh giá tải trọng – Nếu có dữ liệu gia tăng hoặc tải trọng cho lần chạy hiện tại, nó sẽ gọi nhánh giám sát. Nếu không, nó sẽ bỏ qua mà không xử lý và thoát khỏi công việc.
  3. Xử lý bài viết – Nhánh giám sát được thiết kế để có hai nhánh con song song—một nhánh phụ cho trôi dạt dữ liệu và một nhánh phụ cho trôi dạt mô hình.
  4. Giám sát (trôi dữ liệu) – Nhánh trôi dữ liệu chạy bất cứ khi nào có tải trọng. Nó sử dụng các ràng buộc cơ sở của mô hình được đào tạo mới nhất và các tệp thống kê được tạo thông qua quy trình đào tạo cho các tính năng dữ liệu và chạy công việc giám sát mô hình.
  5. Giám sát (trôi mô hình) – Nhánh trôi mô hình chỉ chạy khi dữ liệu thực tế cơ bản được cung cấp, cùng với tải trọng suy luận. Nó sử dụng các ràng buộc cơ sở của mô hình đã đào tạo và các tệp thống kê được tạo thông qua quy trình đào tạo cho các tính năng chất lượng của mô hình và chạy công việc giám sát mô hình.
  6. Đánh giá sự trôi dạt – Kết quả của cả dữ liệu và mô hình bị lệch là một tệp vi phạm ràng buộc được đánh giá bằng hàm Lambda đánh giá độ lệch. Hàm này sẽ gửi thông báo đến các chủ đề Amazon SNS tương ứng kèm theo thông tin chi tiết về độ lệch. Dữ liệu trôi dạt được làm phong phú hơn nữa với việc bổ sung các thuộc tính cho mục đích báo cáo. Các email thông báo trôi dạt sẽ trông giống như các ví dụ trong Hình 8.
Email giám sát độ lệch mô hình SageMaker

Hình 8 – Thông báo trôi dạt dữ liệu và mô hình

Email giám sát độ lệch mô hình SageMaker

Hình 9 – Thông báo trôi dạt dữ liệu và mô hình

Thông tin chi tiết với trực quan hóa Amazon QuickSight:

  • Mục đích: Khách hàng muốn hiểu rõ hơn về dữ liệu và độ lệch mô hình, liên hệ dữ liệu trôi dạt với các công việc giám sát mô hình tương ứng và tìm ra xu hướng dữ liệu suy luận để hiểu bản chất của xu hướng dữ liệu nhiễu.
  • Giải pháp: Nhóm Wipro đã làm phong phú thêm dữ liệu sai lệch bằng cách kết nối dữ liệu đầu vào với kết quả sai lệch, cho phép phân loại từ sai lệch đến giám sát và dữ liệu tính điểm tương ứng. Hình ảnh trực quan và bảng điều khiển được tạo bằng cách sử dụng Amazon QuickSight với amazon Athena làm nguồn dữ liệu (sử dụng dữ liệu trôi dạt và tính điểm CSV của Amazon S3).
Kiến trúc trực quan hóa giám sát mô hình

Hình 10 – Kiến trúc trực quan hóa giám sát mô hình

Cân nhắc thiết kế:

  1. Sử dụng bộ dữ liệu gia vị QuickSight để có hiệu suất trong bộ nhớ tốt hơn.
  2. Sử dụng API tập dữ liệu làm mới QuickSight để tự động làm mới dữ liệu gia vị.
  3. Triển khai bảo mật dựa trên nhóm để kiểm soát truy cập bảng thông tin và phân tích.
  4. Trên các tài khoản, tự động triển khai bằng cách sử dụng xuất và nhập tập dữ liệu, nguồn dữ liệu và lệnh gọi API phân tích do QuickSight cung cấp.

Bảng điều khiển giám sát mô hình:

Để mang lại kết quả hiệu quả và thông tin chi tiết có ý nghĩa về công việc giám sát mô hình, bảng thông tin tùy chỉnh đã được tạo cho dữ liệu giám sát mô hình. Các điểm dữ liệu đầu vào được kết hợp song song với dữ liệu yêu cầu suy luận, dữ liệu công việc và đầu ra giám sát để tạo ra hình ảnh trực quan về các xu hướng được giám sát mô hình tiết lộ.

Điều này thực sự đã giúp nhóm khách hàng hình dung được các khía cạnh của các tính năng dữ liệu khác nhau cùng với kết quả dự đoán của từng đợt yêu cầu suy luận.

Bảng thông tin giám sát mô hình với lời nhắc lựa chọn

Hình 11 – Bảng thông tin giám sát mô hình với các lời nhắc lựa chọn

Bảng thông tin giám sát mô hình với lời nhắc lựa chọn

Hình 12 – Phân tích độ lệch của màn hình mô hình

Kết luận

Việc triển khai được giải thích trong bài đăng này đã cho phép Wipro di chuyển các mô hình tại chỗ của họ sang AWS một cách hiệu quả và xây dựng khung phát triển mô hình tự động, có thể mở rộng.

Việc sử dụng các thành phần khung có thể tái sử dụng cho phép nhóm khoa học dữ liệu đóng gói công việc của họ một cách hiệu quả dưới dạng các thành phần JSON của AWS Step Functions có thể triển khai. Đồng thời, các nhóm DevOps đã sử dụng và nâng cao quy trình CI/CD tự động để tạo điều kiện thuận lợi cho việc quảng bá và đào tạo lại các mô hình trong môi trường cao hơn một cách liền mạch.

Thành phần giám sát mô hình đã cho phép giám sát liên tục hiệu suất của mô hình và người dùng nhận được cảnh báo và thông báo bất cứ khi nào phát hiện dữ liệu hoặc mô hình bị lệch.

Nhóm của khách hàng đang sử dụng khung MLOps này để di chuyển hoặc phát triển nhiều mô hình hơn và tăng cường áp dụng SageMaker của họ.

Bằng cách khai thác bộ dịch vụ SageMaker toàn diện kết hợp với kiến ​​trúc được thiết kế tỉ mỉ của chúng tôi, khách hàng có thể tích hợp liền mạch nhiều mô hình, giảm đáng kể thời gian triển khai và giảm thiểu sự phức tạp liên quan đến việc chia sẻ mã. Hơn nữa, kiến ​​trúc của chúng tôi đơn giản hóa việc bảo trì phiên bản mã, đảm bảo quy trình phát triển hợp lý.

Kiến trúc này xử lý toàn bộ chu trình học máy, bao gồm đào tạo mô hình tự động, suy luận theo lô và theo thời gian thực, giám sát mô hình chủ động và phân tích độ lệch. Giải pháp toàn diện này giúp khách hàng đạt được hiệu suất mô hình tối ưu trong khi vẫn duy trì khả năng giám sát và phân tích nghiêm ngặt để đảm bảo độ chính xác và độ tin cậy liên tục.

Để tạo kiến ​​trúc này, hãy bắt đầu bằng cách tạo các tài nguyên thiết yếu như Đám mây riêng ảo Amazon (Amazon VPC), sổ ghi chép SageMaker và hàm Lambda. Đảm bảo thiết lập phù hợp Quản lý truy cập và nhận dạng AWS (IAM) chính sách đối với các nguồn tài nguyên này.

Tiếp theo, tập trung vào việc xây dựng các thành phần của kiến ​​trúc—chẳng hạn như tập lệnh đào tạo và tiền xử lý—trong SageMaker Studio hoặc Jupyter Notebook. Bước này liên quan đến việc phát triển mã và cấu hình cần thiết để kích hoạt các chức năng mong muốn.

Sau khi xác định được các thành phần của kiến ​​trúc, bạn có thể tiến hành xây dựng hàm Lambda để tạo suy luận hoặc thực hiện các bước xử lý hậu kỳ trên dữ liệu.

Cuối cùng, hãy sử dụng Step Functions để kết nối các thành phần và thiết lập quy trình làm việc suôn sẻ nhằm điều phối việc thực hiện từng bước.


Về các tác giả

Stephen Randolph - Kiến trúc sư giải pháp đối tác AWSStephen Randolph là Kiến trúc sư giải pháp đối tác cấp cao tại Amazon Web Services (AWS). Anh tạo điều kiện và hỗ trợ các đối tác của Nhà tích hợp hệ thống toàn cầu (GSI) về công nghệ AWS mới nhất khi họ phát triển các giải pháp ngành nhằm giải quyết các thách thức kinh doanh. Stephen đặc biệt đam mê Bảo mật và AI sáng tạo, đồng thời giúp khách hàng và đối tác xây dựng các giải pháp an toàn, hiệu quả và sáng tạo trên AWS.

Bhajandeep SinghBhajandeep Singh đã từng là Giám đốc Trung tâm Xuất sắc AI/ML của AWS tại Wipro Technologies, dẫn đầu các hoạt động tương tác với khách hàng để cung cấp các giải pháp phân tích dữ liệu và AI. Anh có chứng chỉ Chuyên môn AI/ML của AWS và là tác giả của các blog kỹ thuật về các giải pháp và dịch vụ AI/ML. Với kinh nghiệm dẫn đầu về các giải pháp AI/ML của AWS trong nhiều ngành, Bhajandeep đã giúp khách hàng tối đa hóa giá trị của các dịch vụ AI/ML của AWS thông qua kiến ​​thức chuyên môn và khả năng lãnh đạo của mình.

Ajay VishwakarmaAjay Vishwakarma là kỹ sư ML cho nhóm AWS trong lĩnh vực thực hành giải pháp AI của Wipro. Anh ấy có kinh nghiệm tốt trong việc xây dựng giải pháp BYOM cho thuật toán tùy chỉnh trong SageMaker, triển khai quy trình ETL từ đầu đến cuối, xây dựng chatbot bằng Lex, chia sẻ tài nguyên QuickSight trên nhiều tài khoản và xây dựng các mẫu CloudFormation để triển khai. Anh ấy thích khám phá AWS, coi mọi vấn đề của khách hàng là một thử thách để khám phá nhiều hơn và cung cấp giải pháp cho họ.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img