Logo Zephyrnet

Cách CCC Intelligent Solutions tạo phương pháp tùy chỉnh để lưu trữ các mô hình AI phức tạp bằng Amazon SageMaker

Ngày:

Bài đăng này được đồng viết bởi Christopher Diaz, Sam Kinard, Jaime Hidalgo và Daniel Suarez từ CCC Intelligent Solutions.

Trong bài đăng này, chúng tôi thảo luận về cách Giải pháp thông minh CCC (CCC) kết hợp Amazon SageMaker với các dịch vụ AWS khác để tạo ra một giải pháp tùy chỉnh có khả năng lưu trữ các loại mô hình trí tuệ nhân tạo (AI) phức tạp đã hình dung. CCC là nền tảng phần mềm dưới dạng dịch vụ (SaaS) hàng đầu dành cho nền kinh tế bảo hiểm tai nạn và tài sản trị giá hàng nghìn tỷ đô la, hỗ trợ các hoạt động cho các công ty bảo hiểm, công ty sửa chữa, nhà sản xuất ô tô, nhà cung cấp phụ tùng, người cho vay, v.v. Công nghệ đám mây CCC kết nối hơn 30,000 doanh nghiệp số hóa các quy trình công việc quan trọng, thương mại và trải nghiệm của khách hàng. Là công ty hàng đầu đáng tin cậy về trí tuệ nhân tạo, Internet vạn vật (IoT), trải nghiệm khách hàng cũng như quản lý mạng và quy trình làm việc, CCC mang đến những đổi mới giúp cuộc sống của mọi người luôn tiến lên phía trước khi điều đó quan trọng nhất.

Các thách thức

CCC xử lý hơn 1 nghìn tỷ đô la giao dịch yêu cầu bồi thường hàng năm. Khi công ty tiếp tục phát triển để tích hợp AI vào danh mục sản phẩm mới và hiện có của mình, điều này đòi hỏi các phương pháp tinh vi để đào tạo và triển khai các mô hình tập hợp máy học đa phương thức (ML) để giải quyết các nhu cầu kinh doanh phức tạp. Đây là một lớp mô hình gói gọn các thuật toán độc quyền và kiến ​​thức chuyên môn về lĩnh vực chủ đề mà CCC đã mài dũa qua nhiều năm. Các mô hình này sẽ có thể nhập các lớp dữ liệu đa sắc thái và quy tắc khách hàng mới để tạo ra các kết quả dự đoán đơn lẻ. Trong bài đăng trên blog này, chúng ta sẽ tìm hiểu cách CCC tận dụng dịch vụ lưu trữ Amazon SageMaker và các dịch vụ AWS khác để triển khai hoặc lưu trữ nhiều mô hình đa phương thức vào một quy trình suy luận tập hợp.

Như thể hiện trong sơ đồ sau, một tập hợp là một tập hợp gồm hai hoặc nhiều mô hình được sắp xếp để chạy theo kiểu tuyến tính hoặc phi tuyến tính nhằm tạo ra một dự đoán duy nhất. Khi được xếp chồng lên nhau một cách tuyến tính, các mô hình riêng lẻ của một tập hợp có thể được gọi trực tiếp để dự đoán và sau đó hợp nhất để thống nhất. Đôi khi, các mô hình tập hợp cũng có thể được triển khai như một đường dẫn suy luận nối tiếp.

Đối với trường hợp sử dụng của chúng tôi, đường ống đồng bộ hoàn toàn phi tuyến tính, như được mô tả trong sơ đồ sau. Các đường ống đồng bộ phi tuyến về mặt lý thuyết là các đồ thị tuần hoàn trực tiếp (DAG). Đối với trường hợp sử dụng của chúng tôi, quy trình DAG này có cả hai mô hình độc lập chạy song song (Dịch vụ B, C) và các mô hình khác sử dụng dự đoán từ các bước trước đó (Dịch vụ D).

Một thực tiễn xuất phát từ văn hóa định hướng nghiên cứu tại CCC là việc xem xét liên tục các công nghệ có thể được tận dụng để mang lại nhiều giá trị hơn cho khách hàng. Khi CCC đối mặt với thách thức tổng thể này, ban lãnh đạo đã đưa ra sáng kiến ​​bằng chứng khái niệm (POC) nhằm đánh giá kỹ lưỡng các dịch vụ từ AWS để khám phá, cụ thể là liệu Amazon SageMaker và các công cụ AWS khác có thể quản lý việc lưu trữ các mô hình AI riêng lẻ theo mô hình phức tạp, phi tuyến tính hay không. hòa tấu.

Đoàn giải thích: Trong bối cảnh này, một tập hợp là một nhóm gồm 2 hoặc nhiều mô hình AI hoạt động cùng nhau để đưa ra 1 dự đoán tổng thể.

Câu hỏi thúc đẩy nghiên cứu

Amazon SageMaker có thể được sử dụng để lưu trữ các nhóm mô hình AI phức hợp hoạt động cùng nhau để đưa ra một dự đoán tổng thể không? Nếu vậy, SageMaker có thể cung cấp các lợi ích khác ngoài hộp, chẳng hạn như tăng khả năng tự động hóa, độ tin cậy, giám sát, tự động mở rộng quy mô và các biện pháp tiết kiệm chi phí không?

Tìm các cách thay thế để triển khai các mô hình AI của CCC bằng cách sử dụng các tiến bộ công nghệ từ các nhà cung cấp đám mây sẽ cho phép CCC đưa các giải pháp AI ra thị trường nhanh hơn so với đối thủ cạnh tranh. Ngoài ra, việc có nhiều hơn một kiến ​​trúc triển khai mang lại sự linh hoạt khi tìm kiếm sự cân bằng giữa chi phí và hiệu suất dựa trên các ưu tiên kinh doanh.

Dựa trên các yêu cầu của chúng tôi, chúng tôi đã hoàn thiện danh sách các tính năng sau dưới dạng danh sách kiểm tra cho kiến ​​trúc triển khai cấp sản xuất:

  • Hỗ trợ cho các nhóm phức hợp
  • Đảm bảo thời gian hoạt động cho tất cả các thành phần
  • Quy mô tự động có thể tùy chỉnh cho các mô hình AI đã triển khai
  • Bảo toàn đầu vào và đầu ra của mô hình AI
  • Số liệu sử dụng và nhật ký cho tất cả các thành phần
  • Cơ chế tiết kiệm chi phí

Với phần lớn các giải pháp AI của CCC dựa trên các mô hình thị giác máy tính, cần có một kiến ​​trúc mới để hỗ trợ các tệp hình ảnh và video tiếp tục tăng độ phân giải. Có một nhu cầu mạnh mẽ để thiết kế và thực hiện kiến ​​trúc này như một mô hình không đồng bộ.

Sau nhiều chu kỳ nghiên cứu và nỗ lực so sánh điểm chuẩn ban đầu, CCC đã xác định SageMaker hoàn toàn phù hợp để đáp ứng phần lớn các yêu cầu sản xuất của họ, đặc biệt là thời gian hoạt động được đảm bảo mà SageMaker cung cấp cho hầu hết các thành phần suy luận của nó. Tính năng mặc định của các điểm cuối Suy luận không đồng bộ của Amazon SageMaker lưu đầu vào/đầu ra trong Amazon S3 giúp đơn giản hóa nhiệm vụ bảo toàn dữ liệu được tạo từ các tập hợp phức tạp. Ngoài ra, với mỗi mô hình AI được lưu trữ bởi điểm cuối của riêng nó, việc quản lý các chính sách thay đổi quy mô tự động ở cấp độ mô hình hoặc điểm cuối trở nên dễ dàng hơn. Bằng cách đơn giản hóa việc quản lý, lợi ích tiết kiệm chi phí tiềm năng từ điều này là các nhóm phát triển có thể phân bổ nhiều thời gian hơn cho việc tinh chỉnh các chính sách mở rộng quy mô để giảm thiểu việc cung cấp quá mức tài nguyên điện toán.

Sau khi quyết định tiếp tục sử dụng SageMaker làm thành phần then chốt của kiến ​​trúc, chúng tôi cũng nhận ra rằng SageMaker có thể là một phần của kiến ​​trúc thậm chí còn lớn hơn, được bổ sung bằng nhiều dịch vụ phi máy chủ khác do AWS quản lý. Sự lựa chọn này là cần thiết để tạo điều kiện thuận lợi cho nhu cầu quan sát và điều phối bậc cao của kiến ​​trúc phức tạp này.

Thứ nhất, để loại bỏ các giới hạn về kích thước tải trọng và giảm đáng kể rủi ro hết thời gian chờ trong các tình huống có lưu lượng truy cập cao, CCC đã triển khai một kiến ​​trúc chạy các dự đoán không đồng bộ bằng cách sử dụng Điểm cuối suy luận không đồng bộ SageMaker kết hợp với các dịch vụ do AWS quản lý khác làm khối xây dựng cốt lõi. Ngoài ra, giao diện người dùng cho hệ thống tuân theo mẫu thiết kế cháy và quên. Nói cách khác, một khi người dùng đã tải thông tin đầu vào của họ lên hệ thống, thì không cần phải làm gì thêm. Họ sẽ được thông báo khi có dự đoán. Hình bên dưới minh họa tổng quan cấp cao về kiến ​​trúc hướng sự kiện không đồng bộ của chúng tôi. Trong phần sắp tới, chúng ta hãy đi sâu vào luồng thực thi của kiến ​​trúc được thiết kế.

giải pháp từng bước

Bước 1

Một khách hàng gửi yêu cầu tới Cổng API AWS điểm cuối. Nội dung của yêu cầu chứa tên của dịch vụ AI mà họ cần dự đoán và phương thức thông báo mong muốn.

Yêu cầu này được chuyển đến một Lambda chức năng được gọi là Dự đoán mới, có nhiệm vụ chính là:

  • Kiểm tra xem dịch vụ mà khách hàng yêu cầu có khả dụng hay không.
  • Chỉ định một ID dự đoán duy nhất cho yêu cầu. Người dùng có thể sử dụng ID dự đoán này để kiểm tra trạng thái của dự đoán trong toàn bộ quá trình.
  • Tạo ra một Amazon S3 URL được ký trước mà người dùng sẽ cần sử dụng trong bước tiếp theo để tải nội dung đầu vào của yêu cầu dự đoán lên.
  • Tạo một mục trong Máy phát điện Amazon với thông tin của yêu cầu nhận được.

Sau đó, hàm Lambda sẽ trả về một phản hồi thông qua điểm cuối API Gateway với một thông báo bao gồm ID dự đoán được chỉ định cho yêu cầu và URL được ký trước của Amazon S3.

Bước 2

Ứng dụng khách tải nội dung đầu vào dự đoán lên bộ chứa S3 một cách an toàn bằng cách sử dụng URL được ký trước được tạo ở bước trước. Nội dung đầu vào phụ thuộc vào dịch vụ AI và có thể bao gồm hình ảnh, dữ liệu dạng bảng hoặc kết hợp cả hai.

Bước 3

Bộ chứa S3 được định cấu hình để kích hoạt sự kiện khi người dùng tải nội dung đầu vào lên. Thông báo này được gửi tới hàng đợi Amazon SQS và được xử lý bởi hàm Lambda có tên Quy trình đầu vào. Các Quy trình đầu vào Lambda sẽ lấy thông tin liên quan đến ID dự đoán đó từ DynamoDB để lấy tên của dịch vụ mà yêu cầu được thực hiện.

Dịch vụ này có thể là một mô hình AI duy nhất, trong trường hợp đó, Quy trình đầu vào Lambda sẽ gửi yêu cầu tới điểm cuối SageMaker lưu trữ mô hình đó (Bước 3-A) hoặc đó có thể là một dịch vụ AI tập hợp trong trường hợp đó Quy trình đầu vào Lambda sẽ gửi yêu cầu tới máy trạng thái của các chức năng bước lưu trữ logic tập hợp (Bước 3-B).

Trong cả hai tùy chọn (mô hình AI đơn lẻ hoặc dịch vụ AI tập hợp), khi dự đoán cuối cùng đã sẵn sàng, nó sẽ được lưu trữ trong bộ chứa S3 thích hợp và người gọi sẽ được thông báo qua phương thức được chỉ định trong Bước 1 (chi tiết hơn về thông báo trong Bước 4).

Bước 3-A

Nếu ID dự đoán được liên kết với một mô hình AI duy nhất, thì Quy trình đầu vào Lambda sẽ gửi yêu cầu tới điểm cuối SageMaker phục vụ mô hình. Trong hệ thống này, hai loại điểm cuối SageMaker được hỗ trợ:

  • không đồng bộ: Các Quy trình đầu vào Lambda gửi yêu cầu tới điểm cuối không đồng bộ SageMaker. Phản hồi ngay lập tức bao gồm vị trí S3 nơi SageMaker sẽ lưu đầu ra dự đoán. Yêu cầu này không đồng bộ, tuân theo mô hình kích hoạt và quên và không chặn luồng thực thi của hàm Lambda.
  • đồng bộ: Các Quy trình đầu vào Lambda gửi yêu cầu tới điểm cuối đồng bộ SageMaker. Vì đây là một yêu cầu đồng bộ, Đầu vào quy trình chờ phản hồi và sau khi nhận được, nó sẽ lưu trữ nó trong S3 theo cách tương tự mà các điểm cuối không đồng bộ của SageMaker sẽ thực hiện.

Trong cả hai trường hợp (điểm cuối đồng bộ hoặc không đồng bộ), dự đoán được xử lý theo cách tương đương, lưu trữ đầu ra trong bộ chứa S3. Khi điểm cuối SageMaker không đồng bộ hoàn thành dự đoán, một sự kiện Amazon SNS sẽ được kích hoạt. Hành vi này cũng được sao chép cho các điểm cuối đồng bộ với logic bổ sung trong hàm Lambda.

Bước 3-B

Nếu ID dự đoán được liên kết với một nhóm AI, thì Quy trình đầu vào Lambda sẽ đưa ra yêu cầu đối với chức năng bước được liên kết với AI Ensemble đó. Như đã đề cập ở trên, AI Ensemble là một kiến ​​trúc dựa trên một nhóm các mô hình AI hoạt động cùng nhau để tạo ra một dự đoán tổng thể duy nhất. Việc điều phối một nhóm AI được thực hiện thông qua chức năng bước.

Chức năng bước có một bước cho mỗi dịch vụ AI bao gồm toàn bộ. Mỗi bước sẽ gọi một hàm Lambda sẽ chuẩn bị đầu vào của dịch vụ AI tương ứng bằng cách sử dụng các kết hợp khác nhau của nội dung đầu ra từ các lệnh gọi dịch vụ AI trước đó của các bước trước đó. Sau đó, nó thực hiện cuộc gọi đến từng dịch vụ AI, trong bối cảnh này, có thể là một mô hình AI duy nhất hoặc một nhóm AI khác.

Hàm Lambda tương tự, được gọi là GetTransformCuộc gọi được sử dụng để xử lý các dự đoán trung gian của Nhóm AI được sử dụng trong toàn bộ chức năng bước, nhưng với các tham số đầu vào khác nhau cho mỗi bước. Đầu vào này bao gồm tên của dịch vụ AI sẽ được gọi. Nó cũng bao gồm định nghĩa ánh xạ để xây dựng đầu vào cho dịch vụ AI được chỉ định. Điều này được thực hiện bằng cách sử dụng một cú pháp tùy chỉnh mà Lambda có thể giải mã, tóm lại, cú pháp này là một từ điển JSON trong đó các giá trị sẽ được thay thế bằng nội dung từ các dự đoán AI trước đó. Lambda sẽ tải xuống những dự đoán trước đó từ Amazon S3.

Trong mỗi bước, các GetTransformCuộc gọi Lambda đọc từ Amazon S3 các đầu ra trước đó cần thiết để xây dựng đầu vào của dịch vụ AI được chỉ định. Sau đó nó sẽ gọi dự đoán mới Mã Lambda đã được sử dụng trước đó ở Bước 1 và cung cấp tên dịch vụ, phương thức gọi lại (“hàm bước”) và mã thông báo cần thiết cho lệnh gọi lại trong tải trọng yêu cầu, sau đó được lưu trong DynamoDB dưới dạng bản ghi dự đoán mới. Lambda cũng lưu trữ đầu vào đã tạo của giai đoạn đó trong bộ chứa S3. Tùy thuộc vào việc giai đoạn đó là một mô hình AI đơn lẻ hay một nhóm AI, Lambda đưa ra yêu cầu đối với điểm cuối SageMaker hoặc một chức năng bước khác quản lý một nhóm AI phụ thuộc vào nhóm chính.

Sau khi yêu cầu được thực hiện, hàm bước sẽ chuyển sang trạng thái chờ xử lý cho đến khi nó nhận được mã thông báo gọi lại cho biết nó có thể chuyển sang giai đoạn tiếp theo. Hành động gửi mã thông báo gọi lại được thực hiện bởi một hàm Lambda có tên là thông báo (chi tiết hơn trong Bước 4) khi dự đoán trung gian đã sẵn sàng. Quá trình này được lặp lại cho từng giai đoạn được xác định trong hàm bước cho đến khi dự đoán cuối cùng sẵn sàng.

Bước 4

Khi dự đoán đã sẵn sàng và được lưu trữ trong bộ chứa S3, thông báo SNS sẽ được kích hoạt. Sự kiện này có thể được kích hoạt theo nhiều cách khác nhau tùy thuộc vào quy trình:

  1. Tự động khi điểm cuối không đồng bộ SageMaker hoàn thành dự đoán.
  2. Là bước cuối cùng của chức năng bước.
  3. By Quy trình đầu vào or GetTransformCuộc gọi Lambda khi điểm cuối SageMaker đồng bộ trả về dự đoán.

Đối với B và C, chúng tôi tạo một tin nhắn SNS tương tự như những gì A tự động gửi.

Một chức năng Lambda có tên là thông báo đã được đăng ký với chủ đề SNS này. Thông báo Lambda sẽ nhận thông tin liên quan đến ID dự đoán từ DynamoDB, cập nhật mục nhập có giá trị trạng thái thành “đã hoàn thành” hoặc “lỗi” và thực hiện hành động cần thiết tùy thuộc vào chế độ gọi lại được lưu trong bản ghi cơ sở dữ liệu.

Nếu dự đoán này là dự đoán trung gian của nhóm AI, như được mô tả trong bước 3-B, chế độ gọi lại được liên kết với dự đoán này sẽ là "chức năng bước" và bản ghi cơ sở dữ liệu sẽ có mã thông báo gọi lại được liên kết với bước cụ thể trong chức năng bước. Thông báo Lambda sẽ gọi API AWS Step Functions bằng phương thức “SendTaskSuccess” hoặc “SendTaskFailure”. Điều này sẽ cho phép chức năng bước tiếp tục sang bước tiếp theo hoặc thoát.

Nếu dự đoán là đầu ra cuối cùng của hàm bước và chế độ gọi lại là “Webhook” [hoặc email, nhà môi giới tin nhắn (Kafka), v.v.], thì thông báo Lambda sẽ thông báo cho khách hàng theo cách đã chỉ định. Tại bất kỳ thời điểm nào, người dùng có thể yêu cầu trạng thái dự đoán của họ. Yêu cầu phải bao gồm ID dự đoán đã được chỉ định ở Bước 1 và trỏ đến đúng URL trong Cổng API để định tuyến yêu cầu đến hàm Lambda có tên các kết quả.

Kết quả Lambda sẽ đưa ra yêu cầu tới DynamoDB, lấy trạng thái của yêu cầu và trả lại thông tin cho người dùng. Nếu trạng thái của dự đoán là lôi, thì các chi tiết liên quan về lỗi sẽ được đưa vào phản hồi. Nếu trạng thái dự đoán là thành công, một URL có chữ ký trước của S3 sẽ được trả về để người dùng tải xuống nội dung dự đoán.

Kết quả

Kết quả thử nghiệm hiệu suất sơ bộ đầy hứa hẹn và hỗ trợ trường hợp CCC mở rộng triển khai kiến ​​trúc triển khai mới này.

Những quan sát đáng chú ý:

  • Các thử nghiệm cho thấy sức mạnh trong việc xử lý các yêu cầu đồng thời hoặc hàng loạt với thông lượng cao và tỷ lệ lỗi bằng 0 phần trăm trong các tình huống lưu lượng truy cập cao.
  • Hàng đợi tin nhắn mang lại sự ổn định trong hệ thống trong các luồng yêu cầu đột ngột cho đến khi trình kích hoạt mở rộng quy mô có thể cung cấp thêm tài nguyên điện toán. Khi tăng lưu lượng truy cập lên gấp 3 lần, độ trễ yêu cầu trung bình chỉ tăng 5 phần trăm.
  • Cái giá của sự ổn định là độ trễ tăng lên do chi phí liên lạc giữa các thành phần hệ thống khác nhau. Khi lưu lượng người dùng vượt quá ngưỡng cơ sở, thời gian chờ tăng thêm có thể được giảm thiểu một phần bằng cách cung cấp nhiều tài nguyên điện toán hơn nếu ưu tiên hiệu suất cao hơn so với chi phí.
  • Điểm cuối suy luận không đồng bộ của SageMaker cho phép số lượng phiên bản được chia tỷ lệ thành XNUMX trong khi vẫn giữ điểm cuối hoạt động để nhận yêu cầu. Chức năng này cho phép triển khai tiếp tục chạy mà không phát sinh chi phí điện toán và tăng quy mô từ XNUMX khi cần trong hai trường hợp: triển khai dịch vụ được sử dụng trong môi trường thử nghiệm thấp hơn và những triển khai có lưu lượng truy cập tối thiểu mà không yêu cầu xử lý ngay lập tức.

Kết luận

Theo quan sát trong quá trình POC, thiết kế sáng tạo do CCC và AWS cùng tạo ra cung cấp nền tảng vững chắc để sử dụng Amazon SageMaker cùng với các dịch vụ do AWS quản lý khác nhằm lưu trữ các tổ hợp AI đa phương thức phức tạp và điều phối các quy trình suy luận một cách hiệu quả và liền mạch. Bằng cách tận dụng các chức năng sẵn dùng của Amazon SageMaker như Suy luận không đồng bộ, CCC có nhiều cơ hội hơn để tập trung vào các nhiệm vụ kinh doanh quan trọng chuyên biệt. Theo tinh thần văn hóa hướng đến nghiên cứu của CCC, kiến ​​trúc mới lạ này sẽ tiếp tục phát triển khi CCC dẫn đầu về phía trước, cùng với AWS, trong việc đưa ra các giải pháp AI mới mạnh mẽ cho khách hàng.

Để biết các bước chi tiết về cách tạo, gọi và giám sát các điểm cuối suy luận không đồng bộ, hãy tham khảo tài liệu hướng dẫn, cũng chứa một mẫu máy tính xách tay để giúp bạn bắt đầu. Để biết thông tin về giá cả, hãy truy cập Amazon SageMaker Giá.

Để biết ví dụ về cách sử dụng suy luận không đồng bộ với dữ liệu phi cấu trúc như thị giác máy tính và xử lý ngôn ngữ tự nhiên (NLP), hãy tham khảo Chạy suy luận thị giác máy tính trên các video lớn với điểm cuối không đồng bộ của Amazon SageMaker và Cải thiện nghiên cứu có giá trị cao với khuôn mặt ôm và điểm cuối suy luận không đồng bộ của Amazon SageMaker, Tương ứng.


Về các tác giả

Christopher Diaz là Kỹ sư R&D hàng đầu tại CCC Intelligent Solutions. Là thành viên của nhóm R&D, anh ấy đã làm việc trong nhiều dự án khác nhau, từ công cụ ETL, phát triển web phụ trợ, cộng tác với các nhà nghiên cứu để đào tạo các mô hình AI trên các hệ thống phân tán và tạo điều kiện cung cấp các dịch vụ AI mới giữa các nhóm nghiên cứu và vận hành. Trọng tâm gần đây của anh ấy là nghiên cứu các giải pháp công cụ đám mây để nâng cao các khía cạnh khác nhau trong vòng đời phát triển mô hình AI của công ty. Trong thời gian rảnh rỗi, anh ấy thích thử các nhà hàng mới ở quê hương Chicago và thu thập càng nhiều bộ LEGO càng tốt cho ngôi nhà của anh ấy. Christopher lấy bằng Cử nhân Khoa học về Khoa học Máy tính tại Đại học Đông Bắc Illinois.

Người chiến thắng giải thưởng Emmy Sam Kinard là Quản lý cấp cao về Kỹ thuật phần mềm tại CCC Intelligent Solutions. Có trụ sở tại Austin, Texas, anh ấy điều hành Nhóm thời gian chạy AI, chịu trách nhiệm cung cấp các sản phẩm AI của CCC ở mức độ sẵn sàng cao và quy mô lớn. Trong thời gian rảnh rỗi, Sam tận hưởng cảm giác thiếu ngủ vì hai đứa con kháu khỉnh của mình. Sam có bằng Cử nhân Khoa học về Khoa học Máy tính và Cử nhân Khoa học về Toán học của Đại học Texas ở Austin.

Jaime Hidalgo là Kỹ sư hệ thống cao cấp tại CCC Intelligent Solutions. Trước khi tham gia nhóm nghiên cứu AI, ông đã lãnh đạo quá trình di chuyển toàn cầu của công ty sang Kiến trúc vi dịch vụ, thiết kế, xây dựng và tự động hóa cơ sở hạ tầng trong AWS để hỗ trợ triển khai các sản phẩm và dịch vụ đám mây. Hiện tại, anh xây dựng và hỗ trợ cụm trung tâm dữ liệu tại chỗ được xây dựng để đào tạo AI, đồng thời thiết kế và xây dựng các giải pháp đám mây cho tương lai nghiên cứu và triển khai AI của công ty.

Daniel Suarez là Kỹ sư Khoa học Dữ liệu tại CCC Intelligent Solutions. Là thành viên của nhóm Kỹ thuật AI, anh làm việc về tự động hóa và chuẩn bị các Mô hình AI trong quá trình sản xuất, đánh giá và giám sát các số liệu cũng như các khía cạnh khác của hoạt động ML. Daniel nhận bằng Thạc sĩ Khoa học Máy tính của Học viện Công nghệ Illinois và bằng Thạc sĩ và Cử nhân Kỹ thuật Viễn thông của Đại học Politecnica de Madrid.

Arunprasath Shankar là Kiến trúc sư giải pháp chuyên gia AI / ML cấp cao của AWS, giúp khách hàng toàn cầu mở rộng quy mô các giải pháp AI của họ một cách hiệu quả và hiệu quả trên đám mây. Khi rảnh rỗi, Arun thích xem phim khoa học viễn tưởng và nghe nhạc cổ điển.

Justin McWhirter là Giám đốc kiến ​​trúc sư giải pháp tại AWS. Anh ấy làm việc với một nhóm Kiến trúc sư giải pháp tuyệt vời, những người giúp khách hàng có trải nghiệm tích cực khi sử dụng nền tảng AWS. Khi không phải làm việc, Justin thích chơi trò chơi điện tử với hai cậu con trai, chơi khúc côn cầu trên băng và lái xe địa hình trên chiếc xe Jeep của mình.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img