Logo Zephyrnet

Roblox trình bày Nghiên cứu kết xuất và chuyển động 3D tại SIGGRAPH 2023 – Roblox Blog

Ngày:

Chúng tôi tự hào chia sẻ những đổi mới của mình tại ACM SIGGRAPH 2023, hội nghị hàng đầu về đồ họa máy tính và kỹ thuật tương tác, diễn ra từ ngày 6 đến ngày 10 tháng XNUMX tại Los Angeles. Trong sự kiện này, các nhà nghiên cứu của chúng tôi sẽ trình bày tại sáu phiên báo cáo kỹ thuật, hai Hội thảo Frontiers, hai sự kiện Trực tiếp theo thời gian thực và một phiên áp phích. Nhóm của chúng tôi sẽ có mặt trong suốt hội nghị để thảo luận về Roblox và nghiên cứu của chúng tôi tại gian hàng của chúng tôi. Chúng tôi cũng rất biết ơn ủy ban đã giới thiệu công việc của chúng tôi trong đoạn giới thiệu các bài báo kỹ thuật có tính chọn lọc cao.

frameborder=”0″ allow=”gia tốc kế; tự chạy; ghi tạm; phương tiện được mã hóa; con quay hồi chuyển; hình ảnh trong ảnh; chia sẻ web” cho phép toàn màn hình>

Nghiên cứu Roblox theo đuổi khoa học công nghệ cơ bản cho nền tảng 3D xã hội của chúng tôi, với mục tiêu kết nối một tỷ người với sự lạc quan và văn minh. Chúng tôi nâng cao khả năng tạo nội dung 3D, mô phỏng vật lý và kiểm duyệt thời gian thực bằng cách sử dụng kết hợp các nguyên tắc đầu tiên và kỹ thuật trí tuệ nhân tạo (AI). Công việc mới nhất của chúng tôi cho phép tóc, vải, đồ vật và phong cảnh phản ứng với chuyển động, va chạm và gió giống như trong thế giới thực. Vì chúng tôi hỗ trợ nền tảng toàn cầu với hàng trăm triệu người dùng nên mọi khía cạnh đều phải mở rộng trên cả phía máy khách và phía máy chủ, đồng thời hỗ trợ mọi thiết bị từ điện thoại cũ đến tai nghe AR/VR mới nhất. Đọc thêm về công việc chúng tôi sẽ trình bày bên dưới và xem lịch trình tìm chúng tôi tại SIGGRAPH. 

Kết xuất được tối ưu hóa

Khi thế giới 3D trở nên chân thực hơn, các cấu trúc và địa hình ngày càng trở nên phức tạp. Kết xuất các môi trường phức tạp này đòi hỏi các giải pháp cho các hiệu ứng trong thế giới thực như vải gợn sóng hoặc xoắn, địa hình không bằng phẳng, v.v. Trong phần trình bày của họ, Đơn giản hóa bề mặt bằng cách sử dụng số liệu lỗi nội tại, nhà nghiên cứu Roblox Hsueh-Ti Derek Liu và các đồng nghiệp từ Đại học Carnegie Mellon và Đại học Toronto, đề xuất một phương pháp để đơn giản hóa các tam giác nội tại. Đơn giản hóa lưới cổ điển bảo tồn hình thức của đối tượng cho mục đích hiển thị, nhưng nếu mục tiêu là mô phỏng, nơi các đối tượng có thể bị xoắn, uốn cong hoặc gấp lại thì sao? Phương pháp này đơn giản hóa lưới để mô phỏng bằng cách khám phá không gian rộng lớn hơn rất nhiều của các hình tam giác nội tại, dẫn đến kết quả nhanh hơn 1,000 lần đối với các tác vụ phổ biến như tính toán khoảng cách trắc địa. Phương pháp mới lạ này có thể đóng góp vào mức độ chi tiết cao hơn cho mô phỏng.

Liu cũng sẽ trình bày công việc trên Truy tìm đường dẫn chiều cao khác biệt với sự cộng tác của các đồng nghiệp từ Đại học George Mason, Đại học Toronto và Đại học Waterloo. Điều này cho phép hiển thị địa hình, bóng đổ và vật thể 3D nhanh chóng, chân thực cho các ứng dụng đào tạo AI. Cách tiếp cận này đạt được tốc độ khung hình thời gian thực, thứ tự cường độ nhanh hơn hầu hết các trình kết xuất vi sai lưới 3D hiện có. Nó mở ra khả năng cho các ứng dụng kết xuất nghịch đảo tương tác, bao gồm các phiên bản tương lai của các công cụ AI tổng quát và AI kiểm duyệt của chúng tôi. Các nhà nghiên cứu chứng minh phương pháp này với nhiều tác vụ tương tác, chẳng hạn như tối ưu hóa địa hình và tạo hình dạng dựa trên văn bản.

Chuyển động thực tế cho Avatars và hơn thế nữa

Chuyển động của con người rất phức tạp và đa dạng. Mục tiêu của chúng tôi là tái tạo chính xác điều này với tất cả độ trung thực của nó đối với chủ nghĩa hiện thực và cách thể hiện trong môi trường ảo, đây là một thách thức lớn. Ví dụ, đa nhiệm hoặc kết hợp các hành vi khác nhau một cách liền mạch là điều mà con người rất thành thạo. Đồ họa máy tính truyền thống tập trung vào các hành vi đơn lẻ như đi bộ hoặc ném và yêu cầu các hành vi kết hợp được tác giả rõ ràng. 

Trong bài báo của họ, Học chuyển động tổng hợp với điều khiển tác vụ, Các nhà nghiên cứu Roblox, Victor Zordan và Pei Xu, cùng với các đồng nghiệp từ Đại học Clemson và Đại học California, Merced, phác thảo một phương pháp học tăng cường mới để điều khiển chuyển động đa nhiệm. Nghiên cứu này đề xuất một phương pháp học tăng cường để điều khiển chuyển động theo nhiệm vụ phức tạp cho các nhân vật mô phỏng vật lý. Với cách tiếp cận điều khiển đa mục tiêu này, các nhân vật có thể thực hiện các chuyển động đa nhiệm tổng hợp, chẳng hạn như tung hứng khi đi bộ. Chúng cũng có thể kết hợp một loạt các hoạt động khác mà không cần các ví dụ chuyển động tham chiếu rõ ràng về hành vi kết hợp. Cách tiếp cận này cũng hỗ trợ đào tạo mẫu hiệu quả bằng cách sử dụng lại các bộ điều khiển hiện có. 

frameborder=”0″ allow=”gia tốc kế; tự chạy; ghi tạm; phương tiện được mã hóa; con quay hồi chuyển; hình ảnh trong ảnh; chia sẻ web” cho phép toàn màn hình>

Các kiểu tóc mô phỏng đưa ra một thách thức chuyển động khác trong môi trường 3D nhập vai. Ở đó, những mẫu tóc được tạo kiểu và thiết kế cẩn thận có thể ngay lập tức sụp đổ dưới sức nặng của chính chúng, không thể duy trì hình dạng như ý trước lực hút của trọng lực. Khởi tạo không bị võng cho mô phỏng tóc lai dựa trên sợi, được trình bày bởi nhà nghiên cứu Roblox Cem Yuksel và các đồng nghiệp từ LightSpeed ​​Studios, đề xuất một khung khởi tạo mới cho các hệ thống tóc dựa trên sợi. Công việc này giúp loại bỏ tình trạng chảy xệ bằng cách giải quyết các nội lực mà tóc phải thể hiện để giữ nguyên hình dạng của tóc trước trọng lực và các ngoại lực khác. Điều này được thực hiện mà không làm cứng tóc một cách không cần thiết và bằng cách xem xét các va chạm ở cấp độ sợi. Bài báo này cũng đã được trao giải thưởng Bài báo xuất sắc nhất được vinh danh

frameborder=”0″ allow=”gia tốc kế; tự chạy; ghi tạm; phương tiện được mã hóa; con quay hồi chuyển; hình ảnh trong ảnh; chia sẻ web” cho phép toàn màn hình>

Roblox là một nền tảng 3D dựa trên mô phỏng, trong đó các tương tác chính giữa các đối tượng và với hình đại diện được trung gian bởi các nguyên tắc vật lý đầu tiên thay vì mã rõ ràng. Năm nay chúng tôi chia sẻ hai kết quả mới về những tiến bộ khác nhau trong mô phỏng đối tượng.

Cùng với các đồng nghiệp từ UCLA, Đại học Utah và Adobe Research, Yuksel sẽ trình bày Vỏ dày nhiều lớp, đề xuất một phương pháp mới để cho phép mô phỏng nhận biết độ dày đối với các vật liệu như quần áo da, gối, chiếu và bảng kim loại. Cách tiếp cận này tránh khóa cắt và ghi lại hiệu quả các chi tiết có nếp nhăn nhỏ và mở ra khả năng mô phỏng nhanh, chất lượng cao, nhận biết độ dày của nhiều loại cấu trúc. 

frameborder=”0″ allow=”gia tốc kế; tự chạy; ghi tạm; phương tiện được mã hóa; con quay hồi chuyển; hình ảnh trong ảnh; chia sẻ web” cho phép toàn màn hình>

Một thách thức chuyển động khác trong mô phỏng xảy ra khi các vật thể va chạm và tách rời nhau. Trong thế giới thực, các vật thể thường có thể va chạm và tách ra một lần nữa - vẫn là hai hình dạng riêng biệt. Yuksel, cùng với các đồng nghiệp từ Đại học Utah, sẽ trình bày một phương pháp tính toán hiệu quả Con đường ngắn nhất đến ranh giới cho các mắt lưới giao nhau từ một điểm bên trong nhất định. Nó cung cấp một giải pháp nhanh chóng và mạnh mẽ để xử lý va chạm và tự va chạm trong khi mô phỏng các đối tượng thể tích có thể biến dạng. Điều này cho phép mô phỏng các tình huống tự va chạm cực kỳ khó khăn bằng cách sử dụng các kỹ thuật hiệu quả. Một ví dụ là XPBD, không đảm bảo về độ phân giải va chạm, không giống như các phương pháp mô phỏng tốn kém về mặt tính toán hầu như phải duy trì trạng thái không va chạm.

frameborder=”0″ allow=”gia tốc kế; tự chạy; ghi tạm; phương tiện được mã hóa; con quay hồi chuyển; hình ảnh trong ảnh; chia sẻ web” cho phép toàn màn hình>

Sự kiện tương tác

Mọi thứ trên nền tảng Roblox đều tương tác và theo thời gian thực. Cách tốt nhất để trải nghiệm những tiến bộ mới của chúng tôi là xem chúng hoạt động thông qua các bản trình diễn trực tiếp và các phiên Trực tiếp theo thời gian thực của chúng tôi. Tại Roblox Generative AI đang hoạt động, các nhà nghiên cứu Brent Vincent và Kartik Ayyar sẽ chứng minh cách người sáng tạo có thể tận dụng ngôn ngữ tự nhiên và các cách thể hiện ý định khác để xây dựng các đối tượng và cảnh tương tác mà không cần lập mô hình hoặc viết mã phức tạp. Tại Thực tế trung gian với nhân vật in 3D AI, Kenny Mitchell của Roblox và Llogari Casas Cambra của 3Finery Ltd sẽ giới thiệu một mô hình AI xử lý nhận dạng giọng nói trực tiếp và tạo phản hồi dưới dạng ký tự in 3D — tạo hoạt ảnh cho các tính năng của ký tự đồng bộ với âm thanh. 

Các nhà khoa học Roblox cũng sẽ phát biểu trên các hội thảo tại Hội thảo Frontier. Tại Ngoài IRL, Mạng xã hội tương tác 3D đang thay đổi cách chúng ta tương tác, thể hiện và suy nghĩ như thế nào, các nhà khoa học Roblox Lauren Cheatham và Carissa Kang sẽ tham gia cùng các chuyên gia trong lĩnh vực, nhà khoa học xã hội và nhà nghiên cứu hành vi để thảo luận về cách môi trường ảo nhập vai có thể giúp hình thành thái độ và hành vi, hỗ trợ khám phá danh tính và giúp thế hệ trẻ thiết lập ranh giới lành mạnh có thể mở rộng ra thế giới thực của họ . Tại Tương tác Avatar biểu cảm để cùng trải nghiệm trực tuyến, các nhà khoa học Roblox Ian Sachs, Vivek Virma, Sean Palmer, Tom Sanocki và Kenny Mitchell, cùng với các chuyên gia khác, sẽ thảo luận về những thách thức và bài học rút ra từ việc triển khai trải nghiệm tương tác từ xa và giao tiếp biểu cảm cho một cộng đồng toàn cầu rộng lớn.  

Adrian Xuan Wei Lim sẽ tổ chức Phiên Poster để giới thiệu Phép chiếu ngược: Ánh xạ kết cấu không gian cục bộ theo thời gian thực, một kỹ thuật xạ ảnh mới được thiết kế để sử dụng trong các trò chơi vẽ đề can trực tiếp lên kết cấu của vật thể 3D trong thời gian thực. Bằng cách sử dụng các kỹ thuật trình chiếu được tính toán trong kết cấu không gian cục bộ và hướng ngoại, người sáng tạo sử dụng mọi thứ từ thiết bị Android cấp thấp đến máy tính để bàn chơi game cao cấp đều có thể cá nhân hóa nội dung của họ. Quy trình được đề xuất này có thể là một bước để cải thiện tốc độ và tính linh hoạt của việc vẽ mô hình.


Xem tất cả các bài báo mà nhóm Nghiên cứu Roblox sẽ trình bày tại SIGGRAPH 2023 tại đây. Hãy ghé thăm gian hàng và các phiên họp của chúng tôi, được liệt kê dưới đây. Chúng tôi mong được gặp bạn trong người!


Chủ nhật, ngày 6 tháng XNUMX

Thứ Hai, ngày 7 tháng XNUMX

Thứ Ba, ngày 8 tháng XNUMX

Thứ tư, ngày 9 tháng XNUMX

Thứ Năm, ngày 10 tháng XNUMX

tại chỗ_img

Tin tức mới nhất

tại chỗ_img