제퍼넷 로고

Vision Pro는 단순히 눈을 보여주는 것 이상의 용도로 외부 디스플레이를 사용합니다.

시간

최근 출시된 VisionOS Beta 6에는 사용자가 Vision Pro 카메라를 사용하여 얼굴을 스캔하여 아바타를 만드는 방법을 보여주는 비디오가 포함되어 있습니다. 아마도 더 흥미로운 점은 이 비디오에서 Apple이 단지 헤드셋을 통해 사용자의 눈을 보여주는 것 이상으로 외부 디스플레이를 사용할 계획이라는 점입니다.

아마도 Apple Vision Pro 공개에서 가장 예상치 못한 점은 헤드셋의 외부 디스플레이일 것입니다. 이는 현재까지 상용 XR 헤드셋과 함께 출시된 적이 없는 기능입니다. Apple은 이것을 EyeSight 디스플레이라고 부릅니다. 주요 기능은 착용자의 눈을 헤드셋을 통해 '보여주기' 때문에 근처에 있는 사람들이 착용자가 자신을 보고 있는지 또는 완전히 몰입하여 볼 수 없는지를 알 수 있기 때문입니다.

이미지 제공 Apple

기술적으로 EyeSight 디스플레이는 실제로 사용자의 실제 얼굴을 표시하지 않습니다. 실제로 Vision Pro 아바타(또는 Apple에서 부르는 '페르소나')의 뷰를 투영하고 있습니다. Apple은 아바타의 제한된 해상도와 품질을 숨기기 위해 입체 디스플레이와 영리한 흐림 및 색상 효과로 이 사실을 숨깁니다.

아바타를 생성하기 위해 사용자는 헤드셋 자체 카메라를 사용하여 얼굴의 여러 보기를 캡처합니다. 정확한 절차는 개발자가 액세스할 수 있는 VisionOS 베타 6의 파일에서 발견되었습니다.

비디오에서 우리는 헤드셋의 외부 디스플레이를 일종의 단계별 가이드로 사용하는 매우 빠르고 쉬운 프로세스를 볼 수 있습니다.

스캐닝 과정 자체도 흥미롭지만 아마도 더 흥미로운 점은 Apple이 외부 디스플레이를 신중하게 사용하여 사용자를 안내하는 방식입니다.

Apple은 단지 사용자의 눈을 보여주고 스캐닝 과정을 안내하는 것 이상으로 디스플레이를 활용할 것으로 보입니다. 이는 여러 가지 흥미로운 문을 열어줍니다.

첫째, 디스플레이는 헤드셋이 사용자와 다른 방식으로 통신할 수 있도록 하는 데 사용될 수 있습니다. ~이 아니다. 착용중. 예를 들어, 들어오는 FaceTime 전화를 나타내기 위해 녹색으로 켜질 수 있습니다. 또는 사용자에게 대용량 다운로드가 완료되었음을 알리는 파란색입니다. 또는 빨간색은 배터리가 부족하므로 연결해야 함을 나타냅니다.

Apple이 문자 그대로 디스플레이에 텍스트를 입력하고 이동하는 것을 막을 수는 없습니다. 완전 다프트 펑크, 회사는 외부 디스플레이를 얼마나 많은 이메일이 기다리고 있는지, 얼마나 많은 전화를 놓쳤는지 알려주는 것보다 좀 더 유기적이고 마술적인 것으로 생각하고 있는 것 같습니다.

헤드셋의 외부 디스플레이에 대한 다른 흥미로운 사용 사례를 생각해 볼 수 있습니까? 아래 댓글에서 더 많은 아이디어를 듣고 싶습니다!

spot_img

최신 인텔리전스

spot_img