비주얼 공개




기본 사용법 + 핸드 트래킹 + 아이 트래킹 + 보이스 컨트롤






AR 기기라는 것 어필 + 사용법


실시간 그림자 표시는 실시간으로 주변 매핑을 하고 있고 거기에 자신이 있다는 뜻






주변 환경 기능 + 디지털 크라운을 통해 정도를 제어할 수 있음 (메타도 한때 해당 기능을 테스트 한 적이 있음. 다만 대쉬보드 켜서 직접 슬라이드 조절해야했음)






야심찬 목표 = 컨트롤러 만들지 말자





아이트래킹, 핸드트래킹, 보이스 컨트롤, 시리 시연





외부 디스플레이를 통해 동시에 존재한다는 존재감을 드러내고 다른 일을 하고 있다는 표시까지 해줌


= 로보캅 2023




직장에서의 사용례.


멀티태스킹 기능




애플 생태계 연동성 시연





페이스타임




사진 감상 + 영상 감상






전면에 있는 센서들을 통해 영상을 녹화할 수 있음. - EyeSight라는 기능

녹화시 뎁스 정보가 같이 녹화됨.


시야각은 낮지만 하여간 심도가 있음




플랫 스크린 게임을 컨트롤러 연결해서 플레이 가능


영상 감상이나 이것저것도 가능






디즈니의 컨셉 영상


실제로 가능하다기보다도 미래의 가능성을 보여주는거라고 생각하는게 편하지 않을까


지금도 기술들 개발중이고 어느정도 구현도 되어있긴함




디자인부터 해서 전면 유리, 카메라 및 센서, 프레임, 카메라 셔터 버튼, 혼합현실 제어용 디지털 크라운, 후면 스트랩, 렌즈 등등.


렌즈는 팬케이크 렌즈처럼 보이고 IPD 또한 아이트래킹을 통해 자동으로 제어되는 것 처럼 보인다.





통풍구가 있고 착용감을 위해서 수많은 얼굴상들을 연구함


안면 인터페이스 및 후면 스트랩은 분리 가능


자이스와 협업


외장 고성능 배터리 사용시간은 2시간 - 주머니에 넣으면 핫팩됨


자석을 통한 커넥터




마이크로 OLED 디스플레이


마이크로 OLED 애플 실리콘 백플레인

한눈당 4K 이상인가봄?


3P 팬케이크 렌즈 사용 (3개쓰면 FOV 더 넓힐 수 있음)




공간 오디오




센서 어레이 설명

전면 메인 카메라 2개

하방 카메라 4개

사이드 카메라 2개

IR 프로젝터 2개

트루 뎁스 1쌍

라이다

아이트래킹용 카메라 2쌍

(자막에 가려서 잘 안보임)





루머 그대로 M2 칩 + 센서 처리용 R1 칩 듀얼 구성


12 카메라 + 5 센서 + 6 마이크를 R1에서 담당

12ms마다 갱신되어 지연속도를 줄이고 멀미도 줄임





Eyesight로 안이 보이는 듯한 느낌

아바타 생성시 비전 프로 전면에 있는 센서 어레이를 활용해서 아바타를 제작함


이것이 페이스타임에도 쓰임




그외에는 OS나 개발자 API와 같은것들이라 스킵



홍채 인식을 이용한 옵틱ID 기능


3499달러부터 시작

내년 초 미국 먼저 출시