https://twitter.com/tovanbo/status/1789734531810857180






토마스:


오늘 저녁 큐비즘에서 다이내믹 오클루전으로 조금 놀아봤습니다.

현재 제대로 구현하는 데 시간이 더 걸리므로 당분간은 출시되지 않을 것 같습니다.





기능적으로는 충분히 잘 작동하지만, 솔직히 말해서 메인 게임 플레이에는 많은 유용성을 가지고 있지 않습니다.

이스터 에그처럼 퍼즐 조각을 숨기는 것은 재미있지만 :)









토마스:


이것은 정말 큐비즘에서 가장 쓸모없는 기능 업데이트가 될 것입니다, ㅋㅋ









토마스:


어쨌든, 쓸데없이 너무 깊이 파고들기 전에 지금은 이 기능에 대한 작업을 더 진행하진 않겠습니다.









아무개:


이미지 인식을 사용하여 물건 안이나 뒤에 조각을 숨기는 기능은 어떨까요. 화장실 변기 뚜껑을 열어서 조각을 찾아야 한다고 상상해보세요.





토마스:


이미 그런 식으로도 잘 작동합니다 :)





(대충 다이나믹 오클루전 기능 자체가 흥미롭긴 해도 유용하진 않다는 글)



토마스:


대부분의 경우라고 말할 수 있을지는 모르겠지만, 큐비즘과 같은 대부분의 테이블 탑 경험의 경우 게임에 도움이 되기보다는 오히려 방해가 될 수 있다는 데 동의합니다.


룸 스케일 MR(예: 레이저 댄스)의 경우 몰입감과 구체성을 높이는 데 큰 도움이 될 수 있을 것 같습니다.





- 트윗 끝 -





참고로 퀘스트의 다이나믹 오클루전은 ToF 뎁스 센서를 사용하지 않음


단순 카메라 이미지를 통해 뎁스를 추정하는 Depth API 사용





큐비즘 개발자 말로는 잘 작동하긴 하는데, 큐비즘 앱 자체에서는 오히려 다른 물체에 가려져서 퍼즐 조각이 안 보이게 만들기만 하는 등 방해가 되는 기능이라 딱히 우선적으로 추가할 기능은 아니라고 보는 듯





* 참조: 뎁스 API


https://developer.oculus.com/documentation/unity/unity-depthapi/


https://github.com/oculus-samples/Unity-DepthAPI







참고로 요즘 메타 측에서는 사용자의 팔이나 기타 사물은 뎁스 API 쓰고,


손 부분은 핸드 트래킹 된 손 부분을 마스킹으로 써서 결합하는 방식을 예시로 보여주고 있음


완벽하진 않아도 일단 제대로 작동하긴 하니 ㅋㅋ





일단 실제 뎁스맵 기반이라 애플 비전 프로처럼 손에 핸드폰 들고있으면 핸드폰은 인식 안 되고 잘려나가는, 괴랄한 이미지 인식 기반 세그멘테이션 방식보단 나은것 같기도 하고


실시간 뎁스 인식 성능이 개선되면 더 나아지긴 할듯