엔비디아 4천번대가 DLSS 3.0 걸면 지연이 생기는 이슈가 있어서
프레임과 프레임 사이에 추가 프레임을 생성하는 프레임 보간 기술을 추가했다는데,
이걸 보면 이미 하드웨어적으로/실시간으로 가능하다는 거 아닌가?
이런 알고리즘을 image2video에 쓰면 되지 않을까
그림 ai로 2D이미지 여기까지 오는데 10년 좀 걸렸음.
미드저니가 본격적으로 능력이 궤도에 올랐는데 거기까지 가는데 진짜 딱 10년 좀 더 걸렸는데 뭘 어캐 더 빠름
2D일러스트랑 그림은 그래도 인터넷에 널린게 자료고 불법이던 합법이던 막 긁어와서 학습이 가능한데 3D?
합법 불법 안따지고 다 긁어모아도 2D 관련 그림 자료보다 최소 10분의 1밖에 안되고 최대 100배는 더 적을 정도로 3D관련 시각자료는 2D보다 훨씬 적음
자료가 더 적은데 속도가 2D ai랑 비슷하거나 빨라야 했으면 미드저니 나오던 제작년이나 작년쯤 비슷한 시기에 그림 ai와 비슷한 결과물이나 충격을 줬어야 말 앞뒤가 맞지 않냐.
1.2D보다 훨씬 학습에 이용할 자료 자체가 부족함.
2.2D랑 다르게 학습에 제대로 쓸만한 자료들은 대부분 저작권 걸려있는 유료로 돈을 내야 쓰는 유료소스거나 아예 맛보기만 공개하고 공식 자료는 기업에서 공개 안하는 경우도 많음.
3.그리고 2d에서 한차원 더 높아지는 자료가 3d라 연산과정 자체도 곱제곱으로 더 부담 압도적으로 커짐
4.
2d보다 자료 부족,2d보다 자료 습득 훨씬 어려움, 연산능력 2d보다 더 많이 요구함
모든 자료 및 능력과 상태가 3D가 2D보다 몇배의 더 상위호환을 요구하는데 어떻게 발전 속도가 같음?
심지어 연산 방식 2d방식을 3d에 적용하면 더 느린데
그리고 질감 표현이니 뭐니 해도 결국 자료랑 데이터는 2D지만
2d그림으로 시각적으로 봤을때 3d느낌만 나오게 해도 결국 보이는거만 3d고 기본적 데이터는 2D인 2d그림이랑
실제 3d모델링으로 폴리곤 하나하나 uv,ui로 다 하나하나 다듬어서 상업적으로 쓸 수 있게 모델링으로 깎아주고 텍스쳐링까지 그림처럼 다 입혀줘서 보는것 말고도 실제 자료랑 데이터도 완전하게 3D상태인 자료랑 둘이 같다고 보기엔...