
https://github.com/hongsukchoi/generic_tools/blob/master/rendering.py GitHub - hongsukchoi/generic_tools Contribute to hongsukchoi/generic_tools development by creating an account on GitHub. github.com 월드좌표계가 없을 때, 즉 카메라가 한 대만 있을 때, scene 혹은 object의 mean position은 주어졌다고 가정하고 360도 렌더링하는 코드를 짰다. 타겟인 오브젝트의 point가 아니라 neural radiance field를 다른 뷰에서 렌더링하고 싶은지라 카메라를 돌리는 수밖에 없었다. object를 mean position중심..

2021.08.06 Update. 이 포스트 말고 아래 링크 보면 됩니다. https://redstarhong.tistory.com/174 novel view synthesis, virtual camera 사람을 중심으로 camera 위치를 변형해 novel view synthesis를 하는 일을 하고 있다. 이 때 camera 위치 변화에 따라 camera parameter를 어떻게 바꿀지가 중요한데, 이 포스트는 코드와 함께 개념을 되짚어본 redstarhong.tistory.com 2021.04.06 Update 이 포스트는 내가 잘못 이해한 것들이 너무 많아 다른 사람은 안 읽는 게 나을 것 같고, 이걸 보는 걸 추천한다. Human3.6m데이터를 Virtual Camera를 통해 Augment하..
- Total
- Today
- Yesterday
- 에디톨로지
- 컴퓨터비전
- deep learning
- 비전
- VAE
- Interview
- camera coordinate
- pytorch
- 머신러닝
- Virtual Camera
- spin
- part segmentation
- densepose
- 피트니스
- Pose2Mesh
- demo
- nohup
- Machine Learning
- Generative model
- world coordinate
- 인터뷰
- nerf
- 2d pose
- 문경식
- 컴퓨터비젼
- focal length
- 헬스
- Docker
- Transformation
- pyrender
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |