머신러닝에서 Validation Set은 왜 필요한가? Train Set, Test Set 둘로만 나눠서 Test set 결과만 가지고 모델들을 비교하면 안되나? 표현을 좀 바꿔보자. 첫번째 사진에서 Test Set을 Validation Set이라고 하고, 왜 Validation Set 결과만 가지고 모델들을 비교하면 안될까? 왜 Test Set이 필요할까? 일단 Validation Set은 모델을 학습시킬 때 직접적으로 사용되지 않지만, Validation Set에서 우수한 결과를 내기 위해 사람이 Validation Set 결과를 보고 계속 Hyperparameter Tuning을 한다. Validation Set에서 최우수한 결과를 내기 위해Hyperparameter들을 fitting한다고도 할 수..
GAN을 공부하다가 tutorial 코드에 netD(fake.detach())가 어떤 원리인 지 이해가 안 갔다. 의도야 설명에 나온대로 netG에 backpropagation이 안되도록, 즉 첫번째 스텝에서는 netD만 학습하려는 것이라는 건 알겠다. (code: pytorch gan tutorial) ## Train with all-fake batch # Generate batch of latent vectors noise = torch.randn(b_size, nz, 1, 1, device=device) # Generate fake image batch with G fake = netG(noise) label.fill_(fake_label) # Classify all fake batch with D..
https://zzsza.github.io/data/2018/06/25/upsampling-with-transposed-convolution/ Up-sampling with Transposed Convolution 번역 Naoki Shubuya님의 Up-sampling with Transposed Convolution을 허락받고 번역한 글입니다. 번역이 어색한 경우엔 영어 표현을 그대로 사용했으며, 의역이 존재할 수 있습니다. 피드백 언제나 환영합니다! zzsza.github.io 한번 더 이해해서 내 단언로 정리해보자
아직도 다 깊이 이해하지는 못하지만 (증명이라던가) 수식적으로 magnitude 공간(=스펙트럼 이미지)와 원본 이미지가 어떻게 대응되는 지 이해 Phase가 magnitude보다 중요한 정보라는 사실에 대한 직관적 이해 위 2가지를 다크프로그래머님의 글을 읽고 얻을 수 있었다. 수식적으로 magnitude 공간에서 peak가 원점에서 멀어질 수록 주파수가 크고, 원본 이미지의 주기성분의 주기는 작다. 또한 u, v는 각각 x, y에 대응되기 때문에(F(u, v)는 x축 방향으로 주파수(frequency) u, y축 방향으로 v인 주기함수 성분의 계수) magnitude공간에서의 peak의 나열방향과 원본 이미지에서의 주기성분의 방향이 일치한다. Phase가 magnitude보다 중요한 정보라는 사실에 ..
암걸리던 subdirectory 만들기.. shell script가 결국 답이었다. a, b, c, d의 directory 밑에 공통된 k라는 subdir을 만들고 싶을 때 mkdir {a, b, c, d}/k, mkdir */k 다 안되고 밑과 같이 하는 방법밖에 없다. for dir in checkpoint graph result vis; do mkdir $dir/test; done https://www.cyberciti.biz/faq/bash-for-loop/ Bash For Loop Examples - nixCraft Explains how to use a Bash for loop control flow statement on Linux / UNIX / *BSD / macOS bash shell ..
nohup scp scp할 때 서버의 password를 써야하기 때문에 그냥 nohup을 쓰면 안된다. http://charmyin.github.io/scp/2014/10/07/run-scp-in-background/ $ nohup scp file_to_copy user@server:/path/to/copy/the/file > nohup.out 2>&1 #Then press ctrl + z which will temporarily suspend the command, then enter the command: $ bg 그러면 백그라운드에서 command를 실행한다. (업데이트) 많은 파일을 할 때만 그런건지 모르겠는데, 중간에 옮기다 멈추는 현상이 있다. 여기의 screen을 이용하길 추천한다. ...더..
갑자기 머릿속에서 너는 Bilater Filter와 Guidance Filter가 각각 무엇인지, 차이가 무엇인지 설명할 수 있냐는 목소리가 들렸다. 그렇게 찾아봤었는데도, 막상 머릿속에서 다시 설명하려니 하나도 기억이 안났다. Denoising을 위해 Gaussian Filter를 적용할 때, edge가 뭉개지는 문제점이 있다. Bilateral Filter는 주변 픽셀의 intensity difference도 고려해 filter를 적용하기 때문에 Edge-Preserving 효과가 있다. Bilateral의 단점: Brute-force: O(Nr^2 ) implementation (N: # of pixels in an image, r: kernel size) O(N)으로 만들려는 quantizatio..
Corner Detection method 중 하나인 Harris Detector의 한계로 Not invariant to image scale Not invariant to Affine(projective) transformation 이라는 게 있다. viewpoint에 따라 이미지에 Affine transformation이 일어나는 경우가 있어서 중요한 문제인듯 하다. Affine transformation is a linear mapping method that preserves points, straight lines, and planes. Sets of parallel lines remain parallel after an affine transformation. - https://kr.mathw..
첫 공부 블로그 글. Procrustes analysis가 이해가 안가서 찾아보다가 정리도 할 겸 적어본다. 굳이 블로그를 새로 파지 않고, 일단 꾸준히 이런 류의 글을 적어보자. 그다음에 나중에 분리하자. 어제 엄청 뒤질땐 좋은 자료가 안나오다가 오늘 위키피디아 보니까 단번에 이해가 갔다. 본론. 어제 친구할 때 말할 땐, Procrustes analysis가 '세모'를 '네모'로 align하는 것 같다고 했는데 그건 틀린 말이고, 모양이 비슷한 '세모'들을 align한다는게 맞는 표현이다. 각각의 대상이 가지는 Shape에는 translational, rotational, uniform scaling이라는 component가 있는데, 만약에 어제처럼 2개의 대상을 비교하고 싶으면 위의 3개를 제거하고..
- Total
- Today
- Yesterday
- nerf
- 문경식
- 헬스
- VAE
- Machine Learning
- 컴퓨터비젼
- 머신러닝
- focal length
- nohup
- 에디톨로지
- densepose
- deep learning
- spin
- Generative model
- part segmentation
- Transformation
- 비전
- 2d pose
- Virtual Camera
- pytorch
- pyrender
- 인터뷰
- 컴퓨터비전
- Docker
- 피트니스
- world coordinate
- camera coordinate
- Pose2Mesh
- Interview
- demo
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |