신기능을 대충 집어넣어 학습시킨 1편


공통 학습 조건

hypernetwork layer structure 1, 2, 4, 2, 1

layer normalization 적용

Max steps 10000

Learning rate 0.00005

Batch size 1


하이퍼네트워크 미적용


relu


leakyrelu


linear


개인적으로 3개 중에서 1개만 골라야 한다면 relu이지만 layer normalization 때문인지 아니면 학습 방법이 잘못되었는지 모르겠지만 예전에 학습했던 하이퍼네트워크들 보다는 따라하기 성능이 떨어지는듯?


같은 학습 데이터를 다른 조건으로 학습된 모델 1 (relu/1, 2, 4, 2, 1/steps 42000/비고정 Learning rate/layer normalization 미사용 이던가?)



같은 학습 데이터를 다른 조건으로 학습된 모델 2 (linear/1, 2, 1/steps 6000/비고정 Learning rate/layer normalization 미사용)