learn rate scheduler 코드가 왜 저따구..?

후...

최적화한다고 아마 현재 epoch 체크해서 작동할지 말지를 결정하는거같은데 기본적으로 LR Scheduler는 step(epoch)를 넣으면 반드시 epoch의 상태가 None이 아닌 경우 이를 참조해야 함


이유는 세이브/로드하면서 스케쥴러를 재사용하겠니 뭐니 하는 경우가 있을 수 있고 애초에 CPU차원 최적화를 해봤자 얻는 이득이 별로 없기 때문

그런 관습을 기대한 원숭이는 오늘도 또 속았습니다.


        for pg in optimizer.param_groups:

            pg['lr'] = scheduler.learn_rate


위 코드를 추가해서 아무튼 해결함...


Extension 업데이트시 해결될 것