텍스트정보만 제공하는 chatGPT의 학습모델 용량이 700기가임

sd 모델 용량은 작은게 2기가고 큰거라고 해봤자 고작 7기가인데

겨우 저정도 용량으로 솔직히 더이상의 뭘 바라기는 힘든거같음

지금 개선된다는것도 학습으로 개선되는게 아니라 인간이 일일히 떠먹여주는 구조인데..

그냥 수백기가씩 먹어도 되니까 학습량을 늘려서 모델이랑 로라 갈이끼는 수고 없이 텍스트만으로 다 뽑아냈으면 좋겠다