구독자 8811명
알림수신 126명
그림 AI 학습 정보를 공유하는 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
장기적으로 GPU는 필수인데
[3]
465
2
원래 20000번 정도 학습 돌리는데 4시간도 안걸림?
[12]
189
1
SSD와 HDD 차이 체감 있음?
[3]
152
0
하이퍼 공유받은것들도 쌓이니까 용량 꽤 된다
[2]
124
1
코랩 칼춤 저거 챈에서 파장이 꽤 크겠네
[8]
271
1
주딱
[4]
163
1
진짜 이건 좀 참기 힘드네 ㅋㅋㅋㅋ
[6]
311
8
1,2,1도 Add layer normalization 켜니까 좋은거 같은데
118
0
근데 AWS는 개인이 사용 못함?
[5]
145
1
과정 보는게 재밌긴 해
[2]
131
1
난 그냥 ssd에 넣고돌리는데
[1]
147
1
정보
한국 위치한 서버라는 것만 감안하면 네이버도 나쁘지는 않음
[11]
553
4
드림부스+runpod 쓰는데... 주피터노트북 나갔다오면 log 갱신이 멈춰
97
1
하이퍼네트워크 합칠수 있나?
[2]
120
1
코랩 드림부스도 n스텝마다 임시저장하는 기능 추가
167
2
이런 오류 왜 뜨는지 암??
[6]
1198
0
정보
오라클 클라우드 소개
[1]
523
5
학습 망가져서 현대미술 그리게 되는 원리가 어떻게 됨?
70
0
25500번~32500번까지의 그림체 변화(남캐)
[5]
247
3
데이터셋 크기랑 최적 epoch 사이의 비례식이 있나요?
[2]
143
0
AI 저작물에 대한 개인적 생각
[10]
660
8
그림
terada 5만
[13]
480
8
코랩 같은곳 생기지 않는이상 학습은 힘들듯
110
0
한국만 코랩 칼춤춘게 아니였네
[3]
224
2
근데 nai는 드림부스 안된단게 왜 나왔던 소리임?
[1]
140
0
코랩이 칼춤추면 어쩔수없이 4천번대 사야지
79
0
소신발언) 이제 학습도 재미없음
[6]
244
0
임배딩이 사물 학습시키는거 맞음?
[1]
153
0
그러니까 학습하던 모델 테스트 하려면 이게 맞죠?
110
0
진짜 데이터셋 가공이 제일 눈빠짐 ㄹㅇ
177
0
ㅅㅂ 그냥 다 거르고 모델 자체를 학습시켜버릴까
[5]
308
0
현상황
[6]
248
0
레이어가 더 복잡할수록 Learning rate는 더 높아야함?
164
0
딱 학습만 돌린 코랩 부계정 1시간 15분만에 사망
[6]
268
0
AI에 발작하는건 오히려 좆하꼬더라
[2]
210
3
진짜 인공지능의 기본도 모르는 그림쟁이들 지긋지긋하다
[25]
2009
28
코랩 숙청? 그거 이미지만 주구창장 뽑은 계정은 숙청당하고
[6]
200
-1
훈련탭 번역한거 피드백한번주실?????????
[16]
218
2
GPU 무료로 대여해주는곳은 ㄹㅇ 난리네
[1]
314
0
특이한그림체는 배우기 쉽다?
[3]
261
0
그림체 좀 특이해도 하이퍼네트워크로 학습가능함?
[3]
171
0