구독자 3312명
알림수신 163명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
4036
일반
지금 허깅페이스 터졌나요?
[7]
578
0
4035
질문
command-r-plus:104b-q2_K 모델을 돌려보는중에..
[7]
463
2
4034
질문
Llama 3 70B 로컬에서 돌려보신분 계신가요?
[7]
873
1
4033
일반
우바부가에서 meta-llama/Llama-2-7b-chat-hf 모델 다운로드 받는법
[4]
331
0
4032
질문
nomic embedding 사용해보신 분?
[3]
248
0
4031
질문
양자화 모델 이름뒤의 K, M, S 같은건 뭔가요?
[2]
615
0
4030
스터디
감쇠병합 - 모델의 레이어를 자기복제해서 추론능력을 향상시키는 방법 (feat. 3blue1brown)
[5]
926
19
4029
일반
llama3 70b에서 pruning된 llama3 42b
[3]
850
6
4028
일반
형님들 안녕하세요 llm 뉴비입니다
[4]
493
0
4027
일반
llama3 8b 아이폰에서 로컬로 돌리는거 신기하네요
[4]
849
4
4026
일반
허깅페이스 15T 데이터셋 공개ㄷㄷ
[20]
1339
12
4025
질문
내가 원하는 분야로 세분화한 MOE는 만들 수 없을까?
[12]
587
0
4024
일반
님들 70B 정도 되는 모델 로컬에서 돌릴려면 4090 몇개 정도 있으면 될까요?
[7]
886
0
4023
일반
llama-70B 이새끼 뭐임? ㄷㄷㄷ
[6]
1303
7
4022
일반
Oobabooga, 자신만의 벤치마크 발표
[4]
603
8
4021
일반
chat 모델에 completion(raw) 데이터를 어떻게 학습 할 수 있을까?
[16]
1228
28
4020
질문
eos토큰이랑 <s>토큰 없이 fine tuning하면
[1]
353
3
4019
일반
전문적인 건 하나도 모르는데 라마 3 돌려보고 싶음
[4]
697
0
4018
질문
axolotl로 커스텀 데이터셋 활용해서 finetuning 시도하는데 계속 에러가 발생합니다.
[3]
369
1