구독자 3533명
알림수신 174명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
질문
llm 로라 학습에 대한 질문이 있습니다! 학습된 로라는 타 모델에서 사용 가능합니까?
[10]
413
0
정보
llama.cpp 통해 모델의 혼잡도(perplexity) 평가
[2]
286
2
일반
StableLm llama.cpp에서 지원 된다.
[2]
325
0
질문
클라우드 서비스 (Colab Pro, Runpod, Replicate 등)
[11]
614
0
정보
우바부바 밖에서 웹으로 보고 싶을경우 윈도nginx 리버스프록시 구성하기
[16]
477
5
자료
alpaca 65B 2비트 양자화
[6]
705
3
질문
비쿠나 13b 코랩에 대해서 몇 가지 질문이 있음.
[2]
243
0
정보
llama.cpp의 2bit 양자화 지원..?
[2]
391
1
자작모델
한국어Vicuna 모델 학습완료 및 모델 공개
[76]
6919
65
일반
Cpu 성능차이가 크구나
[2]
411
0
일반
첫 학습이 성공했습니다만 ㅋ
[13]
654
6
정보
제안 - 온라인 딥러닝 공부모임
[57]
1214
9
일반
우바부가로 학습하는거 또 실패한것 같습니다
[10]
514
1
질문
LLaMa 허깅페이스 버전은 decapoda-research/llama-13b-hf?
[2]
402
0
일반
StableLM과 Vicuna를 비교테스트해본 결과가 있네요
[6]
497
3
일반
스테이블 LLM보고 드는 생각인데
[5]
484
1
질문
우바부바로 학습해보신 분 결과물 어디 저장됩니까?
[9]
234
0
질문
Llama cpp 실행할 땐 로컬이 낫나 아님 콘다가 나음?
[8]
263
0