구독자 3535명
알림수신 174명
제한없는 언어모델을 위한 채널
정보
llama.cpp의 2bit 양자화 지원..?
추천
1
비추천
0
댓글
2
조회수
391
작성일
수정일
댓글
[2]
글쓰기
변태Lv1
ㅇㅇ (211.216)
삭제
수정
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
공지
아카라이브 모바일 앱 이용 안내(iOS/Android)
31402511
공지
Ai 언어모델 로컬 채널 이용규정
6281
공지
뉴비에게 도움 되는 글 모음
28570
공지
언어모델 관련 정보취득 /무료체험 가능 사이트
9487
공지
여러분의 학습에 도움을 줄 수 있는 하드웨어 지원
5481
공지
신문고
2364
숨겨진 공지 펼치기(1개)
일반
코랩으로 모델 돌리는거 정지먹을수도 있으니 주의하셈
[10]
531
5
질문
llm 로라 학습에 대한 질문이 있습니다! 학습된 로라는 타 모델에서 사용 가능합니까?
[10]
413
0
정보
llama.cpp 통해 모델의 혼잡도(perplexity) 평가
[2]
286
2
일반
StableLm llama.cpp에서 지원 된다.
[2]
325
0
질문
클라우드 서비스 (Colab Pro, Runpod, Replicate 등)
[11]
614
0
정보
우바부바 밖에서 웹으로 보고 싶을경우 윈도nginx 리버스프록시 구성하기
[16]
478
5
자료
alpaca 65B 2비트 양자화
[6]
705
3
질문
비쿠나 13b 코랩에 대해서 몇 가지 질문이 있음.
[2]
243
0
정보
llama.cpp의 2bit 양자화 지원..?
[2]
392
1
자작모델
한국어Vicuna 모델 학습완료 및 모델 공개
[76]
6919
65
일반
Cpu 성능차이가 크구나
[2]
412
0
일반
첫 학습이 성공했습니다만 ㅋ
[13]
654
6
정보
제안 - 온라인 딥러닝 공부모임
[57]
1214
9
일반
우바부가로 학습하는거 또 실패한것 같습니다
[10]
514
1
질문
LLaMa 허깅페이스 버전은 decapoda-research/llama-13b-hf?
[2]
403
0
일반
StableLM과 Vicuna를 비교테스트해본 결과가 있네요
[6]
498
3
일반
스테이블 LLM보고 드는 생각인데
[5]
484
1
질문
우바부바로 학습해보신 분 결과물 어디 저장됩니까?
[9]
235
0