구독자 3799명
알림수신 192명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
자료
알파카 로라버전 4비트 양자화 모델(13b, 30b)
250
0
자료
한국어 모델 알파카 "KoAlpaca"
709
2
정보
현재까지 트레이닝 된 라마 모델들 토큰 한도가 2024로 제한되어 있는거 같음.
203
0
학습
LLM LoRA로 단기간에 자국어로 파인튜닝 하는법
367
0
학습
3060으로도 가능할듯한 koGPT LoRA 학습시키기.py
[1]
532
0
정보
4bit 모드에서 로라 적용 방법
158
0
학습
3090도 가능한 라마-7b 로컬에서 LoRA 파인튜닝 하기.py
1245
0
자료
그래픽카드 없이 알파카, llama 로컬에서 돌리기.exe (챈럼발 cpp빌드)
301
0
자료
코랩 LLaMA 7b,13b,30b 4비트 + SillyLossy 모딩 태번
229
0
정보
[Alpaca-LoRA] LLaMA 모델에 LoRA를 적용한 사례.git
191
0
정보
gpu 서버 대여해서 LLaMa 4bit 돌리기
389
0
자료
cpp 기반 원클릭 llama, alpaca 구동 "달라이"
176
1
정보
우바부가 (우가우가,oobabooga,textui) 명령 플래그 모음
734
0
정보
bitsandbytes 윈도우용 DLL 컴파일하기
141
0
정보
우바부가에서 4비트 LLaMA 구동법 상세설명
325
0
자료
허깅페이스에 올라온 LLaMA Transformer 형식으로 변환한 파일들
184
0
정보
llama 깃허브 llama-dl 리포지토리 현재 내려감
109
0
정보
3/14 스탠포드 대학에서 llama 7b를 파인튜닝해 [알파카 7b]를 공개
336
0