구독자 3427명
알림수신 169명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
정보
TRUFFLE–1: Mixtral를 20 token/s 로 실행하는 컴퓨터(1299$)
[7]
613
4
일반
1.58bit transformer 만들어봄
[4]
718
8
정보
Gemma 파인튜닝 버그 몇개가 수정 되었다고 하네요.
[2]
601
5
질문
책도 LLM 학습 데이터로 활용될수 있나요?
[5]
730
0
일반
openai에서 transformer debugger라는 걸 공개했는데
[3]
1054
12
질문
구구고 사용법을 전혀 모르겠습니다..
[15]
701
-3
일반
sllm 학습을 위한 요약 태스크 프롬프트 구축
[4]
451
-1
일반
한국어 대용량 finetuning 데이터셋 공개 (MIT 라이센스)
[19]
2427
80
질문
alpaca lora모델 학습후 torch.jit.script 저장 관련 질문
[13]
239
0
일반
IQ1_S llama.cpp 병합
[1]
271
0
일반
RAG 모델이 뭐죠?
[4]
662
0
일반
sLLM백본 성능은 유지하고 새로운 지식 학습 질문
[1]
310
0
정보
한국어를 지원하는 다국어 생성모델 command r v01
[3]
618
1
질문
우바부가에서 모델 로드해서 사용해볼려고 하는데 GPU Out of Memory 에러가 뜨는데 해결법이 있을까요?
[5]
358
0
질문
nvidia triton서버에서 배포 해보신분 계시나요?
[4]
353
1
정보
llama.cpp 가 Mamba 를 지원합니다
[5]
551
8
정보
Elon-musk - 이번 주말에 Grok 오픈소스 공개하겠다
[5]
749
8