vicuna 오리지널 모델을 사용중인거야? 아니면 wizard - vicuna 사용중인거야?
구독자 3512명
알림수신 173명
제한없는 언어모델을 위한 채널
질문
우바부가에서 이렇게 뜨면 현재 어떤 모델을 사용중인거야?
추천
0
비추천
0
댓글
6
조회수
188
작성일
⚠️ 이 게시물은 작성자가 삭제할 수 없도록 설정되어 있습니다.
댓글
[6]
글쓰기
노랑노랑
ㅇㅇ (223.195)
삭제
수정
산정
ㅇㅇ (223.195)
삭제
수정
하늘의아리아
ㅇㅇ (223.195)
삭제
수정
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
공지
아카라이브 모바일 앱 이용 안내(iOS/Android)
31220591
공지
Ai 언어모델 로컬 채널 이용규정
6244
공지
뉴비에게 도움 되는 글 모음
28383
공지
언어모델 관련 정보취득 /무료체험 가능 사이트
9385
공지
여러분의 학습에 도움을 줄 수 있는 하드웨어 지원
5431
공지
신문고
2349
숨겨진 공지 펼치기(1개)
질문
어떻게 시작해야되나요
[1]
155
0
질문
우바부가에서 이렇게 뜨면 현재 어떤 모델을 사용중인거야?
[6]
189
0
질문
peft와 lora 차이점
[2]
336
0
일반
WizardLM-7B-Uncensored의 제작자가 위협을 받고 있다고함
[8]
580
3
일반
우바부가 처음 설치를 위한 유툽 안내
[3]
2379
1
질문
보통 cpp 실행할때 설정은 어떻게 하시나요
[2]
181
0
정보
주력모델을 소개해 봅시다 (링크추가)
[17]
1240
13
일반
한글로 로컬 임베딩은 불가한건가..ㅠ
[16]
1186
0
질문
lora 파일의 ggml 변환
407
0
질문
로컬 모델의 컨텍스트 길이와 띄어쓰기
[2]
221
0
일반
혹시 여러분 프로젝트 활동 관심 있으십니까
[28]
726
2
일반
llama-cpp-python /w cuda 윈도우로 안됨
[9]
464
0
일반
이 질문에 제대로 답하는 모델이 안보이네
[9]
552
1
공지
이 채널에 대해 알게 된 경로나 다른 커뮤니티에 대해 알려주세요
[28]
645
3
질문
ggml하고 gptq 차이가 뭐야??
[6]
1643
0
질문
koalpaca
[3]
445
0
일반
pc 어떻게 구성하고 사용하시나요?
[7]
294
0
일반
이렇게 나오면 되는거임?
[12]
344
1
질문
ggml fp16 format이 뭔지 설명해주실 분.!
[13]
1078
0