Text-to-text transformer가 아닌 text-to-machine-language 이런식으로..? 에러는 순전히 논리적 오류 (무한반복 등) 뿐.
구독자 3471명
알림수신 173명
제한없는 언어모델을 위한 채널
일반
컴파일이 가능한 Natural-C (상상의 나래)
추천
0
비추천
0
댓글
4
조회수
380
작성일
댓글
[4]
글쓰기
pussydestroyer
pussydestroyer
pussydestroyer
pussydestroyer
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
공지
아카라이브 모바일 앱 이용 안내(iOS/Android)
30670151
공지
Ai 언어모델 로컬 채널 이용규정
6182
공지
뉴비에게 도움 되는 글 모음
28001
공지
언어모델 관련 정보취득 /무료체험 가능 사이트
9230
공지
여러분의 학습에 도움을 줄 수 있는 하드웨어 지원
5328
공지
신문고
2323
숨겨진 공지 펼치기(1개)
질문
임베딩 모델 SBERT 학습관련
[6]
478
0
정보
mt bench에서 gpt4 0314능가: wizardlm 2 8x22b
[12]
1033
11
일반
이브이 16k/32k
[24]
1449
28
학습
3달 간 LLM qlora 7b ~ 13b 사이 모델 fine tuning 한 결과
[12]
1883
20
질문
챗gpt 같은 애들이 답변 출력 할 때
[9]
702
0
일반
m1 ultra 128gb 이거 쓸모가 많을까요??
[20]
907
1
일반
파인튜닝 공부 관련 질문 및 조언 부탁드립니다
[8]
559
1
일반
Winograd
505
4
일반
chain of thought전용 모델을 만들면 어떨까?
[8]
433
1
질문
아렛글 수정이 안되 스샷 첨부해 다시 올려요
[4]
250
-2
일반
컴파일이 가능한 Natural-C (상상의 나래)
[4]
381
0
질문
우바부가 모델이 vram이 아닌 ram으로만 로딩이 되네요
[3]
371
0
일반
챈섭 오픈 Mixtral-8x22B-v0.1 (종료)
[11]
692
11
일반
M1 Max 를 쓰다 보니 드는 생각
[5]
695
4
일반
Mixtral 8x22B v0.1 M1 Max 속도 벤치마크
[6]
828
8
질문
webui ModuleNotFoundError 질문
[3]
204
0
일반
용어집 1차 업데이트 완료
[9]
1571
14
질문
Mistral-7B 파인 튜닝시 loss 발산의 이유는 ?
[7]
460
1
질문
generate config
[6]
377
1