구독자 3471명
알림수신 173명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
정보
Mixtral-8x22B instruct v0.1 공개
[1]
521
6
질문
트레이닝 데이터가 실제로 적용될 때의 형태
[1]
419
0
일반
일본어 모델들 양자화 했는데 공유해도 문제 없음??
[2]
517
2
일반
트위터) 라마3 진짜 곧 출시
[8]
1301
10
일반
일본쪽 모델은 왜 성능 발전이 느릴까
[13]
723
0
일반
mlx 를 돌려봤습니다.
[2]
369
2
질문
2070s로 어디까지 할 수 있나요..?
[8]
463
3
질문
ai가 문장을 이해한다라는 문장은 현재수준에서는 틀린말인가요?
[19]
700
1
일반
아 쿼드로 8000 48GB 모델 겁나 싸게 떴네요...
[18]
890
0
질문
임베딩 모델 SBERT 학습관련
[6]
478
0
정보
mt bench에서 gpt4 0314능가: wizardlm 2 8x22b
[12]
1033
11
일반
이브이 16k/32k
[24]
1448
28
학습
3달 간 LLM qlora 7b ~ 13b 사이 모델 fine tuning 한 결과
[12]
1882
20
질문
챗gpt 같은 애들이 답변 출력 할 때
[9]
702
0
일반
m1 ultra 128gb 이거 쓸모가 많을까요??
[20]
907
1
일반
파인튜닝 공부 관련 질문 및 조언 부탁드립니다
[8]
558
1
일반
Winograd
505
4
일반
chain of thought전용 모델을 만들면 어떨까?
[8]
433
1
질문
아렛글 수정이 안되 스샷 첨부해 다시 올려요
[4]
250
-2
일반
컴파일이 가능한 Natural-C (상상의 나래)
[4]
380
0