구독자 3310명
알림수신 163명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
2381
학습
강화학습 성공했다
[40]
2675
25
2380
일반
새로 구운 kiqu-70b 출력 예시
[22]
1818
24
2379
자작모델
시나트라-믹스트랄 공개 및 성능 테스트
[47]
1411
24
2378
자작모델
llama-2-ko-story를 소개합니다.
[32]
2493
24
2377
스터디
챈펌등으로 맹근 동아리 자료1
[12]
1091
24
2376
정보
나이지리아 인들이 AI 에 독을 풀었다.
[14]
1773
23
2375
일반
초딩도 할 수 있는 컨텍 확장 가이드
[24]
1816
23
2374
스터디
망한(아직까진) 개인 연구 공유: llm이 자문자답하고 답변하게 만들어보자
[14]
1366
23
2373
일반
32K용 Mixtral MOE 7b x2 출시 및 공개
[26]
2185
23
2372
일반
한국어 대규모 데이터셋 생성 안내 - 참여방법, 코드
[34]
1652
23
2371
자료
한국어 GPT3, 4 생성 데이터셋 공개
[10]
1749
23
2370
정보
강화학습에 LLM을 사용한 두 논문 소개
[3]
941
23
2369
자작모델
Synatra-V0.1-7B 한국어 모델 공개
[26]
1994
23
2368
정보
한국어 llama2 모델 komt-llama2-7b-v1
[17]
2257
23
2367
정보
성능좋은 IA3방식으로 finetuning LLM 결과 공개 및 소개해봅니다.
[19]
1676
23
2366
일반
라마3 토크나이저 기반 소형 모델 l3-211m
[2]
1055
22
2365
일반
Mamba 리뷰 해봤습니다. (소리 이슈로 재업로드)
[15]
1128
22
2364
일반
hqq 양자화 신기술.. 또 뭔가 나왔네 ㅋㅋ
[7]
1347
22
2363
일반
리더보드 1위 찍고 잠시 휴식...
[18]
1605
22
2362
자작모델
Synatra-7B-v0.3-dpo 모델 공개
[34]
1616
22