구독자 3537명
알림수신 174명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
124
정보
gpt-3.5-turbo의 파라미터는 고작 20B??
[31]
1211
14
123
정보
(해결됨)지금 최신버전 transformer로 라마 학습하실 분 주의
[5]
1158
17
122
정보
프로메테우스 - GPT4 의 평가능력을 대체할 수 있는 오픈소스 LLM
[2]
1176
18
121
정보
Naver에서 귀중한 자료를 줬습니다.
[15]
1806
21
120
정보
강화학습에 LLM을 사용한 두 논문 소개
[3]
973
23
119
정보
Mistral-7B Fine-Tuning: A Step-by-Step Guide
[3]
2111
14
118
정보
따끈따근한 논문이 있네요.-EFFICIENT STREAMING LANGUAGE MODELS WITH ATTENTION SINKS-
[6]
1362
12
117
정보
사전 데이터가 필요하니...???
[6]
992
14
116
정보
MistralAI 7B: 라마2 13B를 능가하는 새로운 7B 기초모델
[8]
2134
17
115
정보
한국어 llama2 모델 komt-llama2-13b-v1
[15]
1703
15
114
정보
beomi/llama-2-ko-70b가 공개됨
[16]
1794
11
113
정보
한국어 llama2 모델 komt-llama2-7b-v1
[17]
2306
23
112
정보
OmniQuant: 대규모 언어 모델을 위해 전방향으로 보정된 양자화
[3]
889
13
111
정보
메두사: 다중 디코딩 헤드를 사용한 LLM 생성 가속 기술
[5]
1058
11
110
정보
Falcon180B 출시
[21]
1250
12
109
정보
텍스트 추출이 너무 귀찮아서 만든 프로그램입니다.
[6]
1229
12
108
정보
LM-Infinite: 대규모 언어 모델을 위한 간단한 즉석 길이 일반화
[2]
989
11
107
정보
메타 내부자: llama3는 gpt4 이상일거고 오픈소스다!
[8]
1924
21
106
정보
Code Llama 공개
[13]
1618
15
105
정보
AutoGPTQ가 huggingface Transformer에 통합됨
[19]
1098
33