구독자 3806명
알림수신 194명
제한없는 언어모델을 위한 채널
정보
phi 3 mini출시
추천
3
비추천
0
댓글
6
조회수
624
작성일
댓글
[6]
글쓰기
도지도지
jackofmaster
도지도지
그래요
모올루
모올루
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
공지
아카라이브 모바일 앱 이용 안내(iOS/Android)
36373443
공지
Ai 언어모델 로컬 채널 이용규정
7384
공지
뉴비에게 도움 되는 글 모음
33657
공지
언어모델 관련 정보취득 /무료체험 가능 사이트
11280
공지
여러분의 학습에 도움을 줄 수 있는 하드웨어 지원
7028
공지
신문고
3184
숨겨진 공지 펼치기(1개)
4547
정보
sglang vs vllm 속도테스트
[3]
875
9
4546
일반
라데온도 언어모델이 되긴 되네요.
[6]
759
8
4545
일반
4090 1개와 cpu 만으로 deepseek 236b 14t/s
[5]
829
5
4544
정보
AMD 5600G를 이용해 추론을 해보자 (Win11+llama.cpp Vulkan)
[2]
1078
17
4543
일반
세일즈포스가 멀티모달용 데이타셋을 오픈소스로 풀었습니다
[1]
857
18
4542
정보
양자화가 다국어 LLM에 어떤 영향을 미치는가?
[9]
1556
21
4541
일반
첫 시도만 대형 모델로 3~5번 해준 뒤에 소형 모델로 작업을 이어나가게 시키면
[15]
891
4
4540
일반
한국어로는 mistral nemo가 최고인듯합니다.
[3]
1537
-1
4539
일반
민감한 정보를 다량 처리해야 할 때 로컬 모델이 신이야
[1]
801
7
4538
일반
미스트랄 라지2 4비트(4.27bpw)를 4090+CPU로 추론해봤습니다
[1]
629
4
4537
질문
Ollama에서 제공하는 llama3.1 8b 4GB 짜리랑 양자화한 8GB 랑 성능차이가 왜이리 심할까요?
[8]
921
0
4536
일반
CPU 기반 LLM 인데 llama.cpp 보다 40배나 빠르다?
[11]
1139
3
4535
일반
삼성전자가 인수한 지식그래프 기반 AI 의 오픈소스 버전
[10]
1934
27
4534
질문
Llama 3.1 8b 환각 매우 심하네요... ㅋㅋ
[4]
1224
1
4533
질문
문장 교정을 해주는 LLM을 찾고 있습니다
[6]
716
0
4532
정보
llama.cpp row split-mode를 써서 멀티 GPU 생성속도를 높여보자
[6]
420
4
4531
질문
Gpu 딸리면 속도 말고 품질도 떨어지나요??
[7]
784
0
4530
일반
gradio 사용시 추론속도 느려지는 이유가 뭔가요??
[4]
336
0
4529
질문
1회 출력당 최대 토큰까지 무조건 활용하게 하려면 어떻게 해야 하나요?
[3]
415
0