구독자 3537명
알림수신 174명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
64
정보
우바부가에서 llama.cpp의 토큰생성 GPU 가속기능 켜는 법
[15]
2072
6
63
정보
스타코더 파인튜닝 과정
[5]
780
7
62
정보
MusicLM : 텍스트로 음악을 생성하는 언어모델
[19]
710
6
61
정보
전공자가 만든 korean-vicuna 공개
[10]
1384
9
60
정보
BabyAGI 4 ALL API 소개 및 사용법 - 우바부가용 오토에이전트
[10]
1046
8
59
정보
바드 API 사용하는 방법이 깃헙에 올라와서 공유드립니다.
[6]
997
8
58
정보
PaLM2 테크니컬 리포트 요약
[10]
852
10
57
정보
주력모델을 소개해 봅시다 (링크추가)
[17]
1242
13
56
정보
알기쉽게 풀어쓴 랭체인-임베딩벡터의 기본
[30]
3683
19
55
정보
구글: 우리에겐 방어막이 없습니다. - 유출 문건 한글 번역
[36]
7424
67
54
정보
WizardLM 7B 무검열 버전 배포 (GGML버전 추가)
[7]
889
6
53
정보
python 의 생태계를 활용할 수 있는 새로운 프로그래밍 언어 Mojo
[3]
1238
7
52
정보
OpenLLaMA : LLaMA의 오픈소스 복제 (7B 체크포인트 프리뷰 릴리즈)
[4]
791
9
51
정보
과기정통부, AI 학습용 데이터 15억건 개방
[18]
789
7
50
정보
64k 컨텍스트의 LLM이 곧 공개 예정
[12]
686
7
49
정보
GPT-4 평가에 편향이 있다는군요.
[8]
615
7
48
정보
GPTQ wsl 안되는 사람을 위해 cuda 업데이트 함
[7]
514
10
47
정보
AI 사용/학습법
[28]
1519
9
46
정보
StableVicuna 곧 오냐?
[4]
511
6
45
정보
우바부가에서 llama.cpp 구동 성공했습니다
[9]
651
6