부득이한 금전사정으로 2070s를 사용 중이고 앞으로도 그럴 듯합니다.
2070s로 언어모델을 갖고 놀면서 개념도 익히고 재미도 들고 싶은데 채널에서 흔히 언급되는 그런 모델들은 단순 구동조차 어렵네요.
혹시 2070s를 최대한 쥐어짜내려면 어떤 것들을 시도할 수 있을까요?
가능한 풀파인튜닝은 무리더라도 모델을 제 마음대로 커스텀 해보고 싶습니다..
구독자 3474명
알림수신 174명
제한없는 언어모델을 위한 채널
질문
2070s로 어디까지 할 수 있나요..?
추천
3
비추천
0
댓글
8
조회수
463
작성일
⚠️ 이 게시물은 작성자가 삭제할 수 없도록 설정되어 있습니다.
댓글
[8]
글쓰기
wk
hkhk
사과는맛있어맛있으면바나나
사과는맛있어맛있으면바나나
iau
iau
ㅇㅇ
ㅇㅇ
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
공지
아카라이브 모바일 앱 이용 안내(iOS/Android)
30686411
공지
Ai 언어모델 로컬 채널 이용규정
6183
공지
뉴비에게 도움 되는 글 모음
28009
공지
언어모델 관련 정보취득 /무료체험 가능 사이트
9235
공지
여러분의 학습에 도움을 줄 수 있는 하드웨어 지원
5332
공지
신문고
2324
숨겨진 공지 펼치기(1개)
질문
우바부가 및 llama.cpp 관련 질문사항입니다.
[15]
525
0
일반
챈섭으로 알아보는 WizardLM-2-8x22B 간단 후기
[2]
744
6
일반
챈섭 오픈 WizardLM-2-8x22B(종료)
[3]
372
7
정보
Mixtral-8x22B instruct v0.1 공개
[1]
523
6
질문
트레이닝 데이터가 실제로 적용될 때의 형태
[1]
421
0
일반
일본어 모델들 양자화 했는데 공유해도 문제 없음??
[2]
518
2
일반
트위터) 라마3 진짜 곧 출시
[8]
1301
10
일반
일본쪽 모델은 왜 성능 발전이 느릴까
[13]
724
0
일반
mlx 를 돌려봤습니다.
[2]
369
2
질문
2070s로 어디까지 할 수 있나요..?
[8]
464
3
질문
ai가 문장을 이해한다라는 문장은 현재수준에서는 틀린말인가요?
[19]
702
1
일반
아 쿼드로 8000 48GB 모델 겁나 싸게 떴네요...
[18]
890
0
질문
임베딩 모델 SBERT 학습관련
[6]
478
0
정보
mt bench에서 gpt4 0314능가: wizardlm 2 8x22b
[12]
1037
11
일반
이브이 16k/32k
[24]
1450
28
학습
3달 간 LLM qlora 7b ~ 13b 사이 모델 fine tuning 한 결과
[12]
1885
20
질문
챗gpt 같은 애들이 답변 출력 할 때
[9]
702
0
일반
m1 ultra 128gb 이거 쓸모가 많을까요??
[20]
907
1
일반
파인튜닝 공부 관련 질문 및 조언 부탁드립니다
[8]
559
1