Ai 언어모델 로컬 채널 알림 알림 중 알림 취소 구독 구독 중 구독 취소 구독자 3534명 알림수신 174명 @바바리맨 제한없는 언어모델을 위한 채널 질문 우바부바로 학습해보신 분 결과물 어디 저장됩니까? 그래요 추천 0 비추천 0 댓글 9 조회수 234 작성일 2023-04-20 01:31:59 ⚠️ 이 게시물은 작성자가 삭제할 수 없도록 설정되어 있습니다. https://arca.live/b/alpaca/74440182 학습 끝나고 세이빙 끝났는데결과물이 안보입니다checkpoint는 1000스텝마다 중간 저장한거고 그거 외엔 보이지가 않는데어디로 간겁니까? ㅜㅜ 추천! 0 ( 0) 비추! 0 ( 0) 공유 댓글 [9] 글쓰기 그래요 2023-04-20 01:34:30 답글 *수정됨 저건 loras 폴더에 있는 내용입니다. 일단 우바부가에서 해당 학습로라가 적용은 되는데 어디 있는지를 알아야 다운받아 놓을텐데요 ㅜㅜ 펼쳐보기▼ 하늘의아리아 2023-04-20 01:58:30 답글 체크포인트 안에 혹시 없나요? 펼쳐보기▼ 그래요 2023-04-20 02:37:09 답글 중간 저장된 바이너리파일하고 이거저거 있어요 펼쳐보기▼ calisolo 2023-04-20 02:19:40 답글 저 adapter 파일두개가 결과물입니다 펼쳐보기▼ 그래요 2023-04-20 02:39:05 답글 추후에 저거 두개만 넣어주면 되나요? 359바이트 하나랑 다른건 443바이트인데요; 체크포인트에는 각각 100메가 넘는 파일 두개랑 자잘한것들 들어가 있어요. 펼쳐보기▼ calisolo 2023-04-20 03:29:45 답글 넵 그래서 매우 혁신적인 방법이라고 생각합니다. 근데 학습이 제대로되엇다면 키로바이트단위는 될거라서 아마 잘못된게 아닐까 싶어요 제가 peft로 lora를 한건아니고 prefix,prompt tuning 을 해서 적절하게 학습된 로라의 크기는 잘모르겠긴한데 그래도 바이트는 너무적네요 펼쳐보기▼ 그래요 2023-04-20 03:31:59 답글 peft 버전 수정해서 다시 돌려봐야 겠네요 펼쳐보기▼ calisolo 2023-04-20 03:33:26 답글 네 이전에 념글 올라왔던 lora학습 공유파일보니 14mb네요. config 따라 바뀌긴하겠지만 바이트단위면 아마 잘못된거같습니다. 펼쳐보기▼ 그래요 2023-04-20 03:36:54 답글 어쩐지요 일단 적용은 되는데 적용하고 더 멍청해져서 왜 그러지? 했네요 펼쳐보기▼ 새로운 댓글이 달렸습니다! 댓글 작성 음성댓글 아카콘 업로드 중 0초 해당 브라우저에서는 오디오 플레이어를 지원하지 않습니다. 녹음 중지 삭제 업로드 작성 글쓰기 전체글 개념글 등록순 추천순 (24시간) 추천순 (3일) 추천순 (전체) 댓글갯수순 (3일) 최근댓글순 추천컷 5 10 20 30 50 70 100 기타 최근 최근 방문 채널 최근 방문 채널 모두 삭제 전체 일반 질문 정보 학습 자료 자작모델 스터디 공지 운영 공모 번호 제목 작성자 작성일 조회수 추천 공지 아카라이브 모바일 앱 이용 안내(iOS/Android) *ㅎㅎ 2020.08.18 31390312 공지 Ai 언어모델 로컬 채널 이용규정 바바리맨 2023.04.18 6281 공지 뉴비에게 도움 되는 글 모음 바바리맨 2023.04.18 28567 공지 언어모델 관련 정보취득 /무료체험 가능 사이트 바바리맨 2023.04.18 9485 공지 여러분의 학습에 도움을 줄 수 있는 하드웨어 지원 바바리맨 2023.08.01 5480 공지 신문고 바바리맨 2023.04.18 2363 숨겨진 공지 펼치기(1개) 질문 비쿠나 13b 코랩에 대해서 몇 가지 질문이 있음. [2] 파라노이아 2023.04.20 243 0 정보 llama.cpp의 2bit 양자화 지원..? [2] 사과는맛있어맛있으면바나나 2023.04.20 391 1 자작모델 한국어Vicuna 모델 학습완료 및 모델 공개 [76] 하늘의아리아 2023.04.20 6919 65 일반 Cpu 성능차이가 크구나 [2] 꿈돌리 2023.04.20 411 0 일반 첫 학습이 성공했습니다만 ㅋ [13] 그래요 2023.04.20 654 6 정보 제안 - 온라인 딥러닝 공부모임 [57] hkhk 2023.04.20 1214 9 일반 우바부가로 학습하는거 또 실패한것 같습니다 [10] 그래요 2023.04.20 514 1 질문 LLaMa 허깅페이스 버전은 decapoda-research/llama-13b-hf? [2] RKNesk 2023.04.20 402 0 일반 StableLM과 Vicuna를 비교테스트해본 결과가 있네요 [6] 산정 2023.04.20 498 3 일반 스테이블 LLM보고 드는 생각인데 [5] 하늘의아리아 2023.04.20 484 1 질문 우바부바로 학습해보신 분 결과물 어디 저장됩니까? [9] 그래요 2023.04.20 235 0 질문 Llama cpp 실행할 땐 로컬이 낫나 아님 콘다가 나음? [8] 파라노이아 2023.04.20 263 0 일반 혹시 모델은 8비트화나 4비트화 하는 방법 아시는분계신가요? [8] 하늘의아리아 2023.04.20 274 0 일반 지금 구글 bard 한국에 풀렸는데 wait list에 등록하면 거의 바로 열어줌요 [8] 그래요 2023.04.19 364 0 일반 우바부가로 lora 학습시 4090이나 a100이나 속도 차이가 없습니다 [3] 그래요 2023.04.19 374 0 정보 Local에서 web-llm 돌리는 법 (vicuna 7b) [3] tetman 2023.04.19 641 4 일반 무검열 비쿠나 1.0 버전 구려 [1] ㅇㅇ 2023.04.19 333 1 정보 현직 웹개발자입니다. 정말.. 하루가 다르게 바뀌는 중이네요.. 각자 현직자들 가능하면 정보공유 부탁합니다. [96] bb 2023.04.19 2071 9 일반 노검열 비쿠나 모델도 코랩에 올렸습니다 [6] ㅇㅇ 2023.04.19 323 0 글쓰기 전체글 개념글 등록순 추천순 (24시간) 추천순 (3일) 추천순 (전체) 댓글갯수순 (3일) 최근댓글순 추천컷 5 10 20 30 50 70 100 기타 전체 제목/내용 제목 내용 글쓴이 댓글 Keyword search form input 검색 -4 -3 -2 -1 23-04-20 10:40 +1 +2 +3 +4