뉴스
구독자 3537명 알림수신 174명
제한없는 언어모델을 위한 채널
전체글 개념글
최근 최근 방문 채널
    최근 방문 채널
      번호 제목
      작성자 작성일 조회수 추천
      124 정보 gpt-3.5-turbo의 파라미터는 고작 20B?? [31]
      1211 14
      123 정보 (해결됨)지금 최신버전 transformer로 라마 학습하실 분 주의 [5]
      1158 17
      122 정보 프로메테우스 - GPT4 의 평가능력을 대체할 수 있는 오픈소스 LLM [2]
      1176 18
      121 정보 Naver에서 귀중한 자료를 줬습니다. [15]
      1806 21
      120 정보 강화학습에 LLM을 사용한 두 논문 소개 [3]
      973 23
      119 정보 Mistral-7B Fine-Tuning: A Step-by-Step Guide [3]
      2111 14
      118 정보 따끈따근한 논문이 있네요.-EFFICIENT STREAMING LANGUAGE MODELS WITH ATTENTION SINKS- [6]
      1362 12
      117 정보 사전 데이터가 필요하니...??? [6]
      992 14
      116 정보 MistralAI 7B: 라마2 13B를 능가하는 새로운 7B 기초모델 [8]
      2134 17
      115 정보 한국어 llama2 모델 komt-llama2-13b-v1 [15]
      1703 15
      114 정보 beomi/llama-2-ko-70b가 공개됨 [16]
      1794 11
      113 정보 한국어 llama2 모델 komt-llama2-7b-v1 [17]
      2306 23
      112 정보 OmniQuant: 대규모 언어 모델을 위해 전방향으로 보정된 양자화 [3]
      889 13
      111 정보 메두사: 다중 디코딩 헤드를 사용한 LLM 생성 가속 기술 [5]
      1058 11
      110 정보 Falcon180B 출시 [21]
      1250 12
      109 정보 텍스트 추출이 너무 귀찮아서 만든 프로그램입니다. [6]
      1229 12
      108 정보 LM-Infinite: 대규모 언어 모델을 위한 간단한 즉석 길이 일반화 [2]
      989 11
      107 정보 메타 내부자: llama3는 gpt4 이상일거고 오픈소스다! [8]
      1924 21
      106 정보 Code Llama 공개 [13]
      1618 15
      105 정보 AutoGPTQ가 huggingface Transformer에 통합됨 [19]
      1098 33
      전체글 개념글
      Keyword search form input