띄어쓰기 안하는거랑 다의적인 문장이 많아서 발전이 잘 안되는건가?
구독자 3474명
알림수신 174명
제한없는 언어모델을 위한 채널
일반
일본쪽 모델은 왜 성능 발전이 느릴까
추천
0
비추천
0
댓글
13
조회수
723
작성일
댓글
[13]
글쓰기
kadd
ㅇㅇ (218.145)
삭제
수정
hkhk
ㅇㅇ (106.101)
삭제
수정
검정키보드
ㅇㅇ (210.91)
삭제
수정
AI타임스
일본에 자리 잡은 사카나 AI ”기업 관심 집중...아직 경쟁자 없어”
논문 ‘트랜스포머’ 공동 저자인 릴리언 존스의 사카나 AI가 일본 인공지능(AI)의 핵심으로 떠오른 것으로 알려졌다. 사카나 AI는 최근 일본어 전용 대형언어모델(LLM)을 출시, 거대 기업들의 집중적인 러브콜을 받고 있다.블룸버그는 12일(현지시간) 구글 출신 연구원들이 설립한 사카나 AI가 일본기업 사이에서 급증하는 관심을 활용, 큰 환영을 받고 있다고 보도했다.사카나는 지난달 21일 여러 AI 모델의 장점만을 골라 새로운 모델을 만드는 병합(Merge) 기술로, 수백세대를 걸쳐 진화한 일본어 전문 LLM을 내놓았다.일본어는 한
hkhk
ㅇㅇ (210.91)
삭제
수정
hkhk
ㅇㅇ (210.91)
삭제
수정
hkhk
ㅇㅇ (210.91)
삭제
수정
hkhk
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
공지
아카라이브 모바일 앱 이용 안내(iOS/Android)
30682050
공지
Ai 언어모델 로컬 채널 이용규정
6182
공지
뉴비에게 도움 되는 글 모음
28004
공지
언어모델 관련 정보취득 /무료체험 가능 사이트
9230
공지
여러분의 학습에 도움을 줄 수 있는 하드웨어 지원
5329
공지
신문고
2323
숨겨진 공지 펼치기(1개)
일반
llama-3-8b가 Azuaremarketplace에 올라옴
[1]
412
2
질문
맥북으로 인퍼런스 돌리는 방법이 뭐가 있을까요?
[8]
318
0
질문
우바부가 및 llama.cpp 관련 질문사항입니다.
[15]
525
0
일반
챈섭으로 알아보는 WizardLM-2-8x22B 간단 후기
[2]
744
6
일반
챈섭 오픈 WizardLM-2-8x22B(종료)
[3]
372
7
정보
Mixtral-8x22B instruct v0.1 공개
[1]
522
6
질문
트레이닝 데이터가 실제로 적용될 때의 형태
[1]
420
0
일반
일본어 모델들 양자화 했는데 공유해도 문제 없음??
[2]
518
2
일반
트위터) 라마3 진짜 곧 출시
[8]
1301
10
일반
일본쪽 모델은 왜 성능 발전이 느릴까
[13]
724
0
일반
mlx 를 돌려봤습니다.
[2]
369
2
질문
2070s로 어디까지 할 수 있나요..?
[8]
463
3
질문
ai가 문장을 이해한다라는 문장은 현재수준에서는 틀린말인가요?
[19]
702
1
일반
아 쿼드로 8000 48GB 모델 겁나 싸게 떴네요...
[18]
890
0
질문
임베딩 모델 SBERT 학습관련
[6]
478
0
정보
mt bench에서 gpt4 0314능가: wizardlm 2 8x22b
[12]
1035
11
일반
이브이 16k/32k
[24]
1449
28
학습
3달 간 LLM qlora 7b ~ 13b 사이 모델 fine tuning 한 결과
[12]
1883
20
질문
챗gpt 같은 애들이 답변 출력 할 때
[9]
702
0