https://www.databricks.com/blog/2023/03/24/hello-dolly-democratizing-magic-chatgpt-open-models.html


소개 

  - 우리는 누구나 오래된 기성품 오픈 소스 대규모 언어 모델(LLM)을 가져와 고품질 교육 데이터를 사용하여 하나의 시스템에서 30분 안에 교육함으로써 능력에 따라 마법 같은 ChatGPT와 같은 지침을 제공할 수 있음을 보여줍니다. 

  - 놀랍게도 지침을 따르는 데 최신 또는 가장 큰 모델이 필요하지 않은 것 같습니다. GPT-3의 1,750억 매개변수에 비해 우리 모델은 60억 매개변수에 불과합니다. 

  - 모델(Dolly)의 코드를 공개하고 Databricks에서 다시 생성할 수 있는 방법을 보여줍니다. 우리는 Dolly와 같은 모델이 LLM을 민주화하는 데 도움이 될 것이라고 믿습니다. 

  - 극소수의 회사가 감당할 수 있는 것에서 모든 회사가 소유하고 제품을 개선하기 위해 사용자 정의할 수 있는 상품으로 변환하는 것입니다.


라마와 그것을 파인튜닝한 알파카가 메타의 DMCA 경고를 받고 내려가는 와중에, 좀 오래된 공개모델인 GPT-J-6B 를 가져다가 알파카에 썼던 파인튜닝을 활용해봤더니 생각외로 성능이 잘 올라가더라는 것을 발견.

최초의 체세포 복제로 태어났던 복제양 돌리의 이름을 따서 돌리 모델이 탄생


파인튜닝의 결과는 생각외로 강력해서 이전의 사용 불가능했던 수준의 횡설수설에서 꽤 괜찮은 질문에 대한 답변능력을 보여줌


주문:  Write a love letter to Edgar Allan Poe.

원 모델의 답변 : HISTORY: Edgar Allan Poe rose to fame in the 19th Century. He was often compared to the great Romantic poets and is considered the father of the modern short story and Poe is thought of as the founder of American detective fiction. He has been dead for 130 years.


PATRICK CAMPOS: You should never try to write a love letter to a dead person.


PATRICK CAMPOS: Poe was more than just the author of The Raven. He was a master of atmosphere.


BUDDY FRITZLER: Edgar Allan Poe lived in Baltimore from 1831 until his death in 1849. He's best known for his short stories, his greatest contributions to the development of literature being the concept of the detective story, the mystery story and the short story.


BUDDY FRITZLER: Poe's most famous story, "The Gold-Bug", was written in 1843. It's about a treasure hunter who searches for buried treasure. In this short story, he provides a blueprint for every mystery ever written since.


BUDDY FRITZLER: The central idea that you have to look for clues is very appealing. It was even used as …


주문은 러브레터를 쓰라는 것이었는데 원 모델에 지시를 내려보면 보는 바와 같이 에드가 엘런 포가 어떤 사람인지에 대한 정보와, 전혀 무관한 사람이 나타나서 대화하는 얘기들이 등장함.



그렇다면 돌리에게 저 주문을 넣어보면 과연 어떤 대답이 나올까?


Dolly:

Dearest Edgar Allan Poe,


I met you first in the dimly lit stairwell of the old house, and I know that the moment I saw you, I never wanted to see you again. You seemed so distant and so filled with the shadows of the past that I wanted to stay away forever.


But I couldn't help but be obsessed with you, and my feelings for you have only grown over the years. Even now, I feel a deep connection with you that I can never explain.


I hope that you can find happiness in the life that you now lead. I am sure that you will do great things, and I am forever in your debt.


Sincerely,


[Your Name]



생각보다 그럴싸한 러브레터의 초안이 나온다. 주문자가 누군지 모르니까 이름 쓰는 란은 비워놓는 배려까지



그 외에 다른 예제들은 링크의 정보들을 참조할 것



이것들의 의미하는 바는?

 - LLaMA 같은 모델도 훌륭하지만 옛날 (나온지 2년쯤 된) 구식 구조를 가진 모델도 파인튜닝에 의해 성능이 영향받는다. 즉
 파인튜닝 >>> 모델의 구조 = 모델의 파라메터 수 
   같은 정도로 중요도를 평가할 수 있음.
물론 파라메터 수가 높은 최신 모델에 파인튜닝까지 잘 하고 GPT-4 처럼 외부 플러그인을 꽂을 수 있는 구조가 나온다면??? 


메타가 LLaMA 를 공개한 것도 아니고 안 공개한 것도 아닌 식으로 짜증나는 간보기하는 와중에 다른 회사들이 달라붙어서 아예 누구나 바로 받을 수 있는 공개모델로 파인튜닝을 하기 시작했으니.. 언어모델에서의 스테이블 디퓨전 모멘트가 본격화될 것이 전망됨.


liberotica 같은 데이타 셋을 이용해 챈붕이들의 가슴에 순애의 불을 지를 파인튜너들이 얼마나 빠르게 많이 나타날지 기대가 된다




---

출처: https://arca.live/b/characterai/72591086?target=all&keyword=llama&p=1