History
GPT Versions
•
2017 Transformer 모델 by Google
•
2018 GPT-1 (파라미터 1억1700만개) by Open AI, 샘 알트먼
•
2019 GPT-2 (파라미터 15억개)
•
2020 GPT-3 (파라미터 1750억개)
•
2021 GPT-3.5 (파라미터 1750억개), 인간 피드백을 통한 자료 검증
•
2022.12.1 ChatGPT (GPT-3.5기반) (파라미터 1750억개)
- 출시 5일만에 사용자 100만명 돌파
- 출시 2개월만에 사용자 1억명 돌파
- 2021년 9월까지의 data만 학습 → 이후 사건에 대한 ‘데이터’ 없음
•
2023. 3.14 GPT-4 (파라미터 수 미공개, 5천억?)
출처 : 서울디지털재단
Features : Chat+G+P+T
■ 특징
■ Chat
우리의 질문에 대답하는 대화형 인터페이스
•
구글에서 검색하면 사이트, 사전, 블로그, 유튜브, 브런치 등 여러 사이트에서 텍스트, 이미지, 영상 등 여러 형태의 결과가 나옵니다. 이걸 다 읽어보고 필요한 정보를 선택하고 통합해서 정리하는 것은 우리의 몫이죠.
•
구글 매출의 절반 이상이 검색광고 매출입니다. 사람들이 검색어를 넣고 결과를 읽어보고 페이지 넘기고 다음 문서 열고 그 모든 과정에서 광고를 노출시키고 있습니다.
•
ChatGPT는 우리의 질문에 직접적인 하나의 대답을 해줍니다.
•
이런 특징 때문에 ChatGPT가 구글을 위협한다는 말이 나옵니다. 검색하고 읽어보고 문서간에 이동하는 모든 과정이 다 사라지고 질문과 대답이라는 대화 형식으로만 끝나버리면 광고를 노출시킬 자리가 없습니다.
■ Generative
생성형
•
ChatGPT는 알고리듬을 사용하여 패턴을 학습하고 해당 학습을 기반으로 텍스트, 이미지, 음악, 비디오와 같은 새로운 출력을 "생성"합니다.
출처: 미드저니
CNN·뉴욕타임스(NYT) 보도에 따르면 지난달 ‘콜로라도 주립 박람회 미술대회’의 디지털아트 부문에서 게임 기획자인 제이슨 M. 앨런(39)이 AI로 제작한 작품 ‘스페이스 오페라 극장'(Theatre D’opera Spatial)이 1위에 올랐다.
출처: 포브스
•
챗GPT와 여러 생성형 AI 친구들은 글도 생성하고 이미지도 생성하고 코딩도 생성합니다. 예전의 AI들이 대부분 인간이 준 기존의 정답들을 학습해서 Rule을 만들고, 이 Rule에 따라서 새로운 문제에 대해서 Pass다 Fail이다 정도를 판정을 해주는 수준이었습니다.
•
하지만 요즘 활용되고 있는 생성형 AI들은 정답을 알려주기 보다는 사람에게 새로운 대안을 제시합니다. 이 대안이 너무나 그럴 듯 해서 우리를 너무 놀래키고 있습니다.
•
인간이 하는 지식노동의 대부분이 '생성' 입니다. 자료를 조사해서 결론을 내리고, 이 내용과 저 내용을 종합해서 추론을 하고, 지금까지 이렇게 해왔는데 다음에는 저렇게 하면 어떨까 상상의 대안을 만들고 하는 일이죠.
•
수십년전에 자동화 기계가 나와서 정해진 자리에서의 인간의 육체노동을 대체 했듯이, 요근래 로봇들이 나와서 돌아다니면서 하던 인간의 육체노동을 대체하고 있듯이, 이제 생성형 AI들이 인간의 정신노동을 빠르게 대체할 것으로 생각됩니다.
■ Pre-trained
사전 학습
•
ChatGPT를 만든 사람들이 미리 학습을 시켜놨다는 의미입니다. ChatGPT는 거대언어모델(LLM, Large Language Model)이라고 합니다. 엄청나게 많은 언어를 공부했다는 뜻입니다.
•
GPT-3를 만들기 위해 753 기가바이트의 문서를 학습시켰다고 합니다. 여기에는 위키피디아, 책, 저널, 레딧 등을 포함합니다.
사전 학습을 시킨 과정
•
더 많은 데이터를 공부시킬수록 똑똑해집니다. 우리가 쓰는 언어를 더 비슷하게 사용할 줄 알게 됩니다. 하지만 무조건 데이터만 많다고 해서 무조건 똑똑해지는건 아닙니다. 실수도 지적해주고 잘하면 칭찬도 해주며 “잘” 가르치면 더 똑똑해집니다.
학습 1단계. Pre-training language model
•
인터넷에 있는 문서를 사람이 선별해서 적당한 데이터만 추린다
학습 2단계. Reward model training
•
언어 모델에 질문하고 GPT가 대답한 결과에 대해 사람이 평가하고 피드백을 준다
학습 3단계. Fine-tuning with Reinforcement learning
•
학습에 사용한 데이터가 아닌 새로운 질문을 하고 GPT가 대답하면 사람이 지적을 하고 조정을 한다
학습 4단계. 최종성능평가
•
이거도 사람이 유용성(질문에 대한 대답이 맞냐), 진실성(True만 대답했냐), 무해성(대답에 차별, 언어폭력 없었냐) 평가함
■ Transformer
•
트랜스포머라고 하는데, 딱 대입되는 한글번역이 없습니다. 문장 속에서 단어와 같은 순차 데이터 내의 관계를 추적해서 맥락과 의미를 학습하는 신경망입니다.
•
구글이 2017년에 발표한 논문에서 트랜스포머라는 말이 처음 등장했고, 파운데이션 모델이라고도 불립니다.
•
“나는 어제 부산에 _____.”라는 문장이 있다고 했을 때 GPT가 학습한 수많은 문장들을 참고해 보면 아마 밑줄 부분에는 “갔다”라는 단어가 나오는 것이 적합한 것 같다라고 추론을 합니다. 이런 추론을 반복해서 전체 문장과 이야기를 만들어냅니다.
•
말 그대로 추론이기 때문에 빈칸에 와야 하는 정확한 정답을 맞추기는 어려워 합니다. 엉뚱한 대답을 스스로 믿고 강력하게 주장하는 환상(할루시네이션)을 보이곤 합니다.
•
정답 맞추기 보다는 새로운 이야기 창작하기에 훨씬 탁월한 능력을 보여주고 있습니다.
Achievements
빠른 확산
•
출시 5일 만에 사용자 100만명
(페이스북 10개월, 인스타그램이 2개월)
•
출시 2개월만에 사용자 1억명
시험 합격
ChatGPT의 능력
언어능력
•
GPT-4 영어(85.5%) > GPT-4 한글(77%) > GPT-3.5 영어(70.1%)
•
더 많고 정확한 대답을 원한다면 영어 선택
•
편안한 블로그 글, 문어체를 쓰려면 한글 선택
영어로 사용하는 방법
•
프롬프트에서 번역을 지시
•
구글 자동 변역
•
파파고 수동 번역
•
크롬확장프로그램 - 프롬프트지니
특장점
API
ChatGPT API key 생성하기
•
우측 상단에 계정 정보 Personal > View API keys
•
create new secret key 클릭
•
딱 한번만 보여줌. 복사 & 저장 필수
한계점
•
숫자에 약함
•
2021년 9월 이전 자료만 학습함
•
할루시네이션 (틀린 말도 그럴듯하게 뻔뻔하게)