GPT-1부터 GPT-4o까지 OpenAI의 GPT 모델 역사를 살펴보고, 세대별로 언어 이해·사용성·안전성이 어떻게 발전했는지 알아보세요.

GPT 모델은 다음 단어를 예측하도록 설계된 대형 언어 모델 계열입니다. 방대한 텍스트를 읽고 언어 사용의 패턴을 학습한 뒤, 그 패턴을 이용해 새 텍스트를 생성하고 질문에 답하며 코드를 작성하고 문서를 요약하는 등 여러 작업을 수행합니다.
약어가 핵심 아이디어를 설명합니다:
이들 모델이 어떻게 진화했는지를 이해하면 무엇을 잘하고 못하는지, 그리고 각 세대가 왜 큰 도약으로 느껴지는지 이해하는 데 도움이 됩니다. 각 버전은 모델 크기, 학습 데이터, 목적함수, 안전성 작업에 대한 구체적 선택과 절충을 반영합니다.
이 글은 초기 언어 모델과 GPT-1에서 시작해 GPT-2, GPT-3, 지시조정과 ChatGPT, 그리고 GPT-3.5, GPT-4, GPT-4o 계열에 이르는 연대기적이고 높은 수준의 개요를 제공합니다. 그 과정에서 주요 기술적 경향, 사용 패턴의 변화, 그리고 이러한 변화가 대형 언어 모델의 미래에 대해 시사하는 바를 살펴봅니다.
GPT 이전에도 언어 모델은 NLP 연구의 핵심이었습니다. 초기 시스템은 n‑gram 모델로, 고정된 윈도우의 이전 단어들로부터 다음 단어를 단순한 빈도 계산으로 예측했습니다. 맞춤법 교정과 기본 자동완성에 쓰였지만 장기 문맥과 데이터 희소성 문제를 해결하지 못했습니다.
다음 큰 단계는 신경망 언어 모델이었습니다. 피드포워드 네트워크와 이후 순환 신경망(RNN), 특히 LSTM과 GRU가 분산된 단어 표현을 학습했고 더 긴 시퀀스를 다룰 수 있었습니다. 동시에 word2vec, GloVe 같은 모델이 단어 임베딩을 대중화하며 비지도 학습으로도 풍부한 의미 구조를 포착할 수 있음을 보였습니다.
하지만 RNN은 학습이 느리고 병렬화가 어렵고 매우 긴 문맥에서 여전히 한계를 보였습니다. 2017년 논문 **"Attention Is All You Need"**는 트랜스포머 아키텍처를 소개하며 돌파구를 제공했습니다. 트랜스포머는 순환을 대체한 자체-어텐션(self-attention)을 사용해 시퀀스 내의 임의의 두 위치를 직접 연결할 수 있게 했고 학습을 매우 병렬화할 수 있게 만들었습니다.
이로써 RNN이 감당할 수 없던 규모로 언어 모델을 확장하는 문이 열렸습니다. 연구자들은 대규모 트랜스포머를 다음 토큰 예측 방식으로 인터넷 규모의 코퍼스로 학습하면 문법, 의미론, 그리고 어느 정도의 추론 능력까지도 태스크별 감독 없이 학습할 수 있다는 것을 보기 시작했습니다.
OpenAI의 핵심 아이디어는 이를 생성형 사전학습으로 공식화한 것입니다: 넓은 범위의 데이터로 디코더 전용 트랜스포머를 먼저 학습시켜 텍스트를 모델링한 뒤, 동일한 모델을 최소한의 추가 학습으로 다운스트림 작업에 적응시키는 방식입니다. 이 접근은 많은 좁은 모델 대신 하나의 범용 모델을 약속했습니다.
그러한 개념적 전환—작고 태스크별 모델에서 대규모 생성형 사전학습 트랜스포머로의 이동—이 첫 GPT 모델과 이후의 모든 GPT 계열을 위한 무대를 마련했습니다.
GPT-1은 OpenAI가 오늘날 우리가 아는 GPT 시리즈로 나아가는 첫걸음이었습니다. 2018년에 공개되었고 파라미터 수는 1억 1천7백만(117M)으로 비교적 작았지만, 이후 모델들이 따르는 핵심 레시피를 분명히 했습니다.
GPT-1은 간단하지만 강력한 아이디어로 학습되었습니다:
사전학습에서는 GPT-1이 BooksCorpus와 위키피디아 스타일의 텍스트를 주로 사용해 다음 토큰을 예측하도록 학습했습니다. 이 목표는 라벨링이 필요 없으므로 모델이 언어, 문체, 사실에 대한 폭넓은 지식을 흡수할 수 있었습니다.
사전학습 후에는 동일한 모델을 감정분석, 질의응답, 텍스트 포함관계(textual entailment) 같은 고전적 NLP 벤치마크에 파인튜닝했습니다. 작은 분류 헤드를 모델 위에 추가하고 전체 모델(또는 대부분)을 각 라벨 데이터셋에 대해 종단 간(end-to-end)으로 학습시켰습니다.
핵심 방법론적 요점은 동일한 사전학습된 모델이 여러 태스크에 가벼운 적응만으로 사용될 수 있다는 점이었고, 이는 태스크마다 별도의 모델을 처음부터 학습하는 대신 더 효율적인 접근을 제시했습니다.
비교적 작은 규모에도 불구하고 GPT-1은 여러 영향력 있는 통찰을 제공했습니다:
GPT-1은 이미 제로샷과 퓨샷 일반화의 초기 흔적을 보였지만, 당시 평가는 여전히 각 태스크별 파인튜닝에 주로 의존했습니다.
GPT-1은 소비자 배포나 광범위한 개발자 API를 목표로 하지 않았습니다. 몇 가지 요인이 연구 단계에 머무르게 했습니다:
그럼에도 GPT-1은 템플릿을 확립했습니다: 대규모 텍스트 코퍼스로 생성형 사전학습을 하고 단순한 태스크별 파인튜닝을 적용하는 방식. 이후의 모든 GPT 모델은 이 최초 모델의 확장이자 정교화로 볼 수 있습니다.
2019년에 공개된 GPT-2는 GPT 계열 중 전 세계적 관심을 가장 먼저 끈 모델입니다. GPT-1의 아키텍처를 1.5B 파라미터로 확장해 트랜스포머 언어 모델의 단순한 확장이 어디까지 갈 수 있는지를 보여주었습니다.
아키텍처적으로 GPT-2는 GPT-1과 매우 유사했습니다: 다음 토큰 예측으로 학습된 디코더 전용 트랜스포머. 핵심 차이는 규모였습니다:
이 같은 규모 증가는 유창성, 긴 문단의 일관성, 프롬프트를 따라 수행하는 능력을 크게 향상시켰습니다.
GPT-2는 많은 연구자들이 “그저” 다음 토큰 예측만으로도 무엇을 할 수 있는지 다시 생각하게 했습니다.
미세조정 없이도 GPT-2는 제로샷으로 다음과 같은 작업을 수행할 수 있었습니다:
프롬프트에 몇 가지 예시를 넣으면(few-shot) 성능이 더 좋아지는 경우가 흔했습니다. 이는 대형 언어 모델이 인컨텍스트 예시를 암묵적 프로그래밍 인터페이스로 사용해 다양한 태스크를 내부적으로 표현할 수 있음을 시사했습니다.
뛰어난 생성 품질은 대형 언어 모델을 둘러싼 공적 논쟁을 촉발했습니다. OpenAI는 처음에 전체 1.5B 모델을 공개하지 않고 다음과 같은 우려를 제기했습니다:
대신 OpenAI는 단계적 공개를 채택했습니다:
이 점진적 접근은 위험 평가와 모니터링을 중심으로 한 초기 AI 배포 정책 사례 중 하나였습니다.
작은 GPT-2 체크포인트조차 오픈소스 프로젝트의 물결을 촉발했습니다. 개발자들은 창작 글쓰기, 코드 자동완성, 실험적 챗봇 등으로 모델을 파인튜닝했고, 연구자들은 편향, 사실 오류, 실패 모드를 조사했습니다.
이러한 실험은 대형 언어 모델을 틈새 연구 산출물에서 범용 텍스트 엔진으로 보는 관점을 바꾸었습니다. GPT-2의 영향은 GPT-3, ChatGPT, 이후 GPT-4급 모델에 대한 기대와 우려를 형성했습니다.
GPT-3는 2020년에 등장했으며 1750억(175B) 파라미터라는 숫자가 화제가 되었습니다. 이는 단순한 암기 능력을 넘어 규모의 확장으로 이전에 보기 어려웠던 행동을 가능하게 했습니다.
GPT-3의 핵심 발견은 인컨텍스트 학습이었습니다. 모델을 새 작업에 맞게 파인튜닝하는 대신 프롬프트에 몇 가지 예시를 붙여 넣을 수 있었습니다:
모델의 가중치는 업데이트되지 않지만 프롬프트 자체를 일종의 임시 학습셋으로 사용했습니다. 이로써 제로샷, 원샷, 퓨샷 프롬프트가 주목받았고, 프롬프트 엔지니어링이라는 개념이 등장해 모델을 수정하지 않고도 더 나은 행동을 유도하는 방법들이 개발되었습니다.
GPT-2와 달리 GPT-3의 가중치는 다운로드 가능하게 공개되지 않았고 주로 상업적 API를 통해 제공되었습니다. OpenAI는 2020년에 OpenAI API의 프라이빗 베타를 시작하며 GPT-3를 개발자가 HTTP로 호출할 수 있는 범용 텍스트 엔진으로 포지셔닝했습니다.
이는 대형 언어 모델을 틈새 연구 산물에서 광범위한 플랫폼으로 바꿨습니다. 자체 모델을 훈련시키는 대신 스타트업과 기업들이 단일 API 키로 아이디어를 프로토타이핑하고 토큰 사용량에 따라 비용을 지불할 수 있게 되었습니다.
초기 도입자들은 다음과 같은 패턴을 빠르게 탐구했습니다:
GPT-3는 단일 범용 모델—API로 접근 가능한—이 다양한 애플리케이션을 구동할 수 있음을 증명해 ChatGPT와 이후 GPT-3.5, GPT-4 시스템의 무대를 마련했습니다.
기본 GPT-3는 인터넷 규모의 텍스트에서 다음 토큰을 예측하는 것만으로 학습되었습니다. 이 목적은 패턴을 이어가는 데는 좋았지만 사용자가 요청한 바를 정확히 수행하는 데는 항상 이상적이지 않았습니다. 사용자는 종종 프롬프트를 정교하게 작성해야 했고, 모델은 다음과 같은 문제를 보였습니다:
연구자들은 사용자가 원하는 것과 모델이 실제로 하는 것 사이의 이 격차를 **정렬 문제(alignment problem)**라 불렀습니다: 모델 행동이 인간의 의도, 가치, 안전 기대와 일관되지 않는다는 뜻입니다.
OpenAI의 **InstructGPT(2021–2022)**는 전환점이었습니다. GPT-3에 단순히 원시 텍스트만 학습시키는 대신 두 가지 주요 단계를 추가했습니다:
그 결과 모델은:
사용자 연구에서, 작은 InstructGPT 모델이 더 큰 비정렬 GPT-3 모델보다 선호된 사례가 있었고, 이는 정렬과 인터페이스 품질이 단순한 규모보다 중요할 수 있다는 교훈을 주었습니다.
**ChatGPT(2022년 말)**는 InstructGPT 접근을 다중턴 대화에 확장한 것입니다. 본질적으로 GPT-3.5급 모델을 대화형 데이터로 SFT 및 RLHF하여 파인튜닝한 형태였습니다.
개발자용 API나 플레이그라운드가 아니라 간단한 채팅 인터페이스를 공개했습니다:
이는 비기술 사용자들의 문턱을 크게 낮췄습니다. 프롬프트 엔지니어링 기술, 코드, 설정 없이도 브라우저에서 바로 사용할 수 있게 되었고, 지시조정과 RLHF는 시스템을 널리 배포하기에 충분히 협력적이고 안전하게 느껴지도록 만들었습니다. 채팅 인터페이스는 연구 모델을 전 세계적 제품과 일상 도구로 바꾸는 계기가 되었습니다.
GPT-3.5는 대형 언어 모델이 주로 연구적 호기심의 대상에서 일상적 유틸리티로 느껴지기 시작한 순간을 표시합니다. GPT-3와 GPT-4의 중간에 위치했지만, 실제 의미는 접근성과 실용성에 있었습니다.
기술적으로 GPT-3.5는 더 나은 학습 데이터, 최적화 업데이트, 광범위한 지시조정을 통해 GPT-3 아키텍처를 정제했습니다. text-davinci-003와 이후 gpt-3.5-turbo를 포함한 시리즈의 모델들은 GPT-3보다 지시를 더 잘 따르고 안전하게 응답하며 다중턴 대화를 더 일관되게 유지하도록 훈련되었습니다.
이는 GPT-4로 가는 자연스러운 디딤돌이었습니다: 일상적 작업에서 더 강한 추론, 더 긴 프롬프트 처리, 더 안정적인 대화 행동을 미리 보여주었지만 GPT-4와 관련된 복잡성과 비용의 전체 도약은 아니었습니다.
2022년 말 공개된 ChatGPT는 GPT-3.5급 모델과 RLHF로 구동되었고, 다음을 크게 개선했습니다:
많은 사람에게 ChatGPT는 대형 언어 모델을 직접 체험하는 첫 경험이었고, “AI 채팅”이 어떤 느낌이어야 하는지에 대한 기대를 설정했습니다.
gpt-3.5-turbo가 기본이 된 이유OpenAI가 API로 gpt-3.5-turbo를 출시했을 때, 가격·속도·성능의 균형이 매력적이었습니다. 이전 GPT-3 모델보다 저렴하고 빠르면서도 지시 따름과 대화 품질이 더 좋았습니다.
이 균형 때문에 gpt-3.5-turbo는 많은 애플리케이션의 기본 선택이 되었습니다:
따라서 GPT-3.5는 대규모로 실제 제품을 가능케 할 만큼 강력하고 경제적이며, 인간 지시와 밀접히 정렬되어 일상 워크플로에서 진정 유용해졌습니다.
2023년에 공개된 GPT-4는 “큰 텍스트 모델”에서 더 강한 추론 능력과 멀티모달 입력을 지닌 범용 어시스턴트로의 전환을 의미했습니다.
GPT-3 및 GPT-3.5와 비교할 때 GPT-4는 단순한 파라미터 수보다는 다음에 더 중점을 두었습니다:
주요 제품군에는 gpt-4 및 이후의 gpt-4-turbo가 포함되며, 후자는 낮은 비용과 지연으로 유사하거나 더 나은 품질을 제공하려 했습니다.
GPT-4의 핵심 기능 중 하나는 멀티모달 능력입니다. 텍스트 입력 외에도 이미지를 받아서:
이로 인해 GPT-4는 텍스트 전용 모델보다 언어로 소통하는 범용 추론 엔진처럼 느껴졌습니다.
GPT-4는 또한 안전과 정렬에 더 강한 비중을 두어 훈련되고 조정되었습니다:
gpt-4 및 gpt-4-turbo 같은 모델들은 고객 지원 자동화, 코딩 어시스턴트, 교육 도구, 지식 검색 등 심도 있는 생산 환경에서 기본 선택이 되었고, 이후 GPT-4o 및 변형들이 효율성과 실시간 상호작용을 더 밀어붙일 기반을 제공했습니다.
GPT-4o("omni")는 “무엇이든 최고로 잘하기 위한 모델”에서 “빠르고 저렴하며 항상 켜져 있는 경험”으로의 전환을 나타냅니다. GPT-4 수준의 품질을 제공하면서도 운영 비용을 크게 낮추고 라이브 상호작용에 적합하도록 설계되었습니다.
GPT-4o는 텍스트, 비전, 오디오를 하나의 모델로 통합합니다. 별도의 구성요소를 이어 붙이는 대신 다음을 본질적으로 처리합니다:
이 통합은 지연과 복잡성을 줄입니다. GPT-4o는 거의 실시간으로 응답하고, 응답을 스트리밍하며, 대화 내에서 모달을 원활히 전환할 수 있습니다.
GPT-4o의 핵심 설계 목표는 효율성이었습니다: 달러당 성능을 개선하고 요청당 지연을 줄이는 것. 이는 다음을 가능하게 합니다:
결과적으로 과거 고가의 API에서만 가능했던 능력들이 학생, 취미 사용자, 소규모 스타트업, 처음 AI를 실험하는 팀에게도 접근 가능해졌습니다.
GPT-4o mini는 일부 최고 성능을 희생하고 속도와 초저비용을 얻어 접근성을 더 확장합니다. 적합한 용도:
4o mini는 경제적이기 때문에 앱 내부, 고객 포털, 내부 도구 혹은 심지어 예산이 제한된 서비스에도 쉽게 탑재될 수 있습니다.
이들 모델은 실시간·대화형·멀티모달 사용 사례에 최첨단 GPT 기능을 확장하며 더 많은 사람들이 실제로 이를 빌드하고 혜택을 누리도록 합니다.
모든 GPT 세대에 걸쳐 몇 가지 기술적 흐름이 반복됩니다: 규모(scale), 피드백, 안전성, 특화입니다. 이들이 합쳐져 각 출시가 단순히 더 커지는 것 이상으로 질적으로 다른 이유를 설명합니다.
GPT 진보의 핵심 발견 중 하나는 스케일링 법칙입니다: 모델 파라미터, 데이터셋 크기, 연산량을 균형 있게 늘리면 많은 태스크에서 성능이 매끄럽고 예측 가능하게 개선된다는 것.
초기 모델들은 다음을 보여주었습니다:
따라서 체계적 접근이 따라왔습니다:
원시 GPT 모델은 강력하지만 사용자 기대에 무관심할 수 있습니다. RLHF는 이들을 도움이 되는 어시스턴트로 재형성합니다:
시간이 흐르며 이는 지시조정 + RLHF로 진화했습니다: 먼저 다수의 지시–응답 쌍으로 미세조정한 뒤 RLHF로 행동을 정제합니다. 이 조합은 ChatGPT 스타일 상호작용의 핵심입니다.
능력이 커짐에 따라 체계적 안전성 평가와 정책 시행의 필요성도 커졌습니다.
기술적 패턴은 다음을 포함합니다:
이들 메커니즘은 반복적으로 개선됩니다: 새로운 평가가 실패 모드를 발견하면 훈련 데이터, 보상 모델, 필터에 피드백됩니다.
초기 공개는 하나의 ‘주력’ 모델과 몇몇 소형 변형에 집중했지만, 시간이 지나면서 추세는 **여러 모델 군(families)**으로 이동했습니다:
핵심은 공유된 기반 아키텍처와 훈련 파이프라인 위에 목표 기반 파인튜닝과 안전 레이어를 얹어 포트폴리오를 만드는 것입니다. 이 다중 모델 전략은 이제 GPT 진화의 정의적 기술·제품적 경향입니다.
GPT 모델은 언어 기반 AI를 틈새 연구 도구에서 많은 사람이 기반으로 삼는 인프라로 바꿨습니다.
개발자 관점에서 GPT 모델은 유연한 “언어 엔진”처럼 작동합니다. 규칙을 손으로 코딩하는 대신 자연어 프롬프트를 보내 텍스트, 코드, 구조화된 출력을 받을 수 있습니다.
이는 소프트웨어 설계를 변화시켰습니다:
그 결과 많은 제품이 GPT를 핵심 구성요소로 삼게 되었습니다.
기업들은 내부적으로나 고객 대면 제품에서 GPT를 사용합니다.
내부적으로는 지원 티켓 분류, 이메일·보고서 초안, 프로그래밍·QA 보조, 문서·로그 분석 자동화 등에 활용합니다. 외부적으로는 챗봇, 생산성 도구의 AI 코파일럿, 코딩 어시스턴트, 콘텐츠·마케팅 도구, 금융·법률·의료 분야의 도메인 특화 코파일럿 등에 GPT가 적용됩니다.
API와 호스팅 제품 덕분에 인프라나 모델 학습을 관리하지 않고도 고급 언어 기능을 추가할 수 있어 중소 조직의 진입 장벽을 낮췄습니다.
연구자들은 아이디어 브레인스토밍, 실험용 코드 생성, 논문 초안 작성에 GPT를 사용합니다. 교육자와 학생은 설명, 연습 문제, 튜터링, 언어 지원에 GPT를 활용합니다.
작가, 디자이너, 창작자는 개요 작성, 아이데이션, 세계관 구축, 초안 다듬기에 GPT를 보조자로 사용합니다. 모델은 대체가 아니라 탐색을 가속하는 협업자에 가깝습니다.
GPT 모델의 확산은 심각한 우려도 동반합니다. 자동화는 일부 일자리를 변화시키거나 대체할 수 있고, 새로운 기술·역량 수요를 촉발합니다.
또한 GPT는 사람 데이터를 학습하기 때문에 적절히 제약하지 않으면 사회적 편향을 반영·증폭할 수 있습니다. 그 밖에도 그럴싸하지만 틀린 정보를 생성하거나 대규모로 스팸·선전 목적으로 악용될 수 있습니다.
이러한 위험은 정렬 기법, 사용 정책, 모니터링, 탐지·출처 추적 도구 개발을 촉발했습니다. 강력한 애플리케이션과 안전·공정성·신뢰 사이의 균형을 맞추는 것이 여전히 진행 중인 과제입니다.
GPT 모델 능력이 커짐에 따라 핵심 질문은 "우리가 구축할 수 있나?"에서 "어떻게 구축·배포·거버넌스할 것인가?"로 이동하고 있습니다.
효율성과 접근성. GPT-4o와 GPT-4o mini는 고품질 모델이 저비용으로, 더 작은 서버나 개인 장치에서 동작할 가능성을 시사합니다. 핵심 질문:
개인화(퍼스널라이제이션)와 과적합 방지. 사용자는 선호도, 스타일, 워크플로를 기억하는 모델을 원하지만 데이터 유출이나 편향 과적합 없이 수행해야 합니다. 질문들:
신뢰성과 추론. 최상위 모델들도 여전히 헐루시네이션을 하거나 분포 변화에 취약합니다. 연구는 다음을 탐구합니다:
대규모 안전성·정렬. 모델이 도구와 자동화를 통해 더 많은 대행성을 얻을수록 인간 가치와 정렬시키고 업데이트 과정에서도 정렬을 유지하는 문제는 미해결 과제입니다. 문화적 다원성도 고려해야 합니다: 어떤 가치와 규범이 인코딩되는가, 의견 불일치는 어떻게 처리되는가?
규제와 표준. 정부와 업계 단체는 투명성, 데이터 사용, 워터마킹, 사고 보고 등에 관한 규칙을 제정하고 있습니다. 남은 질문들:
미래의 GPT 시스템은 더 효율적이고 개인화되며 조직과 도구에 더 밀접히 통합될 가능성이 큽니다. 동시에 더 공식화된 안전 관행, 독립적 평가, 사용자 제어가 늘어날 것입니다. GPT-1에서 GPT-4까지의 역사는 꾸준한 진보를 보여주지만, 기술적 발전은 거버넌스·사회적 입력·실제 영향의 면밀한 측정과 함께 진행되어야 한다는 점도 시사합니다.
GPT(Generative Pre-trained Transformer) 모델은 시퀀스에서 다음 단어를 예측하도록 훈련된 대형 신경망입니다. 대규모 텍스트 말뭉치로 이를 학습하면 문법, 문체, 사실, 추론 패턴을 익힐 수 있습니다. 학습 후에는 다음을 수행할 수 있습니다:
역사를 알면 다음을 명확히 이해할 수 있습니다:
또한 현실적인 기대치를 세우는 데 도움이 됩니다: GPT는 강력한 패턴 학습기이지 무오류의 권위자는 아닙니다.
주요 이정표는 다음과 같습니다:
지시조정과 RLHF는 모델을 사람의 기대에 더 맞게 만듭니다.
결과적으로:
GPT-4는 이전 모델들과 여러 면에서 다릅니다:
이 변화들은 GPT-4를 단순 텍스트 생성기를 넘어 범용 어시스턴트로 밀어올렸습니다.
GPT-4o와 GPT-4o mini는 성능 최적화보다 속도, 비용, 실시간 사용에 최적화되어 있습니다.
이들은 고급 GPT 기능을 더 넓은 사용자층과 더 많은 애플리케이션에 경제적으로 제공하게 합니다.
개발자들이 GPT 모델을 제품에 통합하는 일반적인 방식:
API를 통해 제공되므로 자체적으로 대형 모델을 훈련·호스팅하지 않고도 기능을 통합할 수 있습니다.
현재 GPT 모델의 주요 한계는 다음과 같습니다:
중대한 사용에서는 출력 검증, 검색·검증 도구와의 결합, 인간 감독이 필요합니다.
앞으로의 방향성으로 문서가 강조하는 항목들:
전반적으로 더 능력 있고 제어 가능한 시스템으로 나아가되, 안전성과 책임성도 병행되어야 한다는 전망입니다.
팀이 GPT를 안전하고 효과적으로 쓰려면 다음을 권장합니다:
즉, GPT의 강점을 안전 장치와 좋은 제품 설계로 보완하는 것이 중요합니다.