목차
- GPT-5 출시 배경과 모델 계보
- GPT-5 출시 주요 변경사항 비교 기준
- 컨텍스트 윈도우 변화 비교
- GPT-5.4 패밀리 라인업 분석
- openai-python SDK Breaking Change 상세
- GPT-5 Pro와 GPT-5.5 신규 기능
- GPT-5 Reasoning Effort 설정과 활용
- GPT-5 시리즈 전체 변경 타임라인과 마이그레이션 포인트
결론부터 말하면, GPT-5 출시 주요 변경사항 정리의 핵심은 세 가지다. 첫째, 컨텍스트 윈도우가 입력 200K·출력 100K 토큰으로 확대되었다. 둘째, GPT-5.4 패밀리가 풀사이즈·미니·나노 3종 라인업으로 분화되면서 비용 최적화 선택지가 생겼다. 셋째, openai-python SDK에서 prompt_cache_key 파라미터가 제거되는 breaking change가 발생했기 때문에 기존 코드를 그대로 사용하면 에러가 발생하는 경우가 있다. 이 글에서는 GPT-5(2025-08-07 버전)부터 GPT-5.5(2026-04-23)까지의 변경사항을 비교 기준별로 나눠 정리한다.
GPT-5 출시 배경과 모델 계보
GPT-5는 2025년 8월 7일에 출시되었다. 학습 데이터 컷오프는 2024년 10월이며, GPT-5 Azure 모델 마켓플레이스 페이지에서 모델 상세 스펙을 확인할 수 있다. 멀티모달(텍스트+이미지) 입력을 기본 지원하고, 함수 호출(allowed tools·preamble), 구조화된 출력(Structured Outputs), 스트리밍, reasoning effort 설정(high/medium/low/minimal)이 포함된 것이 핵심이다.
이후 약 7개월 동안 GPT-5 시리즈는 빠르게 분화되었다. 2026년 3월 5일에 openai-python v2.25.0과 함께 gpt-5.4가 등장했고, 같은 달 17일에는 gpt-5.4-nano와 gpt-5.4-mini가 추가되는 방식이다. 2026년 4월 23일에는 GPT-5.5(코드네임 ‘Spud’)가 공개되면서 컨텍스트 윈도우가 1M 토큰으로 대폭 확대되었다.
GPT-5(2025-08) → GPT-5.4(2026-03-05) → GPT-5.4-mini/nano(2026-03-17) → GPT-5.5(2026-04-23) 순서로 계보가 이어진다. 각 단계마다 컨텍스트 윈도우, 지원 기능, SDK 호환성이 달라지므로 배포 전 버전을 명시적으로 확인해야 한다.
스타트업 환경에서 모델 선택은 곧 인프라 비용과 직결된다. GPT-5 시리즈가 한 모델이 아니라 용도별 라인업으로 나뉜 점은 기술 선택 시 반드시 고려해야 할 부분이 된다.
GPT-5 출시 주요 변경사항 비교 기준
GPT-5 출시 주요 변경사항을 비교하려면 기준부터 명확히 설정해야 한다. 이 글에서는 다음 네 가지 축으로 나누어 분석을 진행한다.
컨텍스트 윈도우와 토큰 한도
모델별로 입력·출력 토큰 한도가 크게 다르다. GPT-5 기본 모델은 입력 200K·출력 100K인 반면, GPT-5 Pro는 입력 400K·출력 272K, GPT-5.5는 1M 토큰 컨텍스트를 지원하는 것으로 알려져 있다. 어떤 모델을 선택하느냐에 따라 프롬프트 설계 전략이 완전히 달라지는 셈이다.
지원 기능 범위
모든 GPT-5 시리즈가 동일한 기능을 지원하는 것은 아니다. GPT-5 Pro는 Responses API 전용으로 제공되며 스트리밍과 Code Interpreter를 지원하지 않는다. GPT-5.5는 MCP(Model Context Protocol), 웹 검색, hosted shell까지 포함하는 등 지원 범위가 가장 넓은 편이다.
SDK 호환성과 Breaking Change
openai-python SDK 버전에 따라 사용 가능한 모델과 파라미터가 달라진다. 특히 v2.25.0에서 prompt_cache_key가 제거된 것은 기존 프로덕션 코드에 직접적 영향을 주는 변경이다.
모델 라인업과 용도 분화
GPT-5.4는 풀사이즈·미니·나노로 3종 분화되었다. 이 구조는 비용 대비 성능 최적화가 가능하다는 의미이기도 하지만, 모델 선택에 대한 의사결정 복잡도가 높아졌다는 뜻이기도 한 것이다.
컨텍스트 윈도우 변화 비교

GPT-5 시리즈에서 가장 눈에 띄는 변경사항은 컨텍스트 윈도우의 단계적 확대다.
| 모델 | 입력 토큰 | 출력 토큰 | 비고 |
|---|---|---|---|
| GPT-5 (2025-08) | 200K | 100K | 기본 멀티모달 |
| GPT-5 Pro | 400K | 272K | Responses API 전용 |
| GPT-5.5 (2026-04) | 1M | 미확인 | 코드네임 Spud |
GPT-5 기본 모델의 200K 입력 토큰도 이전 세대 대비 상당한 확장이었지만, GPT-5 Pro에서 400K, GPT-5.5에서 1M으로 급격하게 늘어난 것이 특징이다. 1M 토큰이면 일반적인 코드베이스 전체를 한 번에 넣을 수 있는 수준이 된다.
GPT-5 Pro는 입출력 토큰이 가장 넉넉하지만, 스트리밍을 지원하지 않고 Code Interpreter도 사용할 수 없다. 실시간 응답이 필요한 채팅 인터페이스에는 적합하지 않은 구조다. Responses API 전용이라는 점도 기존 Chat Completions API 기반 코드와 호환되지 않는 것을 의미한다.
다만 컨텍스트 윈도우가 넓다고 항상 좋은 것은 아니다. 토큰 수에 비례해 API 호출 비용이 증가하고, 긴 컨텍스트에서 모델이 중간 부분의 정보를 놓치는 “lost in the middle” 현상이 여전히 존재할 수 있기 때문이다. GPT-5 시리즈의 공식 가격 정책은 현재 공식 문서에서 확인이 제한되어 있으므로, 실제 비용 산정 시 OpenAI 가격 페이지를 직접 확인해야 한다.
GPT-5.4 패밀리 라인업 분석
2026년 3월, GPT-5.4 패밀리가 등장하면서 GPT-5 시리즈는 본격적인 라인업 분화 단계에 진입했다. openai-python 릴리스 페이지에서 확인할 수 있듯이 v2.29.0(2026-03-17)에서 gpt-5.4-nano와 gpt-5.4-mini 모델 슬러그가 추가되었다.
3종 라인업 구조
GPT-5.4 패밀리
├── gpt-5.4 ← 풀사이즈 (최고 성능)
├── gpt-5.4-mini ← 중간 (성능-비용 균형)
└── gpt-5.4-nano ← 경량 (최저 비용·최저 지연)
이 구조는 Google의 Gemini 시리즈(Pro·Flash·Nano)나 Anthropic의 Claude 시리즈(Opus·Sonnet·Haiku)와 유사한 티어링 전략이다. 풀사이즈 모델은 복잡한 추론과 코드 생성에 적합하고, mini는 일반적인 대화형 서비스에, nano는 분류·요약 같은 경량 태스크에 사용하는 방식이 된다.
모델 선택 매트릭스
스타트업 환경에서 모델 선택 시 고려해야 할 요소를 정리하면 다음과 같다.
| 기준 | gpt-5.4 | gpt-5.4-mini | gpt-5.4-nano |
|---|---|---|---|
| 추론 복잡도 | 높음 | 중간 | 낮음 |
| 예상 지연시간 | 높음 | 중간 | 낮음 |
| 비용 효율 | 낮음 | 중간 | 높음 |
| 적합 용도 | 코드 생성, 복잡 분석 | 채팅, 일반 QA | 분류, 요약, 라우팅 |
공식 가격 정책이 현재 공식 문서에서 확인되지 않는 상태이므로 위 표의 비용 항목은 일반적인 모델 티어링 패턴에 기반한 추정이다. 실제 도입 전 OpenAI 가격 페이지에서 정확한 수치를 확인해야 한다.
프로덕션에서는 요청 복잡도에 따라 모델을 자동 선택하는 라우터 패턴으로 API 호출 비용을 절감할 수 있다. 간단한 의도 분류는 gpt-5.4-nano로 처리하고, 복잡한 코드 리뷰는 gpt-5.4 풀사이즈로 라우팅하면 비용을 크게 줄이면서도 품질을 유지할 수 있게 되는 것이다.

GPT-5 출시 주요 변경사항 정리에서 가장 주의해야 할 부분이 바로 SDK 레벨의 breaking change다. openai-python v2.25.0(2026-03-05)에서 발생한 변경사항은 기존 프로덕션 코드에 직접적 영향을 준다.
prompt_cache_key 파라미터 제거
openai-python v2.25.0 릴리스 노트에 명시된 바와 같이, prompt_cache_key 파라미터가 responses에서 제거되었다. 이 파라미터를 사용해 프롬프트 캐싱을 관리하던 코드는 v2.25.0 이상으로 업그레이드하면 에러가 발생한다.
기존에 prompt_cache_key를 Responses API 호출 시 전달하고 있었다면, 해당 파라미터를 제거하거나 OpenAI가 제공하는 대체 캐싱 메커니즘으로 전환해야 하는 상황이다. 공식 문서에서 대체 방법에 대한 상세 마이그레이션 가이드는 현재 접근이 제한되어 있어 확인이 어려운 상태다.
phase 필드 일시 제거 후 재추가
같은 v2.25.0에서 phase 필드가 메시지 타입에서 일시 제거되었다가 재추가되기도 했다. 이런 변경은 타입 체크가 엄격한 TypeScript 프로젝트나 Pydantic 기반 검증 로직에서 예상치 못한 에러를 유발할 수 있다.
v2.25.0 이상으로 업그레이드하기 전에 반드시 확인해야 할 사항이 있다. 코드베이스에서 `prompt_cache_key`를 사용하는 곳이 있는지 검색하고, `phase` 필드에 의존하는 타입 정의가 있는지 점검해야 한다. CI 파이프라인에서 SDK 버전을 고정(pinning)하고 있다면 테스트 환경에서 먼저 업그레이드를 검증하는 것이 안전하다.
breaking change만 있었던 것은 아니다. 같은 릴리스에서 tool search 도구와 새로운 computer tool이 추가되었다. tool search는 사용 가능한 도구 목록에서 적절한 도구를 모델이 자체적으로 검색·선택하는 기능이고, computer tool은 컴퓨터 조작(마우스 클릭, 키보드 입력 등)을 모델이 수행할 수 있도록 하는 도구에 해당한다.
이 신규 도구들은 에이전트(Agent) 패턴에서 함수 호출 없이 도구 탐색과 컴퓨터 조작을 직접 수행하는 기반이 된다. 기존에는 함수 호출(function calling)만으로 외부 시스템과 상호작용했다면, tool search와 computer tool의 추가로 모델이 더 자율적으로 태스크를 수행할 수 있는 기반이 마련된 것이다.
GPT-5 Pro와 GPT-5.5 신규 기능
GPT-5 Pro
GPT-5 Pro는 Responses API 전용으로 제공되는 고성능 모델이다. 입력 400K·출력 272K 토큰을 지원하며, Web Search, Function Calling, Vision, PDF Input, Prompt Caching, Reasoning 기능이 포함되어 있다. 다만 스트리밍과 Code Interpreter는 지원하지 않는다.
Responses API 전용이라는 점은 기존 Chat Completions API 기반으로 구축된 시스템에서는 API 호출 방식 자체를 변경해야 한다는 의미가 된다. 스트리밍 미지원도 실시간 채팅 서비스에서는 치명적인 제약이다. GPT-5 Pro는 배치 처리, 문서 분석, 대규모 데이터 추론처럼 응답 지연이 허용되는 워크로드에 적합한 포지셔닝인 셈이다.
| 기능 | GPT-5 | GPT-5 Pro | GPT-5.5 |
|---|---|---|---|
| 입력 토큰 | 200K | 400K | 1M |
| 출력 토큰 | 100K | 272K | 미확인 |
| 스트리밍 | ✅ | ❌ | ✅ |
| Code Interpreter | 미확인 | ❌ | 미확인 |
| Function Calling | ✅ | ✅ | ✅ |
| Structured Outputs | ✅ | 미확인 | ✅ |
| Web Search | 미확인 | ✅ | ✅ |
| MCP 지원 | ❌ | 미확인 | ✅ |
| Prompt Caching | ✅ | ✅ | ✅ |
| Computer Use | 미확인 | 미확인 | ✅ |
GPT-5.5 — 코드네임 Spud
GPT-5.5는 2026년 4월 23일에 공개된 최신 모델로, 1M 토큰 컨텍스트 윈도우가 가장 큰 특징이다. 이미지 입력, 구조화된 출력, 함수 호출, prompt caching, Batch API를 기본 지원하며, tool search, 내장 computer use, hosted shell, MCP(Model Context Protocol), 웹 검색까지 포함하는 것으로 알려져 있다.
MCP는 모델이 외부 데이터 소스와 도구에 표준화된 프로토콜로 접근하는 규격이다. GPT-5.5에 내장됨으로써 LangChain 같은 중간 어댑터 없이 MCP 호환 서버에 직접 연결할 수 있게 된다.
GPT-5.5의 상세 스펙은 공식 API 문서가 아닌 커뮤니티 소스에서 확인된 내용이다. 프로덕션 도입 전에 OpenAI 공식 문서에서 최종 스펙을 반드시 재확인해야 한다. 공식 문서(platform.openai.com)는 현재 일부 접근이 제한되어 있어 확인이 어려운 상태이기도 하다.
GPT-5 Reasoning Effort 설정과 활용
GPT-5에서 새롭게 도입된 reasoning effort 설정은 모델의 추론 깊이를 제어하는 파라미터다. high, medium, low, minimal 네 단계를 지원하며, 태스크의 복잡도에 따라 적절한 수준을 선택할 수 있다.
단계별 용도
reasoning effort 설정
┌──────────┬────────────────────────────────────┐
│ high │ 복잡한 수학, 다단계 논리 추론 │
│ medium │ 일반적인 코드 생성, 분석 │
│ low │ 간단한 QA, 요약 │
│ minimal │ 분류, 키워드 추출, 라우팅 판단 │
└──────────┴────────────────────────────────────┘
reasoning effort를 낮추면 응답 속도가 빨라지고 토큰 소비가 줄어드는 반면, 복잡한 문제에서 정확도가 떨어질 수 있다. 반대로 high로 설정하면 모델이 더 깊이 생각하지만, 응답 시간과 비용이 증가하는 방식이다.
이 설정은 앞서 설명한 라우터 패턴과 결합하면 효과가 극대화된다. 예를 들어 gpt-5.4-nano + minimal로 1차 분류를 수행하고, 복잡한 요청만 gpt-5.4 + high로 전달하는 2단계 구조를 구성할 수 있게 되는 것이다. reasoning effort의 상세 사용법과 파라미터 전달 방식에 대한 공식 코드 예제는 현재 공식 문서에서 확인이 제한되어 있다.
프로덕션에서는 먼저 medium으로 시작하고, 정확도 메트릭을 모니터링하면서 단계적으로 조정하는 접근이 실용적이다. 모든 요청에 high를 적용하면 비용이 불필요하게 증가하고, 모든 요청에 minimal을 적용하면 품질 문제가 발생할 수 있다.
GPT-5 시리즈의 출시 이후 변경사항을 시간순으로 정리하면 다음과 같다.
flowchart TB
A["GPT-5 출시<br/>2025-08-07<br/>200K/100K 토큰"] --> B["openai-python v2.25.0<br/>2026-03-05<br/>gpt-5.4 + breaking change"]
B --> C["openai-python v2.29.0<br/>2026-03-17<br/>gpt-5.4-mini/nano 추가"]
C --> D["GPT-5.5 공개<br/>2026-04-23<br/>1M 토큰, MCP 지원"]
GPT-4o나 GPT-4.1에서 GPT-5 시리즈로 마이그레이션할 때 주의해야 할 포인트는 여러 가지가 존재한다. 다만 GPT-4o/4.1에서 GPT-5로의 마이그레이션 시 발생하는 breaking change 상세 목록은 공식 문서에서 확인이 제한되어 있어, 현재로서는 SDK 릴리스 노트에서 확인 가능한 범위 내에서만 정리가 가능하다.
확인된 주요 마이그레이션 체크 항목은 다음과 같다.
| 체크 항목 | 상세 | 영향 범위 |
|---|---|---|
prompt_cache_key 제거 | v2.25.0에서 responses 파라미터에서 삭제 | 캐싱 로직 전체 |
phase 필드 변경 | 일시 제거 후 재추가, 타입 정의 변동 | TypeScript/Pydantic 타입 검증 |
| Responses API 전용 모델 | GPT-5 Pro는 Chat Completions API 미지원 | API 호출 방식 전환 필요 |
| 모델 슬러그 변경 | gpt-5 → gpt-5.4 → gpt-5.4-mini/nano | 모델 지정 문자열 수정 |
GPT-5 시리즈 API의 가격 정책(토큰당 비용) 공식 수치는 현재 확보되지 않은 상태다. 비용 민감한 스타트업 환경에서는 도입 전 반드시 OpenAI 공식 가격 페이지에서 최신 단가를 확인한 뒤 예산을 산정해야 한다.
GPT-5.5의 MCP 지원이 안정화되면 에이전트 아키텍처 설계 방식이 크게 달라질 수 있다. 현재는 LangChain이나 자체 오케스트레이션 레이어에서 도구 연결을 관리하는 패턴이 일반적이지만, 모델 레벨에서 MCP를 직접 지원하면 중간 레이어의 복잡도가 줄어드는 구조가 된다. 그리고 GPT-5.4 패밀리의 3종 라인업을 활용한 비용 최적화 전략, Gemini나 Claude 같은 경쟁 모델과의 기능·가격 비교도 모델 선택 시 함께 검토해야 할 영역이다. GPT-5 출시 주요 변경사항 정리는 결국 자신의 워크로드에 맞는 모델·SDK 버전·API 방식의 조합을 찾는 과정인 셈이다.
관련 글
- GPT-5 Codex CLI 사용법 7단계 — Rust 설치·config.toml·모델 선택 완전 정복 – GPT-5 Codex는 기존 TypeScript CLI에서 Rust 구현으로 전환되었다. 설치, config.toml 설정, 샌드박스 정책…
- Gmail Gemini 데이터 보안 — 개인 계정과 Workspace의 정책 차이 총정리 – Gmail에 통합된 Gemini는 계정 유형에 따라 데이터 처리 정책이 완전히 다르다. 개인 계정과 Workspace, Gemini API…