
요약:
오픈AI가 새롭게 공개한 오픈소스형 대형 언어모델 'gpt-oss'의 의의와 파장을, 신정규 Lablup 대표와 함께 심도 있게 논의합니다. 공개의 배경, AI 산업 구조 변화, 기술 세부사항, 한국·중국의 대응 및 미래 전망까지 폭넓게 다룹니다. 특히 신정규 대표의 개발자 심경 변화와 'AI를 잘 쓰는 것'의 의미가 인상적으로 그려집니다.
이번 에피소드는 오픈AI(OpenAI)가 새롭게 오픈웨이트 모델인 gpt-oss를 전격 공개함에 따라 긴급하게 마련된 자리입니다. 신정규 대표와 함께 참석자들이 각자의 소감을 나누며, 오픈AI가 GPT-2 이후 처음으로 모델 자체를 공개한 상황의 의미를 조명합니다.
"이번 gpt-oss 공개는 GPT-2 이후 처음 있는 일입니다."
오픈AI가 굳이 이 시점에 오픈소스 모델을 내놓은 배경에는 다양한 요인들이 있습니다. 내부적으로는 사회·경제적 압박과 함께, 대규모 자본 유치를 위한 경쟁 심화가 작용했고, 외부적으로는 DeepSeek 등 중국발 경쟁 모델의 급부상이 오픈AI의 독점적 기술 우위를 위협한 것이 주요 계기가 되었습니다.
"DeepSeek가 내부 레시피를 공개하면서 시장에서 오픈AI의 기술적 우위가 약화됐죠."
또한, OpenAI 내부에서도 모델 공개를 둘러싼 논란과 피로감, 그리고 조직의 사명감에 관한 고민이 컸음을 언급합니다.
DeepSeek가 공개한 모델 레시피와 기술은 AI 생태계에 큰 파장을 일으켰습니다. 이로 인해 "누구나 reasoning 모델을 만들 수 있는 시대"가 도래했고, 이에 대응한 오픈AI의 공개 결정 역시 불가피했습니다. DeepSeek의 영향으로 NVIDIA와 오픈AI 양측이 타격을 받았으나, NVIDIA는 이를 "Sovereign AI" 흐름과 연결하며 새로운 성장 동력으로 삼았습니다.
"NVIDIA는 '너희도 DeepSeek 같은 것 만들 수 있어'라며 주도권을 되찾았죠."
이러한 맥락에서, Sovereign AI(국가 주권 AI) 구축을 위한 흐름이 전세계적으로 확대 중이며, 한국에서도 대형 프로젝트들이 진행되고 있습니다.
gpt-oss의 공개와 달리, 중국발 모델들은 점점 까다로워지는 라이선스 조건과 국가별 사용 제한이 특징적입니다.
"최근 중국 모델 중에는 '한국, 영국, 유럽에서는 쓰지 마라'는 식의 국가 제한 조건이 붙고 있습니다."
반면 gpt-oss는 Apache 2.0 라이선스라는 파격적 자유를 부여하여, 학계, 산업계 등 다양한 주체들에게 활용의 문을 넓혀주었습니다. 실제로 신정규 대표는 이번 모델 공개가 "모델 자체보다, 데이터와 레시피, 아키텍처 선택 등 세세한 부분까지 공개한 점이 특히 의미 있다"고 강조합니다.
"코드를 보고 배우는 것뿐 아니라, 선택과 노하우가 굉장히 많은 힌트를 줍니다."
gpt-oss는 다국어 성능, 특히 한국어·독일어 등에서는 미흡함이 관찰됐지만, 오픈AI 측이 파인튜닝(미세조정)에 관한 자세한 가이드와 코드를 제공하여 자국어 데이터로 커스터마이즈가 가능함을 강조합니다.
"토크나이저는 이미 작년부터 한국어를 잘 반영하고 있습니다. 문제는 데이터 처리와 튜닝, 이 과정에서 성능 저하도 자주 나타나요."
파인튜닝 실무의 어려움도 솔직히 드러냅니다. 이미 많은 개발자들이 이 레시피와 아키텍처를 즉각 분석하고 활용하기 시작했으며, 그와 동시에 여러 실험 결과와 노하우들이 빠르게 공유될 것으로 내다봅니다.
gpt-oss의 가장 큰 아키텍처 특징은 MoE(Mixture of Experts) 구조 도입입니다.
"요즘 트렌드는 MoE입니다. 예전엔 크게 관심이 없었지만, 중국에서 대규모로 MoE를 돌려보고 실효성을 보여주면서 최근 급격히 주목받고 있어요."
MoE에서 '전문가(Expert)'라는 개념은 "특정 분야의 스페셜리스트"가 아니라, 여러 부분 모델(서브네트워크) 중 일부만 활성화하는 방식이라는 점이 오해 없이 잘 설명됩니다.
"MoE에서 Expert란 단순히 분산처리의 하나일 뿐, '나는 수학 잘해' 같은 건 아니에요."
여기에, 모델 서빙 인프라의 혁신적인 변화(모델 분할, GPU farm 구조, 프리필-디코드 파이프라인 분리, context caching 등)와 함께, 최근 화제가 된 'Attention Sink(소프트맥스-1)' 기법과 비정형적인 local attention 구조 등도 소개됩니다.
"이번에 Attention Sink를 도입해서 곧 모든 모델이 따라갈 거라 봅니다. 채택이 너무 쉬우니까요!"
최근 AI 생태계는, 모델이 폭발적으로 늘어나고 지속적으로 진화하는 양상을 보이고 있습니다.
"지난 3주동안 50개 기반 모델이 나왔고, 앞으로 이 숫자는 세는 것 자체가 무의미해질 겁니다."
이 가운데 개발사들은 점차 BEP(손익분기점)이 눈앞에 들어오기 시작했습니다. 가장 큰 수익원은 "코딩" 분야라고 밝히며, 코딩에서 AI 활용이 폭증하고, 실제 API 매출이 단기간 20~30배 성장한 사례도 등장했습니다.
"BEP가 눈에 보이면 회사의 모드가 완전히 바뀝니다. 지금은 짧은 거리 전력질주(스프린트) 단계에요."
다음 빅마켓은 멀티모달(텍스트·음성·비디오 등 통합) AI입니다. 텍스트, 음성, 비디어 순으로 데이터 규모가 폭증하며, AI 활용이 일상 전반으로 확장될 것으로 전망합니다.
"멀티모달 도입 시 토큰·데이터 소비량이 수천 배로 뛸 거라, 컴퓨팅 성능이 절대적으로 중요해집니다."
NVIDIA는 4비트 부동소수점(FP4) 처리 능력에 올인하며 블랙웰(Blackwell) 아키텍처로 승부를 걸었고, Apple은 아직 8비트 이하 네이티브 지원이 약한 점에서 '아쉬움'을 토로합니다. 또한 Google은 TPU와 수직계열화, INT8 기반 파이프라인 등으로 독특한 경쟁력을 확보했습니다.
"NVIDIA의 FP4는, 모델의 부정확성을 감수하면서도 20배 가까이 속도 향상! 블랙웰이 대박 터트렸죠."
"Google은 모델 개발-서빙 자동화를 공장처럼 구축해, 지식의 최신성을 유지하는 게 큰 강점입니다."
gpt-oss의 흐름을 이어, GPT-5 발표가 임박했다는 전망과 함께, 지금 frontier labs에서 내놓을 모델 스케일의 한계, MoE 기반 모델의 서빙 최적화, 내부 distillation, AGI에 대한 논의 등도 등장합니다.
"200B~250B가 실서비스에서 운영 가능한 최적점. 그 이상은 장애 위험이 급증합니다."
"AGI를 노린다면 단위가 '억'이 아니라 '조'로 간다더군요. 먼저 크게 만들고, 나중에 축소(distill)하는 방식도요."
토론의 말미, 신정규 대표는 지난 몇 달간 경험한 개발자로서의 우울감과 새로운 각성을 진솔하게 전달합니다. AI 코딩 지원 툴의 발전(Claude Code, Copilot, Gemini CLI 등)로 인해 "내 평생의 코딩이 무의미해지는 건가" 하는 실존적 고민을 거쳤지만, "어차피 오는 변화, 먼저 즐기자"라는 마음가짐으로 전환했다는 메시지가 인상적입니다.
"과거에는 진짜로 내가 코드로 뭔가 만들어내는 느낌이었는데, 이젠 AI에게 일 시키고 내가 지휘만 하면 되더라구요."
"새 시대엔 AI를 얼마나 잘 쓰는지가 나의 위치를 결정하는 시금석이 될 겁니다."
수백만 토큰을 매일 활용하는 회사 내부 해커톤 진행 경험, 토큰 경제·플랜의 진화, 자동화와 생산성의 급상승 등 구체적 경험담도 함께 공유합니다.
"이제 문서화, 프레젠테이션, 코드, 심지어 번역도 다 AI에게 위임합니다. 내가 직접 할 일은 지시와 검토뿐이죠!"
"만약 이 시대에 살아남고 싶다면 얼마나 많은 토큰을 쓰고, AI를 적극적으로 활용하느냐가 기준이 될 겁니다."
마지막으로, gpt-oss의 손쉬운 복제 가능성, "프론티어는 더이상 저 멀리 있지 않다"는 자극, '진짜 무기는 보여주지 않는다'는 AI 리더 기업의 전략을 짚으며, 모든 청취자들에게 *다가오는 AI 혁신의 파도를 두려워하지 말고 먼저 즐기라!*는 긍정 메시지를 남기며 에피소드를 마무리합니다.
gpt-oss의 등장은 오픈AI 생태계의 새로운 전환점이자, AI 질주 시대의 본격 레이스 시작을 알립니다. 한국과 세계 모두에게 중요한 이정표이며, 모든 테크 인재와 조직은 "AI를 얼마나 잘 쓰느냐"를 미래 경쟁력의 핵심으로 여기게 될 것임을 잊지 맙시다! 🚀
"올 거면 어차피, 다 같이 즐깁시다!"