H
하베스트
AI로 요약된 콘텐츠

AGI(범용 인공지능), 아직 코앞은 아니다 – 2025년 시점의 신중한 전망

요약:
이 영상은 AGI(범용 인공지능)가 곧 도래할 것이라는 낙관론에 반박하며, LLM과 현재 AI가 가진 한계—특히 '지속적 학습(continual learning)'의 결여—가 경제적 변화를 제약한다는 점을 강조한다. 저자는 실제 경험과 전문가 인터뷰, 기술 트렌드를 토대로 2030년대까지는 진정한 의미의 AGI나 인간같은 일 처리 능력에 도달하기 어렵다고 전망한다. 그러나 지속적 학습이 실현되는 순간, 압도적인 변화가 일어날 수 있음을 시사한다.


1. AGI를 둘러싼 논쟁과 현주소

영상의 시작에서, 화자는 자신의 팟캐스트에서 자주 등장하는 주제, 즉 AGI 도달 시점에 대해 다양한 의견이 있음을 소개한다.
"어떤 게스트는 20년 후, 어떤 게스트는 2년 이내라고 합니다."
이에 비해, 본인은 2025년 7월 기준으로 좀 더 회의적인 입장임을 밝힌다.

많은 사람들이 "비록 AI의 발전이 여기서 멈춘다 해도, 현재의 시스템만으로도 인터넷보다 훨씬 더 경제적으로 변혁적"이라고 말하지만, 그는 이에 동의하지 않는다.

"현재의 LLM은 마법 같기는 하지만, 포춘 500대 기업이 이 모델들로 완전히 업무를 혁신하지 않는 이유는 경영진이 보수적이어서가 아니라, 진짜로 사람과 비슷한 노동력을 끌어내기 어렵기 때문입니다."

이런 한계의 핵심은 기본적으로 결여된 능력, 특히 지속적 학습(continual learning)이다. 저자 자신도 수십 시간 동안 LLM을 활용한 업무 자동화 툴을 직접 만들어보면서 느낀 점은, LLM은 단일 과업에서는 괜찮은 결과(예: 자막 재작성, 클립 추출, 글 공동 작성)를 내지만,

"사람처럼 시간이 지나며 더 나아지진 않아요. 이게 진짜 큰 병목입니다."


2. 인간과 LLM의 학습 방식 비교 – '지속적 학습' 부재

이어 화자는 사람이 왜 유용한가와 LLM의 근본적 차이를 쉽게 설명한다.

"사람이 똑똑해서가 아니라, 실패를 통해 맥락을 쌓아가고, 점진적으로 개선해나갈 수 있기 때문입니다."

예를 들어 색소폰을 가르친다고 치면,

  1. 아이가 불어 본다.
  2. 소리를 듣고 스스로 조절한다.
  3. 반복하며 개선한다.

하지만 LLM은 이 과정이 불가능하다.

"LLM에게는 한 번 시도하고, 그때마다 사람이 길게 피드백을 써서 다음에 적용하는 방식 외엔 별다른 '가르치는 방법'이 없습니다.
사람 아이가 그냥 글만 읽고 색소폰을 잘 불 수 있을까요? 당연히 아니죠."

사실 RL(강화학습)로 미세조정(fine-tuning)을 할 수는 있지만,

"이건 사람의 적응적이고 목표지향적인 학습과는 완전히 다릅니다. 만약 제 에디터들처럼, 각자 스스로 작업의 맥락과 노하우를 쌓으며 점점 더 잘하게 해주려면, 매번 전혀 다른 RL 환경을 만들어야 하죠. 현실적으로 불가능합니다."

마지막으로, 이런 한계가 채워질 경우를 상상하며,

"만약 한층 똑똑한 모델이 스스로 RL 루프를 만들고 연습하며 개선하게 된다면, 이때는 진짜 큰 변화가 있을 겁니다.
하지만 지금 당장 어떻게 LLM구조에 연속적 학습을 넣을지 뚜렷하게 보이지 않습니다."


3. LLM의 단점 실사례 – '세션'이 끝나면 잊는다

LLM이 '세션 중'에는 어느 정도 적응하는 모습도 관찰할 수 있다. 예를 들어 저자가 에세이를 같이 쓸 때,

"처음에는 거의 모든 문단이 못 쓸 수준입니다. 제가 일일이 고치면서 '이렇게 써야 한다'는 피드백을 주면, 나중 문단부터는 꽤 괜찮은 제안을 합니다.
그런데 이 미묘한 내 스타일에 대한 이해는 세션이 끝나면 완전히 사라집니다."

세션 내 메모리(혹은, 롱 컨텍스트 윈도우 활용)는 일종의 임시방편일 뿐,
텍스트 요약에 모든 경험을 압축해야 하는데,

"이런 방식은 소프트웨어처럼 텍스트로 체계화된 분야가 아니면 매우 불안정하겠죠."

또, 클로드(Claude) 같은 최신 LLM도 자동화된 최적화를 잊어버리는 걸 보면,

"그 최적화가 왜 필요한지 설명이 요약에 반영되지 않으면, 이미 배운 것도 다시 놓치곤 합니다."


4. '경제적 변혁'에 대한 반론: "AI만으로도 화이트칼라 일자리의 대다수가 사라진다?"에 대한 회의

화자는 자신이 팟캐스트에서 인터뷰한 Anthropic의 연구자(Sholto Douglas, Trenton Bricken)의 주장을 인용하며 반박한다.

"AI의 발전이 여기서 멈춰도, 5년 안에 다양한 사무직(화이트칼라) 업무가 자동화될 것"이라는 주장에,
"만약 AI 발전이 오늘 완전히 멈춘다면, 현재의 LLM과 GPT류 모델로 사무직 일자리의 25% 미만만 자동화될 것이라 생각합니다."

이런 이유는,

  • LLM이 도구로 많은 작업을 부분적으로는 대체할 수 있지만,
  • "개인의 선호나 맥락에 맞춰 계속 나아지는 학습이 불가능하기 때문이죠."

즉, 데이터만 많이 모인다고 해서 인간 대체가 급격히 일어나지는 않는다.
반대로,

"지속적 학습(continual learning)이 해결되는 순간, 이 모델들이 지닌 가치가 폭발적으로 급증할 겁니다."

따라서, 가까운 몇 년 이내에 경제적 변혁이 오리라 예측하지는 않지만,
"2030년대, 2040년대에는 사례가 다를 수 있다"는 신중 낙관론도 덧붙인다.

"AI 스스로, 복제된 모든 사본에서 학습 경험이 공유되는 순간, 한 AI가 경제 내 모든 직업을 한 번에 익힐 수 있게 됩니다.
설령 추가적인 알고리즘 혁신 없이도, 온라인 러닝이 되는 AI는 단숨에 슈퍼인텔리전스로 성장할 수도 있다고 생각해요."


5. 컴퓨터 사용 능력 – 진짜 AI 비서 시대는 언제?

Anthropic 연구자들이 "2026년 말이면 신뢰할 만한 컴퓨터 활용 에이전트가 나올 것"이라고 낙관적으로 전망한 부분에 대해, 화자는 회의적 입장이다.

예로 든 시나리오:

"AI에게 '내 세금 좀 알아서 처리해줘'라고 하면,
메일, 아마존 주문, 슬랙, 각종 영수증을 다 직접 확인하고, 경계사례(애매한 지출)는 묻고, 결국 국세청에 신고까지 끝내주는 그런 비서를 상상하죠."

이런 전망에 회의적인 이유는 다음과 같다.

  1. 작업 시간(롤아웃 길이) 증가
    롱터임 미션을 처음부터 끝까지 평가하려면 시간과 검증이 늘어나고,
    "두 시간짜리 업무를 다 확인해야 제대로 평가할 수 있습니다."

  2. 멀티모달 컴퓨터 사용 데이터 부족
    인터넷 데이터만으로 자연어(텍스트) 처리는 가능했지만,
    "화면, 이미지 등 다양한 인터페이스 조작 데이터가 거의 없는 상태에서 에이전트를 키우는 건 훨씬 더 어렵습니다."
    이를 뒷받침하는 인상적인 인용:

    "지난 10년간 인터넷의 방대한 데이터 덕에 자연어 처리는 가능했지만, 에이전트로 키우긴 이 데이터로는 턱없이 부족하다. 1980년 텍스트만으로 GPT-4를 만들려고 하면? 아무리 컴퓨터가 있어도 불가능에 가까울 것."

  3. 알고리즘 혁신도 오래 걸림
    예전에도 단순해 보이는 RL(강화학습) 혁신조차 상용화까지 몇년이 소요됐다.

    "GPT-4에서 O1(DeepSeek)까지 2년이 걸렸죠.
    이를 집행, 개선, 디버깅 등 온갖 시행착오 끝에 이룬 결과라는 점을 보면, 컴퓨터 활용 에이전트의 '완성'에는 더 많은 시간이 필요하다고 생각합니다."


6. AI '추론 능력'의 놀라운 발전과 한계

화자는 GPT-4, Gemini 2.5, O3 등이 보여주는 추론(Reasoning) 능력 향상에 감탄하며,

"이제 기계가 문제를 분해해서 생각하고, 사용자의 의도를 추적하며, 스스로 잘못된 방향을 고치기도 합니다.
그런데 우리는 이 사실을 너무 당연하게 생각하는 것 아닐까요?"

몇몇 비관론자들이 가장 뛰어난 모델을 '실전에서' 제대로 다뤄보지 않은 것도, 평가가 엇갈리는 이유라고 지적한다.

특히,

"클로드 코드에게 대충 명세를 주고 10분 만에 실제로 동작하는 응용 프로그램을 만드는 모습을 보면, '이걸 정말 어떻게 해낸 거지?'
다양한 설명을 붙일 수 있지만, 가장 간단한 설명은 '작은 범용 인공지능이 구동 중이기 때문'이죠."


7. 자신의 AGI 예상 타임라인과 전망

이제 영상의 핵심 파트인 AI의 실제 타임라인 예측으로 넘어간다.

실질 'AI 비서(세무 처리)' 등장 시점

"제가 생각하는 '완전히 끝까지 세무처리를 대신하는 AI'(모든 영수증 추적, 필요한 플랫폼 조사 및 메일 피드백, 양식 작성까지, 능숙한 인간 매니저와 동등한 수준)의 등장 시점은 2028년입니다.
우리는 지금 컴퓨터 활용에서는 GPT-2 시기 정도라고 봅니다."

이처럼 GPT-2에서 GPT-4까지 4년이 걸렸음을 상기시키며,
"일단 데모는 2026~2027년에도 많이 나오겠지만,

진짜 복잡한 일거리, 장기간 프로젝트를 처음부터 끝까지 처리해내는 건 2028년쯤일 것"이라 예측한다.

'지속적 학습' AI의 상용화

"모든 화이트칼라 업무에서, 'AI 비디오 에디터'가 6개월 뒤 우리 채널의 취향, 스타일, 관객 반응까지 진짜로 인간과 똑같이 배우는 수준은 2032년에 올 걸로 봅니다."

7년이라는 시간 동안 AI가 '지속적 학습'을 습득할 현실적 가능성을 강조하며,

"2018년만 해도 GPT-1이 겨우 나온 시점이었으니, 7년 후라면 충분히 상상 가능한 변화라 생각해요."

이렇게 되면, 2030년대에는 AGI에 가까운 변혁, 아니 '지능의 폭발'이 일어나는 셈이다.


8. AGI의 한계와 확률적 전망

화자는

"AGI 타임라인은 아주 빨라지거나, 꽤 오래 걸리거나, 둘 중 어느 쪽이든 확률적으로 넓게 분포한다고 생각합니다."
그리고,
"AI 발전의 주축은 그간 막대한 계산 자원의 투입(연산량 4배씩 증가) 덕에 이루어졌지만,
2030년 전후로는 칩, 전력, 경제 전반의 한계로 큰 연산 증가가 더는 어렵게 될 겁니다.
이후에는 주로 알고리즘 혁신이 성과를 좌우하게 되고,
딥러닝 내에서의 '쉬운 혁신'이 대부분 끝나면서 연간 AGI 실현 확률 자체가 낮아질 거예요."

따라서,
"2030년대나 2040년대까지도 어쩌면 점진적 변화만 있을 수 있지만,
만약 지금 우리가 AI의 현 한계를 냉정하게 인정하면서 대비한다면,
'진짜 미친 변화'가 단번에 오더라도 놀라지 않을 준비가 필요하다"고 덧붙인다.


9. 영상의 마무리와 개인 블로그 홍보

이 영상 내용은 원래 개인 블로그 포스팅으로도 올려둔 내용임을 밝히며,
"Anthropic 연구진과의 팟캐스트, 그리고 그 이후 숙고 끝에 이 결론에 도달했다"는 과정을 설명한다.

"주요 에피소드마다 이렇게 또 추가로 생각을 정리해 블로그에 올리고 있으니,
제 블로그와 뉴스레터에 구독해 주시면 이런 콘텐츠를 먼저 받아보실 수 있습니다."

마지막에는,
"다음주에는 진짜 게스트와 함께하는 풀 에피소드로 찾아뵙겠다"며 영상을 마무리한다.


마무리

이 영상은 AI와 AGI에 대한 지나친 낙관론보다는, 실제 적용에서 겪는 구조적 한계—특히 '지속적 학습'의 결여—를 강조하며,
"진짜 AGI 시대"가 오기까지는 아직 갈 길이 멀다는 메시지를 전한다. 그러나 발전이 임계점을 넘는 순간, 예상을 뛰어넘는 변화가 올 수 있으니,
'장기적 신중 낙관론'에 기반해 기술을 준비하고, 사회적 논의도 미리 시작할 필요가 있음을 인상적으로 제시한다.
🧑‍💻💡✨

요약 완료: 2025. 8. 12. 오전 4:20:54

이런 요약이 필요하신가요?

하베스트가 원클릭으로 요약해드립니다

5초 요약
AI 자동 분석
📱
모든 기기
웹, iOS, Chrome
🔍
스마트 검색
언제든 재발견
요약 시작하기
나도 요약하기