tudy.club
BlogResourcesAbout
EN

© 2024 tudy.club

← Back to Blog
The Day After AGI - 2026 다보스 WEF 토론
Aai

The Day After AGI - 2026 다보스 WEF 토론

AGI는 언제 오는가, 일자리는 어떻게 되는가, 위험은 통제 가능한가 — AI 업계 양대 거장의 전망

2026-01-22•8분 읽기
#AI#AGI

The Day After AGI - 2026 다보스 WEF 토론

2026-01-22

📎 - 사회자 Zanny Minton Beddoes (The Economist 편집장)

  • 🟠 Dario Amodei - Anthropic CEO

  • 🔵 Demis Hassabis - Google DeepMind CEO

1. AGI 도달 시기

🟠 Dario🔵 Demis
예측1~2년 내5~10년 (2020년대 말)
근거코딩/AI 연구에 능숙한 모델 → 다음 모델 생성 → 개발 가속화 루프. Anthropic 내부에서 이미 "코드 직접 안 쓰고 모델이 쓴 걸 편집만 한다"는 엔지니어들 존재코딩/수학은 검증이 쉬워서 빠름. 자연과학은 실험적 검증 필요. "질문 자체를 생각해내는 것"은 아직 부족
불확실성칩 제조, 모델 학습 시간 등 AI로 가속 불가능한 부분자기 개선 루프가 인간 개입 없이 정말 닫힐 수 있는가?

2. 업계 판도

🔵 Demis:

  • "리더보드 상위권 복귀는 확신했다"
  • 이유: 가장 깊고 넓은 연구 인력 + 스타트업 마인드셋 재주입
  • Google DeepMind = "Google의 엔진룸"

🟠 Dario (독립 AI 기업 생존 가능성):

  • 수익 성장: 2023년 0→1억$ / 2024년 1억→10억$ / 2025년 10억→100억$ (10배씩)
  • 핵심: 집중 분야에서 최고 모델을 만들어내는 것

3. 승자독식 vs 일반 기술?

🔵 Demis: "일반 기술은 절대 아니다"

분야전망
코딩/수학자기 개선 루프 작동 중
자연과학AGI 자체가 필요할 수 있음 (검증이 어렵고 "지저분한" 영역)
로봇공학하드웨어가 루프에 포함되면 자기 개선 속도 제한 가능

4. AI 위험 (Dario의 후속 에세이 미리보기)

기본 입장: AI는 암 치료, 열대성 질병 퇴치, 우주 이해에 도움. 그러나 위험도 존재.

에세이 프레임: 칼 세이건의 "Contact" 인용

"어떻게 기술적 청소년기를 스스로를 파괴하지 않고 통과했습니까?"

위험 영역내용
통제 문제고도로 자율적이고 인간보다 똑똑한 시스템을 어떻게 통제?
개인 오용바이오테러리즘 등
국가 오용권위주의 정부의 악용
경제적 영향노동력 대체
예상치 못한 것들가장 다루기 어려울 수 있음

대응: 기업 리더들의 개별 노력 + 협력 + 정부/사회 기관의 역할

5. 일자리 영향

🟠 Dario🔵 Demis
현재소프트웨어/코딩에서 "아주 작은 시작"올해부터 주니어/인턴 수준에 영향 시작
단기1~5년 내 초급 사무직 절반 위험일부 대체 + 새 일자리 창출 (기존 기술 혁명과 유사)
핵심 우려AI가 1~2년 내 모든 것에서 인간보다 나아지면, 노동시장 적응 속도가 따라잡지 못할 수 있음AGI 이후는 "완전히 미지의 영역"

🔵 Demis 조언: "대학생들에게 이 도구들에 엄청나게 능숙해지라고 말할 것"

6. 정부 대비 & 의미/목적 문제

🟠 Dario: "정부 대비 전혀 충분하지 않다. 다보스에서 경제학자들 만나도 이에 대해 생각하는 사람이 별로 없어서 놀랍다"

🔵 Demis:

  • 경제적 문제보다 의미와 목적의 문제가 더 어려울 수 있음
  • 낙관론: 익스트림 스포츠, 예술 등 경제적 이득과 무관한 활동들을 이미 하고 있음
  • "우주 탐험도 할 것"

7. 대중 반발 위험

🔵 Demis:

  • 위험 존재 (일자리/생계에 대한 두려움은 합리적)
  • 업계 책임: AlphaFold처럼 "논쟁의 여지 없이 세상에 좋은 것"을 더 많이 보여줘야
  • 필요한 것: 배포에 대한 최소 안전 기준 (국경을 넘어 전 인류에 영향)

8. 대중국 정책

🟠 Dario 핵심 주장: 칩 판매 금지가 가장 중요

"북한에 핵무기를 팔고 보잉에 이익이 된다고 하는 것과 같다"

  • 칩 판매 금지 시: 미중 경쟁 → "나와 Demis의 경쟁"으로 전환. 이건 해결 가능.
  • 다른 공격적 대중국 조치들보다 이 한 가지가 훨씬 효과적

9. AI 안전 & 도머리즘

🟠 Dario🔵 Demis
입장도머리즘에 회의적. "우리는 멸망한다, 할 수 있는 게 없다"에 동의 안 함20년 이상 이 일 해옴. 위험은 알지만 해결 가능
조건함께 노력하면 대처 가능. 가드레일 없이 경쟁하면 문제시간과 집중, 최고 인재 협력 필요. 파편화되면 어려움
핵심과학을 통해 통제하고 방향 잡을 수 있음"시간이 있다면 매우 다루기 쉬운 문제"

Anthropic 연구: Mechanistic Interpretability - 모델 내부를 들여다보고 왜 그렇게 행동하는지 이해하려는 연구

10. 페르미 역설과 AI 위험

질문: 도머리즘의 가장 강력한 논거가 페르미 역설 아닌가?

🟠 Dario:

  • "그게 이유일 수 없다 - AI들이 어디선가 오는 것을 봐야 하는데 안 보인다"
  • 다이슨 구체도, 어떤 구조물도 안 보임
  • 개인 견해: "우리는 이미 대필터(Great Filter)를 통과했다. 아마도 다세포 생명체 진화가 그것"
  • "다음에 무슨 일이 일어날지는 우리 인류가 쓰는 것"

11. 내년 관전 포인트

🟠 Dario🔵 Demis
AI가 AI를 만드는 루프 - 이게 어떻게 되느냐에 따라 몇 년 더 걸릴지, "경이로움과 큰 비상 상황"을 마주할지 결정세계 모델(World Models), 지속 학습(Continual Learning), 로봇공학 "돌파구 순간" 가능성

사회자 마무리: "여러분이 말한 것에 기반하면, 우리 모두 조금 더 오래 걸리길 바라야 할 것 같다"

🔵 Demis: "나도 그걸 선호한다. 세상을 위해 더 나을 것이다"


핵심 포인트 정리

주제Dario AmodeiDemis Hassabis
AGI 도달 시기1~2년 내 가능5~10년 (2020년대 말)
자기 개선 루프코딩에서 이미 시작, 빠르게 닫힐 것일부 영역에서는 AGI 자체가 필요
일자리 영향1~5년 내 초급 사무직 절반 위험단기적으로는 새 일자리 창출, AGI 이후는 미지
도머리즘회의적, 대처 가능한 위험시간이 있다면 해결 가능
대중국 칩 판매강력 반대 (핵무기 비유)국제 협력/최소 안전 기준 필요
내년 관전 포인트AI가 AI를 만드는 루프세계 모델, 지속 학습, 로봇공학

목차

  • 1. AGI 도달 시기
  • 2. 업계 판도
  • 3. 승자독식 vs 일반 기술?
  • 4. AI 위험 (Dario의 후속 에세이 미리보기)
  • 5. 일자리 영향
  • 6. 정부 대비 & 의미/목적 문제
  • 7. 대중 반발 위험
  • 8. 대중국 정책
  • 9. AI 안전 & 도머리즘
  • 10. 페르미 역설과 AI 위험
  • 11. 내년 관전 포인트
  • **핵심 포인트 정리**