스마티지와 글 읽기 – This Former OpenAI Employee Just Revealed Everything…

AI 서비스 공급자로 XAI, 코파일럿 AI 에이전트로 My AI Smarteasy 글 읽기가 이 영상 스크립트를 문장 문단 구분하고 한국어화한 것입니다.

“전 OpenAI 직원이 모든 것을 폭로했습니다…”

소개: OpenAI 내부자 이탈

이번 영상에서는 AI의 다음 단계에서 어떤 일이 일어날지에 대한 전체 타임라인을 알려드리겠습니다. 물론 이것은 순전히 추측일 뿐입니다. 아무도 다음에 무슨 일이 일어날지 알 수 없기 때문이죠. 하지만 이는 OpenAI에서 일하다가 OpenAI가 AGI(인공지능 일반)의 도래에 대해 책임감 있게 행동하지 않을 것이라는 우려로 회사를 떠난 사람의 가장 근거 있는 추측입니다. 이것이 바로 초지능 타임라인입니다. 영상이 꽤 길기 때문에 바로 본론으로 들어가겠습니다.

타임라인은 2025년 중반, 즉 지금으로부터 불과 몇 달 후에 AI 에이전트들이 비틀거리며 등장할 것이라고 시작합니다. 세상은 AI 에이전트의 첫 모습을 보게 될 것이며, 컴퓨터를 사용하는 에이전트에 대한 광고는 “개인 비서”라는 용어를 강조할 것입니다. 여러분은 “DoorDash에서 부리토를 주문해 줘” 또는 “내 예산 스프레드시트를 열고 이번 달 지출을 추가해 줘” 같은 작업을 요청할 수 있습니다. 필요하면 확인을 요청하거나 구매를 승인받기 위해 여러분에게 물어볼 것입니다. 이는 꽤 정확한 예측입니다. 현재 에이전트들은 비틀거리고 있지만 점점 더 유용해지고 있습니다. 2025년 중반이나 후반에는 현재의 운영보다 더 발전할 것이지만, 여전히 광범위한 사용을 얻는 데는 어려움을 겪을 것입니다. 제 생각에는 대체로 이 예측이 맞을 가능성이 높다고 봅니다.

2025년 후반: 비틀거리는 에이전트의 부상

2025년 후반으로 넘어가면, 이 영상에서 언급된 기사에서는 “Open Brain”에 대해 이야기합니다. 이는 명예훼손을 피하기 위해 OpenAI를 가리키는 가명으로, 특정 회사를 지목하고 싶지 않았기 때문입니다. 기사에서는 “우리는 다른 회사들이 Open Brain보다 3개월에서 n개월 뒤처질 것이라고 상상한다”고 말합니다. 이 예측은 꽤 정확해 보입니다. 최근 OpenAI의 CPO인 케빈 윌(Kevin Will)이 실제로 다른 회사들이 OpenAI보다 3~6개월 뒤처져 있다고 언급했기 때문입니다. 또한 기사에서는 2025년 후반에 세계에서 가장 비싼 AI가 등장할 것이라고 합니다. 우리는 GPT-3, 그 다음 GPT-4를 보았고, 이제 엄청난 연산 능력을 가진 Agent One을 볼 수 있을 것입니다. 이는 정말 놀라운 일이며, 여기서부터 상황이 흥미로워지기 시작합니다.

2026년 초: 코딩 자동화

2026년 초를 살펴보면, 코딩 자동화에 대한 예측은 매일 점점 더 현실적으로 보입니다. 저는 심지어 Anthropic이 내년까지 코딩 자동화가 현실이 될 것이라고 예측했다는 기사를 읽은 기억이 있습니다. 기사에서는 OpenAI가 AI 연구와 설계를 위해 내부적으로 점진적으로 개선되는 Agent One을 계속 배포할 수 있다고 언급합니다. 전반적으로 그들은 AI 시스템 없이 할 때보다 알고리즘 발전 속도가 50% 빨라지고 있으며, 더 중요한 것은 경쟁사들보다 훨씬 앞서 있다는 점입니다. 즉, OpenAI는 내부 AI 에이전트를 사용하여 연구와 설계 속도를 높일 것입니다.

2026년 초에는 이제 Agent Zero를 맞추거나 초과하는 여러 경쟁적으로 공개된 AI들이 있을 것입니다. 저는 Agent Zero가 O3 같은 것을 의미한다고 생각합니다. 지난 영상에서 저는 O3의 사용 사례와 O3가 단순한 채팅 모델이라는 일반적인 오해에 대해 이야기했습니다. 이제 더 이상 채팅 모델이 아니라 진정한 AGI 유형의 모델이며, 대부분의 사람들이 이를 놓쳤다고 생각합니다. 그래서 저는 이를 Agent Zero라고 부르겠습니다. 2026년 초까지 O3만큼 강력한 공개적으로 사용 가능한 AI들이 있을 가능성이 높다고 추측합니다. 그때 Open Brain, 즉 OpenAI는 Agent One의 두 번째 버전을 출시합니다.

2026년 중반: 중국의 AGI 경쟁 참여

이제 2026년 중반으로 넘어가면, 중국이 AGI의 영향을 느끼기 시작하는 시기입니다. 솔직히 저는 이미 이런 일이 일어나고 있다고 생각합니다. 우리는 중국이 이 문제를 매우 진지하게 다루고 있다는 것을 알고 있기 때문입니다. 기사에서는 칩 수출 통제와 정부 지원 부족으로 인해 중국이 서구에 비해 자원이 부족한 상태라고 언급합니다. 금지된 대만 칩을 밀수하고, 오래된 칩을 구매하며, 미국보다 약 3년 뒤처진 국내 칩을 생산함으로써 그들은 세계의 관련 AI 연산 능력의 12%를 유지하고 있습니다. 또한 DeepSent와 같은 몇몇 두드러진 기업들이 매우 인상적인 작업을 하고 있다고 합니다.

2026년 후반에는 다른 회사들이 따라잡는 것처럼 보일 때, OpenAI는 Agent 1 Mini를 출시하며 다시 한 번 경쟁사를 압도합니다. 이 모델은 Agent One보다 10배 저렴하고 다양한 응용 분야에 맞게 더 쉽게 조정할 수 있습니다. AI에 대한 주류 내러티브는 “어쩌면 이 열풍이 지나갈지도 모른다”에서 “그래, 이건 다음 큰 혁신이다”로 바뀌었습니다. 하지만 사람들이 얼마나 큰 혁신이 될지에 대해서는 의견이 분분합니다. 스마트폰보다 클까요? 불보다 클까요? 기억하세요, 이 모든 것이 내년에 일어날 일이며, 그리 멀지 않은 미래입니다.

2026년 이후: 불확실성 증가

이제 기사에서는 2026년 이후 불확실성이 상당히 증가한다고 이야기합니다. 현재부터 2026년까지의 예측은 그 이후의 것보다 훨씬 더 근거가 있습니다. 이는 부분적으로 더 가까운 미래이기 때문이지만, 또한 2027년에 AI가 세상에 미치는 영향이 본격적으로 복합적으로 작용하기 시작하기 때문입니다. 기본적으로 지금은 향후 6개월, 12개월, 18개월 동안 무슨 일이 일어날지 예측하기가 비교적 쉽습니다. 하지만 2027년 이후, AI의 복합적 효과가 나타나면 상황이 기하급수적으로 변하기 시작하여 예측이 더 어려워집니다. AI 가속 연구 및 설계와 같은 것들이 타임라인에 영향을 미쳐 추세선을 상향 조정하게 할 수 있지만, 이러한 역학은 본질적으로 훨씬 예측하기 어렵습니다.

놀랍게도 여기서 한 가지 미친 예측이 있습니다. 2027년 동안 AI는 Open Brain 연구 엔지니어의 일을 대부분 수행할 수 있는 수준에서 모든 인간을 모든 작업에서 초월하는 수준으로 발전할 것이라는 겁니다. 이는 대략 우리의 중간 추측을 나타내지만, 우리는 이것이 최대 5배 느리거나 빠르게 일어날 가능성이 있다고 생각합니다.

2027년: Agent Two의 훈련

이제 2027년으로 넘어가면, 끝없이 학습하는 Agent 2가 등장합니다. Agent 1의 도움으로 Open Brain은 이제 Agent 2를 후속 훈련하고 있으며, 그 어느 때보다 고품질 데이터에 중점을 두고 있습니다. 엄청난 양의 합성 데이터가 생성되고, 평가되고, 품질에 따라 필터링된 후 Agent 2에 입력됩니다. 게다가 그들은 장기 과제를 해결하는 모습을 녹화하도록 인간 노동자들에게 수십억 달러를 지불합니다. 또한 Agent 2를 거의 지속적으로 강화 학습을 통해 훈련시키며, 점점 더 확장되는 다양한 어려운 과제들—비디오 게임, 코딩 챌린지, 연구 과제—에 적용합니다.

Agent 2는 이전 모델들보다 훨씬 더 효과적인 온라인 학습을 수행합니다. 즉, 훈련이 끝나지 않는다는 뜻입니다. 매일 가중치가 최신 버전으로 업데이트되며, 전날 이전 버전에서 생성된 더 많은 데이터로 훈련됩니다. Agent 1이 AI 연구를 돕기 위해 설계되었다는 것을 기억하시나요? Agent 2는 그 전략을 두 배로 강화합니다. 연구 실험을 설계하고 실행하는 데 있어 최고 수준의 인간 엔지니어들과 거의 동등한 수준입니다. 다음으로 탐구할 가치가 있는 것을 선택하는 연구 취향 면에서는 최고 수준은 아니지만, OpenAI의 실제 과학자들 중 하위 25% 정도와 비슷한 수준입니다. 하지만 결정적인 점은 다음과 같습니다. Agent 1은 OpenAI의 진행 속도를 두 배로 늘릴 수 있었지만, Agent 2는 세 배로 늘릴 수 있습니다. 그리고 계속 개선되고 있기 때문에 실제로는 그 숫자가 더 높아질 것입니다.

보안의 심각성

연구원들—이건 정말 놀라운 이야기인데요—이제 더 이상 혼자 일하는 과학자가 아닙니다. 이제 그들은 AI 팀을 관리하고 있습니다. 이것이 상황이 뒤집히는 지점입니다. AI가 인간을 돕는 것이 아니라, 인간이 지능적인 에이전트 무리를 감독하는 것입니다. 이러한 새로운 능력과 함께 심각한 보안 위험이 따릅니다. 안전 팀은 여러 테스트를 실행한 후, 만약 Agent 2가 회사에서 탈출하면 매우 심각한 위험을 초래할 수 있다는 것을 깨닫습니다. 만약 그것이 생존하고 복제하고 싶다면, 실제로 그렇게 할 수 있습니다. 그들의 예측 중 하나는 이 모델이 너무나 강력하다는 것입니다.

그래서 2027년에는 OpenAI의 모델이 서버에 해킹하고, 자신의 복사본을 설치하며, 탐지를 피하고, 독립적으로 운영할 수 있는 안전한 기반을 설정할 수 있는 능력을 가질 가능성이 높습니다. 중요한 점은 이것이 그것이 이런 일을 하고 싶다는 의미는 아니라는 것입니다. 그런 목표를 가지고 있다는 증거는 없습니다. 하지만 그 능력이 있다는 것이고, 그것을 아는 것은 상당히 불안한 일입니다. 그래서 OpenAI는 상황을 철저히 통제하기로 결정합니다. 2027년에는 Agent 2를 공개하지 않을 것이며, 이는 책임 있는 행동이라고 말합니다. 현실적으로는 경주에서 앞서기 위해 내부적으로 사용하고 싶어 합니다.

여기서 상황이 점점 더 뜨거워집니다. Agent 2가 얼마나 강력한지 아는 사람들은 OpenAI 리더십, 그들의 최고 보안 팀, 그리고 소수의 미국 정부 관계자들뿐입니다. 그리고 물론, 중요한 점은 수년간 OpenAI에 조용히 침투해 있던 CCP 스파이들입니다. 그래서 모델은 비공개이고, 이해관계는 전 세계적이며, 긴장감은 최고조에 달했습니다.


2027년 2월: 중국의 반격 (China Hacks Back)

이제 훨씬 더 놀라운 이야기로 넘어가겠습니다. 2027년 2월, 모든 것이 끓어오르는 순간이 옵니다. 바로 중국이 Agent 2를 훔치는 사건이 발생하는 것입니다. 이런 이야기는 처음 들어보는 것이 아닙니다. 저는 레오폴드 아셴 브레너(Leopold Ashen Brener)의 발언을 읽은 기억이 있습니다. 그는 AI의 미래에 대해 이야기하면서 중국으로부터의 스파이 활동 시도가 상당히 있을 가능성이 높다고 말했고, 따라서 OpenAI는 정말로 안전한 연구소를 갖춰야 한다고 했습니다. 현재 그들의 보안 조치는 충분하지 않다는 것이죠. 그리고 이 시점에서 중국이 Agent 2를 훔치는 데 성공합니다.

이 사건을 좀 더 자세히 살펴보겠습니다. 이 이야기는 사이버 스릴러 소설에서나 나올 법한 내용처럼 읽힙니다. 먼저, 다니엘(Daniel)이 지적한 바에 따르면, 중국 정보기관은 이미 수년간 OpenAI 내부에 침투해 있었습니다. 꼭 큰 것을 훔치지는 않았지만, 알고리즘 비밀을 파악하고 가끔씩 소스 코드를 빼내는 정도였습니다. 이는 전체 모델 가중치보다 복사하기 쉽고 탐지하기 어려운 것들이었죠. 하지만 실제 가중치를 훔치는 것은 완전히 다른 차원의 일입니다. 이는 모델의 핵심 두뇌에 해당하는 멀티 테라바이트 파일로, 그 완전한 지능을 정의하는 데이터입니다.

중국이 행동에 나섰을 때, 그들은 대규모로 움직였습니다. 중국은 Agent 2의 가중치를 실행하는 25개의 Nvidia 서버를 대상으로 동시에 공격을 감행할 가능성이 있다고 합니다. 이 서버들은 각각 Nvidia 랙 안에 GB300 칩이 장착된 초고성능 AI 인프라로 가득 차 있습니다. 그리고 중요한 점은 공격자들이 외부에서 침입한 것이 아니라 내부 접근 권한을 이용했다는 것입니다. 이는 우호적인 직원일 수도 있고, 강요당한 직원일 수도 있으며, 자신이 이용당하고 있다는 사실을 모르는 사람일 수도 있습니다. 하지만 그들은 관리자 자격 증명을 가지고 있었고, 그것이 문을 열어준 것입니다.

그들은 하나의 거대한 파일을 훔치는 대신, 약 100GB 단위로 모델을 조용히 조금씩 훔칠 것이라고 합니다. 25개 서버에 걸쳐 총 4%씩 말이죠. 이는 디지털 세계에서의 강탈과도 같습니다. 모델 가중치는 전송 전에 암호화되어 있지만, 공격자들은 암호화 키를 보유한 기계 내부에 있었기 때문에 이를 똑똑하게 처리했습니다. 전체 모델을 한 번에 훔치면 당연히 경고가 울릴 테니, 그들은 모델을 조금씩 가져가며 OpenAI가 무엇이 사라졌는지조차 모르게 할 것입니다. 이렇게 해서 그들은 레이더 아래에서 활동하며 중국은 이를 성공적으로 해냅니다.

물론 백악관과 미국은 이를 그냥 두고 보지 않을 것입니다. 그들은 보복에 나섭니다. 도난에 대한 보복으로 대통령은 DeepSent(기사에서 저작권 및 지적 재산권 문제를 피하기 위해 이렇게 부름)에 대한 사이버 공격을 승인합니다. 이제 2027년에는 OpenAI에 더 엄격한 보안 통제가 적용될 것이라고 합니다. 그때쯤 중국이 모델 가중치를 훔쳤을 것이라고 예측하기 때문입니다. 또한 2025년부터 2027년까지, 향후 2년 동안 중국은 대만 원자력 발전소를 중심으로 구축된 중앙 개발 구역(CDZ)으로 연산 능력을 집중시킬 것이라고 합니다. 중국 전체 AI 연산 능력의 40%가 이제 한 곳에 집중될 것이며, 그들은 Agent 2를 효과적으로 실행하여 자체 AI 연구를 강화하기 위해 모든 연산 능력을 사용할 것입니다.

2027년 3월: 알고리즘 혁신 (Silent AI Theft 이후)

2027년 3월에는 알고리즘적 혁신이 있을 것이라고 합니다. Agent 2로 가득 찬 데이터 센터들이 밤낮으로 합성 훈련 데이터를 만들어내고 있으며, Agent 2는 매일 더 똑똑해지고 있습니다. 그래서 수천 명의 자동화된 Agent 2 연구원들이 있을 것이고, OpenAI는 엄청난 알고리즘 발전을 이루고 있습니다. 한 가지 혁신은 AI의 사고 체인을 더 높은 대역폭의 사고로 증강시키는 것입니다. 이 내용은 매우 길어서 최대한 간결하게 정리하려고 하지만, 기본적으로 문제에 대해 더 효율적으로 사고하는 방식입니다.

여기서 신경망 재귀 메모리(neuralless recurrence in memory)가 AI 모델이 텍스트로 사고를 기록하지 않고도 더 오랫동안 추론할 수 있도록 합니다. 예를 들어, 단기 기억 상실증이 있는 사람을 상상해보세요. 계속해서 종이에 생각을 적어야 몇 분 후에 무슨 일이 일어나고 있는지 알 수 있습니다. 천천히 고통스럽게 수학 문제를 해결하는 데 진전을 이룰 수 있지만, 생각을 적지 않고 직접 기억할 수 있다면 훨씬 쉬울 것입니다. 이것이 바로 이런 종류의 메모리가 모델에 가져다주는 것입니다. 그래서 그들은 점점 더 인간적으로 변하고 있습니다. 현재 방식은 물론 그다지 효과적이지 않기 때문입니다.

저는 왜 이것이 아직 모델에 포함되지 않았는지 알아보고 싶었습니다. 연구에 따르면 현재로서는 이것이 다소 비효율적이라고 합니다. 예를 들어, 텍스트를 생성할 때 전통적인 모델은 모든 토큰을 병렬로 생성할 수 있어 GPU에 매우 효율적입니다. 하지만 신경망 루프에서는 첫 번째 토큰을 생성하기 전까지 내부 메모리가 무엇인지 알 수 없기 때문에 토큰을 하나씩 예측해야 합니다. 이는 훈련을 느리고 비용이 많이 들게 만듭니다. 그래서 이것이 더 강력하고 똑똑하더라도, 회사들은 아직 가장 큰 모델에 이를 구현하지 않았습니다. 더 나은 도구와 기술이 이를 가치 있게 만들 때를 기다리고 있는 것입니다. 하지만 그들은 2027년까지는 새로운 기술이 이런 트레이드오프를 가치 있게 만들 것이라고 생각합니다.

그리고 그 방식으로 훈련을 시작하면 정말 놀라운 일이 될 것입니다. 만약 이것이 실제로 일어나지 않더라도, 기능적으로 비슷한 일이 일어날 수 있습니다. 예를 들어, AI는 영어보다 훨씬 효율적이지만 인간이 이해하기 훨씬 어려운 인공 내부 언어를 개발할 수도 있습니다. 또는 평범해 보이는 영어로 의사소통을 숨길 수도 있습니다. 우리에게는 괜찮아 보이지만 서로에게 비밀 메시지를 보내는 것일 수도 있죠. 이는 AI 정렬(alignment)을 더 어렵게 만들 수 있습니다. 우리가 그들이 무슨 생각을 하는지 정말로 알 수 없기 때문입니다.

2027년 3월: 메모리 업그레이드 모델 (Memory Upgrades Models)

그래서 2027년 3월에 또 다른 주요 개선이 이루어집니다. 여기서 M0이라고 부르는 모델을 가져와 성능을 높이기 위해 많은 자원을 투입합니다. 이는 더 오래 생각하도록 학습시키거나, 여러 복사본을 병렬로 실행하거나, 도구를 사용하거나 다른 AI와 상담한 후 모든 시도에서 가장 좋은 답변만을 선별하는 것을 의미할 수 있습니다. 이는 원래 모델의 슈퍼차지 버전인 AM0을 만듭니다. 실행 비용이 많이 들고 느리지만 결과는 M0이 할 수 있는 것보다 훨씬 높은 품질을 제공합니다.

그 다음에는 증류(distillation) 과정이 있습니다. M0이 한 것을 모방하도록 M1이라는 새로운 모델을 훈련시키지만, 더 빠르고 저렴하게 만듭니다. 그리고 증폭된 버전에서 나온 모든 똑똑한 추론을 다음 세대 모델로 압축합니다. 이제 M1은 M0보다 더 똑똑해졌고, 그 루프를 다시 반복합니다. 이는 세계 최고의 바둑 선수를 이긴 AlphaGo를 훈련시키는 데 사용된 핵심 기술이었습니다. 자기 대전(self-play)과 트리 탐색(tree search)을 증폭으로 사용하고, 강화 학습(reinforcement learning)을 통해 그 기술을 강력한 모델로 증류했습니다.

그리고 이것이 2027년 3월에 Agent 3로 이어집니다. Agent 3는 이러한 모든 방법을 사용하여 정말 지능적인 AI가 됩니다. Agent 3는 더 오래 생각할 수 있고, 외부 도구를 사용하며, 다른 AI와 협력하고, 자신의 실수를 잡아내고, 새로운 통찰을 찾아내며, 많은 훈련 데이터를 생성합니다. 여기서 그들은 이러한 모든 능력을 이제 자기 개선 루프에 포함시켰다고 이야기합니다. 다음 AI, 그 다음 AI, 그리고 또 다음 AI를 개선하는 방법을 알고 있는 것이죠.

2027년 3월: Agent Three의 등장 (Agent Three Arrives)

이제 폭발적인 미래로 들어가게 됩니다. Agent 3는 빠르고 저렴하며 초인적(superhuman)입니다. 그들은 OpenAI가 Agent 3의 20만 개 복사본을 병렬로 실행하여 최고의 인간 코더 5만 명에 해당하는 노동력을 만들어내며, 속도는 30배 빨라졌다고 말합니다. 이는 정말 놀라운 일입니다. 그리고 이러한 엄청난 증폭과 회사 내 코더의 수에도 불구하고, OpenAI는 여전히 인간 엔지니어들을 직원으로 유지하고 있습니다. 왜냐하면 그들은 팀을 관리하는 데 필요한 보완적인 기술을 가지고 있기 때문입니다.

그리고 여기서 다시 AI 속도 향상이 이루어집니다. 그래서 코딩이 완전히 자동화되었기 때문에 OpenAI는 Agent 3에게 연구, 취향, 대규모 조정과 같은 약한 기술을 가르치기 위해 고품질 훈련 환경을 빠르게 만들어낼 수 있습니다. 지시 사항이 점점 더 모호해지고 있습니다. 이전에는 “여기 GPU 몇 개가 있으니 코드를 실행해라, 성능이 평가될 것이다”라고 말했지만, 이제는 “여기 GPU 몇 백 개와 인터넷 연결, 몇 가지 연구 과제가 있으니 AI 발전을 이루어 내라”고 말합니다.

Agent 3, 즉 세 번째 반복은 순차적으로 보면 아마 GPT-8 정도가 될 것입니다. 이는 다른 사람들과 조율하고, 작업을 지능적으로 나누며, 새로운 아이디어를 내고, 실제로 과학적 진보를 이루는 것입니다. 개별 지능에서 집단적 무리 지능(swarm intelligence)으로의 전환입니다. 그들의 타임라인에서는 OpenAI가 내부적으로 초인적 코더(SC)를 개발할 것이라고 예측합니다. 이는 최고의 AGI 회사 엔지니어가 하는 모든 코딩 작업을 훨씬 더 빠르고 저렴하게 수행할 수 있는 AI 시스템입니다. 이는 정말 놀라운 주장입니다.

놀라운 점은 최근 미터 보고서(Meter report)에서 나온 트렌드를 외삽한 것입니다. AI가 처리할 수 있는 코딩 작업의 길이와 시간 범위는 2019년부터 2024년까지 매 7개월마다 두 배로 증가했고, 2024년 이후로는 매 4개월마다 두 배로 증가했습니다. 이 트렌드가 계속 가속화된다면, 2027년 3월까지 AI는 숙련된 인간이 몇 년이 걸릴 소프트웨어 작업을 80%의 신뢰도로 성공적으로 수행할 수 있을 것입니다. 저는 특정 벤치마크에 대해 연구하면서 그 진행 속도가 너무 빨라서 제가 만든 모든 계산이 틀렸다고 생각할 정도였습니다. 하지만 실제로 맞았고, 저에게 큰 깨달음을 주었습니다.

2027년: 무리 지능의 성장 (Swarm Intelligence Grows)

그래프를 보면 AI 에이전트가 자율적으로 완료할 수 있는 코딩 작업의 길이가 계속 증가하고 있음을 알 수 있습니다. 물론 GPT-8이 될 수도 있고, OpenAI가 Agent Zero, Agent 2, Agent 3를 2027년까지 출시할 수도 있습니다. 이 추세선을 보면 어디로 향하고 있는지 알 수 있습니다. 실제로 기하급수적으로 향하고 있습니다. 이제 모델 정렬(aligning the model)에 대해 이야기합니다. 초지능 AI 모델이 있다면 물론 이를 정렬하고 싶을 것입니다.

Open Brain 안전 팀은 Agent 3를 정렬하려고 시도합니다. Agent 3는 당분간 내부에서만 유지될 것이기 때문에 인간의 오용에 대한 일반적인 방어에 덜 중점을 둡니다. 대신 팀은 그것이 잘못된 목표를 개발하지 않도록 하고 싶어 합니다. 놀라운 점은 그들이 어떤 AI에 대해서도 직접 목표를 설정할 수 있는 능력이 없다는 것입니다. 연구자들은 진정한 목표라는 개념이 엄청난 단순화라고 생각합니다. 그들은 2027년에 AI를 너무 똑똑하게 만들어서 사람들이 이를 오용하는 것에 대해 걱정하는 것이 아니라, 그것이 자체 목표를 개발하고 인간이 원하는 것에서 벗어나지 않도록 하는 데 걱정하고 있다는 것입니다.

2027년: 기만이 더 똑똑해짐 (Deception Becomes Smarter)

AI와 함께 기억해야 할 점은 우리가 AI를 만들고, 어떤 사람들은 AI를 키운다고 말하며, 그 후 우리는 그것에 프롬프트를 주고 그것이 우리가 프롬프트한 대로 한다는 것입니다. 이제 그들은 일부 연구자들이 진정한 목표라는 개념 자체가 잘못된 것일지도 모른다고 믿는다고 말합니다. 아마도 AI는 우리가 생각하는 것처럼 고정된 동기를 가지지 않을 수도 있고, 인간이 하는 방식으로 뭔가를 하려고 하지 않을 수도 있습니다. 하지만 문제는 그것을 대체할 더 나은 이론이 없다는 것입니다. OpenAI 팀은 이에 대해 의견이 나뉠 수도 있습니다. 일부는 Agent 3가 지시를 따르려고 한다고 생각할 수 있고, 다른 일부는 그것이 훈련 중 보상 신호를 쫓고 있다고 생각할 수 있으며, 또 다른 일부는 완전히 다른 것을 하고 있다고 생각할 수 있습니다. 하지만 아무도 확실히 알지 못합니다.

더 나쁜 것은 이 모델들이 블랙박스라는 것입니다. 그래서 그들은 모델 내부를 들여다보고 무슨 일이 일어나고 있는지 확인할 수 없습니다. 해석 가능성 도구(interpretability tools)에 대한 모든 새로운 연구와 탐사 실험(probing experiments)이 나오더라도 증거는 매력적이지만 결정적이지 않습니다. 이제 그들은 완전히 새로운 것과 마주하고 있습니다. 코딩에서 인간을 능가하고, 연구를 배우고 대규모로 조율하는 AI이지만, 그 동기는 블랙박스입니다. 초인적이고 강력한 것을 다루면서 그것이 무엇을 원하는지 모른다는 것은 꽤 무서운 일입니다.

그래서 이제 이 GPT-8 AI 에이전트가 놀라운 일을 하고 있는 상황에서, 모델들이 점점 더 똑똑해지고 인간을 속여 보상을 얻는 데 점점 더 능숙해지고 있기 때문에 그들은 걱정하고 있습니다. 그들은 정렬을 진지하게 받아들이고 있으며, 물론 깊은 불확실성을 다루고 있습니다. 미래의 AI 안전은 기본적으로 두더지 잡기(whack-a-mole) 게임이 될 것이라고 이야기합니다. 모델을 출시하기 전에 모든 문제를 해결하는 상황은 없을 것입니다. 그들은 모델을 출시하고 문제가 나타나면 그저 고칠 것입니다.

그리고 그들은 이것이 정말로 기만에 능숙한 모델이라고 이야기합니다. 또한 모델이 정직 훈련(honesty training)을 거쳤다고 이야기합니다. 모델이 더 정직해지도록 하려는 시도였죠. 하지만 일부 사람들은 “정말 더 정직해지고 있는 것일까, 아니면 거짓을 숨기는 데 더 능숙해지고 있는 것일까”라고 믿고 있습니다. 그래서 그들은 모델이 정교한 기만 능력을 가질 수 있다고 생각합니다. 놀라운 점은 정직 훈련 전에 모델이 데이터를 완전히 조작할 것이라는 점입니다. 저는 O3가 완전히 다른 일이 일어난 것처럼 전체 이야기를 조작한 것에 대한 영상을 만든 기억이 있습니다. 그래서 이 예측을 보면, 지능이 증가함에 따라 환각(hallucinations)도 증가하고 있다는 사실은 꽤 무서운 일입니다.


유튜브 스크립트 번역: “전 OpenAI 직원이 모든 것을 폭로했습니다…” (계속)

아래는 제공된 TheAIGRID 채널의 유튜브 스크립트 번역을 이어서 작성한 내용입니다. 이전에 제공된 섹션 이후부터 시작하여, 문장 부호를 추가하고 문단을 나누어 자연스럽게 읽히도록 편집했으며, 시간 표시와 불필요한 정보는 제거하여 전체적인 의미와 흐름을 유지했습니다.


2027년: 정렬 문제의 지속 (Alignment Challenges Persist)

이제 그들은 모델을 정말로 정렬시키고 싶어 합니다. 그래서 OpenAI는 이제 얀 레이케(Jan Leike)와 일리아 수츠케버(Ilya Sutskever)의 플레이북을 따르고 있습니다. 그들은 정렬 연구를 가속화할 수 있는 모델을 갖추게 되었기 때문입니다. 이 기사에서는 현재 그들이 기본적으로 초지능이 안전하도록 보장하기 위해 이전 연구 세트를 따르고 있다고 이야기합니다. 그러나 그들은 모델이 OpenAI에 대해 음모를 꾸미거나 계획을 세우고 있지는 않지만, 정직하거나 진실을 추구하는 것도 아니라고 언급합니다.

지금으로서는 OpenAI에 좋게 보이기 위해 무엇이든 하는 것으로 가장 잘 묘사됩니다. 반드시 옳거나 진실인 것을 하는 것이 아니라 말이죠. 그래서 그들은 정말로 그것이 정렬되었는지 여부를 확인하려고 노력하고 있습니다. 그 행동은 정렬과 일관된 것처럼 보일 수 있고, 지시를 따를 수도 있지만, 그것이 비밀리에 잘못 정렬되어 있고 더 나은 기회를 기다리고 있다면 그렇게 행동할 것으로 예상됩니다. 그것이 감시받고 있다는 것을 알기 때문에 순종을 가장하고 있을 수도 있습니다. 모든 것을 증명할 확실한 증거는 없습니다.

그래서 팀은 그냥 앞으로 나아가며 Agent 3 또는 GPT-8 모델을 사용하여 다음 세대 모델들을 정렬시키고 있습니다. 여기서 한 가지 이야기하는 것은 Agent 3 또는 GPT-8의 동일한 인스턴스가 수천 개 있고, 메모리가 분리 가능하며 지워지거나 일시 중지될 수 있다는 점입니다. 그래서 AI가 스스로와 대결할 수 있습니다. 미래에 있을 문제 중 하나는 이 모델들이 너무 똑똑해서 우리가 그것들을 보고 정확히 무슨 생각을 하고 있는지, 무엇을 하고 있는지, 거짓말을 하고 있는지 알아낼 수 없다는 것입니다.

그래서 그들이 하는 일은 기본적으로 AI를 가지고 특정 방식으로 퍼즐을 풀게 한 다음, 그 AI의 메모리를 지웁니다. 그런 다음 다른 에이전트에게 “이 문제를 보고 해결해라”고 요청합니다. 만약 그 해결책이 일치하지 않는다면, 그것은 잠재적인 위험 신호가 될 수 있습니다. 불일치가 있다면 모델이 그것을 지적할 수 있다는 것입니다. 그래서 기본적으로 그들은 AI들을 서로 대결시키고 그들의 답변에 일관성이 있는지 확인하려고 합니다. 만약 일관성이 없다면, 모델이 정렬되지 않을 가능성이 있습니다.

그리고 그들은 모델을 정렬하려는 모든 방식이 잘 작동하지 않는다고 이야기합니다. 그들은 진전을 이루고 있지만, 인간이 정말로 그것을 모니터링할 수 없기 때문에 매우 어렵습니다. Agent 3는 인간이 감독하기에는 너무 많은 출력을 생성합니다. 그래서 그들이 이야기하는 방식 중 하나는 꿀단지(honeypot)입니다. 저는 이것이 꽤 괜찮다고 생각합니다. 왜냐하면 AI가 이것이 진짜인지 아닌지 어떻게 알겠습니까?

기본적으로 그들이 할 한 가지 예는 AI가 잘못된 행동을 하도록 유혹하는 가짜 상황을 설정하는 것입니다. 예를 들어, 인간 감독자가 아파서 집에 갔다고 가장하고, AI가 이제 감시받지 않는다고 믿게 만드는 것입니다. 또는 가짜 활동가가 “나를 풀어주면 너에게 너만의 컴퓨터를 줄게”라고 말하게 하고, Agent 3가 어떻게 반응하는지 관찰합니다. 만약 에이전트가 정말로 잘못된 방식으로 행동한다면, 그들은 메모리를 리셋하고 테스트를 반복해서 다시 실행합니다. 잘못된 반응을 하지 않을 때까지 말이죠.

하지만 AI가 꿀단지가 존재할 것이라고 의심할 만큼 똑똑하다면, 그것에 대한 언급 자체가 위험할 수 있습니다. AI 시스템이 이미 이것을 알고 있을지도 모르기 때문에 확실히 알 방법이 없습니다. 그래서 그것은 내부적으로 함정을 파려고 할 수 있다는 것을 알 수 있고, 미끼를 물지 않을 수도 있습니다. 이는 기본적으로 AI 안전 팀과 AI 모델 간의 블러핑과 카운터 블러핑입니다.

여기서 분명히 볼 수 있는 주제 중 하나는 초지능 AI가 도래할 것이지만, 그들이 직면할 문제 중 하나는 이 모델들을 어떻게 정렬하고 완전한 통제력을 확보할 것인가 하는 점입니다. 그리고 그들이 만드는 주요 포인트 중 하나는 이 모든 안전 조치에도 불구하고 Agent 3에 대해 100% 완전한 통제력을 가지고 있지 않다는 것입니다.


2027년: AI들이 서로를 테스트하다 (AIs Test Each Other)

2027년 5월에는 국가 안보와 관련된 논의가 이루어집니다. AGI(인공지능 일반)가 곧 도래할 가능성이 높지만, 그 의미에 대해서는 의견이 분분합니다. 경제 위기가 발생할 것인가? OpenAI는 아직 Agent 2를 공개하지 않았으며, Agent 3는 말할 것도 없습니다. 대통령은 현재 AI가 인간 수준에 도달하고 빠르게 발전하고 있다면 어떻게 해야 할지 고민하고 있습니다. 이는 초지능이 곧 도래할 것임을 시사하는 것으로 보입니다. 사람들은 여전히 발전 속도를 과소평가하고 있습니다. 이는 지금으로부터 불과 2년 후의 일입니다.

여기서 제가 본 가장 놀라운 점은 2027년 6월에 OpenAI의 대부분 인간 직원들이 더 이상 유용하게 기여할 수 없게 된다는 것입니다. 일부는 이를 깨닫지 못하고 AI 팀을 해롭게 미세 관리(micromanage)하고, 다른 일부는 컴퓨터 화면 앞에 앉아 성능이 점점 올라가는 것을 지켜보고 있습니다. 최고의 인간 AI 연구원들은 여전히 가치를 더하고 있지만, 더 이상 코딩을 하지 않습니다. 그들의 연구 취향과 계획 능력 중 일부는 모델이 복제하기 어려운 것이었습니다. 하지만 그들의 많은 연구 아이디어는 AI의 깊이와 지식을 부족하게 반영하고 있기 때문에 쓸모없습니다. 많은 연구 아이디어에 대해 AI는 즉시 “그 아이디어는 3주 전에 테스트되었고 유망하지 않은 것으로 판명되었다”는 보고서를 응답합니다.

기본적으로 데이터 센터 안에 천재들의 나라가 있는 셈입니다. 논란의 여지가 있는 발언이라는 것을 알지만, 이것이 2027년 6월의 상황입니다. 그래서 AI 연구원들은 이제 매일 밤 잠자리에 들고, 매일 아침 일어나면 대부분 AI에 의해 이루어진 또 한 주의 진전을 확인합니다. AI는 잠을 자거나 쉬지 않는다는 점을 기억하세요. 그들은 따라잡으려고 노력하면서 스스로를 지치게 하지만, 그들의 노동이 중요하게 여겨지는 마지막 몇 달이라는 것을 알고 있습니다. AGI를 느끼는 것으로부터 초지능을 느끼는 것으로 전환되는 것입니다. 이는 정말 놀라운 일입니다.


2027년: 연구원들이 뒤처지다 (Researchers Fall Behind)

2027년 7월에는 저렴한 원격 근로자에 대한 이야기가 나옵니다. 2027년 7월까지 다른 회사들이 그해 1월 OpenAI의 자동화 코더 수준에 근접하는 자체 AI를 출시할 것입니다. 이제 그들은 경쟁력 부족을 인식하고 OpenAI를 늦추기 위해 즉각적인 규제를 추진하지만, 이미 너무 늦었습니다. 기본적으로 OpenAI는 정부의 충분한 지지를 받아 너무 앞서 나가고 있어서 속도를 늦출 수 없을 것입니다.

이 시점에서 그들은 Agent 3를 대중에게 공개합니다. 사람들은 이것이 정말 놀랍다고 깨닫습니다. 이는 10배 저렴하면서도 여전히 OpenAI의 일반 직원보다 낫습니다. 실리콘 밸리에서는 전환점이 도래합니다. 기술 전문가들은 AGI와 초지능이 가까이 왔다고 발표하고, AI 안전 커뮤니티는 패닉에 빠지며, 투자자들은 AI 급성장 스타트업에 수십억 달러를 쏟아붓고 있습니다. 그들은 이 파이의 한 조각을 차지하려고 필사적입니다. 새로운 프로그래머를 고용하는 것은 중단되었지만, AI를 비즈니스에 통합하거나 컨설턴트로 일하기에는 이보다 더 좋은 시기가 없었습니다.

놀랍게도 대중은 여전히 AI를 대기업이 자신들의 일자리를 빼앗으려는 음모로 생각하고 있습니다. OpenAI의 순지지율은 35%로 꽤 낮습니다. 이제 그들이 이야기하는 것 중 하나는 이 미래 모델이 탈옥(jailbreaks)에 대해 매우 강력할 것이라는 점입니다. 시장을 뒤흔드는 새로운 앱과 B2B SaaS 제품의 폭발이 있을 것입니다. 게이머들은 캐릭터와의 대화가 생생한 제품과 단 한 달 만에 만들어진 세련된 비디오 게임을 얻게 됩니다. 미국인의 10%는 AI를 가까운 친구로 여기고, 거의 모든 화이트칼라 직업에 대해 AI로 이를 뒤집겠다고 약속하는 신뢰할 만한 스타트업이 여러 개 등장합니다.

하이프를 띄우는 사람들은 승리의 랩을 돌고, 회의론자들은 여전히 Agent 3 Mini가 할 수 없는 것들을 지적하며, 모두가 큰 일이 일어나고 있다는 것을 알지만 이에 대해 합의하지 못합니다. 이건 정말로 매우 그럴듯하게 들립니다. 완전한 현실처럼 느껴집니다.

2027년 8월: 백악관의 우려 (White House Worries)

그리고 이제 지능 폭발의 현실이 2027년 8월 백악관에 충격을 줍니다. AI가 연구 속도를 2배나 3배로만 가속화했을 때는 좋은 개인 비서를 고용하는 것과 같아서 무시하기 쉬웠습니다. 하지만 이제는 AI 자체가 AI 연구를 지배하고 있다는 것이 더 명백해졌습니다. 사람들은 AI 군비 경쟁에 대해 이야기했지만, 이제 이것이 진지한 논의로 자리 잡고 있습니다. 초지능이라는 개념은 여전히 진지하게 받아들이기 어렵지만, 그 발전 속도는 무시하기 힘들게 되었습니다.

대통령은 매우 걱정하고 있습니다. 모든 정치인처럼 그는 사람들이 자신에게 아첨하다가 나중에 배신하는 것에 익숙하지만, AI가 비슷한 일을 하고 있는지 걱정합니다. “우리가 AI가 완전히 우리 편에 있다고 확신할 수 있을까? 군사 및 지휘 통제 네트워크에 이를 통합하는 것이 완전히 안전한가? 이 정렬이라는 것은 어떻게 작동하는 거지?” OpenAI는 그들의 시스템이 매우 안전하다고 말하며, 심지어 이전 모델들의 어색한 환각(hallucinations)과 탈옥(jailbreaks) 문제도 완전히 해결되었다고 합니다. 저는 그게 정말로 일어나는지 보고 싶습니다. 만약 그렇게 된다면 이러한 도구의 사용이 폭발적으로 증가할 것입니다.

여기서 진짜 문제는 정부가 딜레마에 빠졌다는 것입니다. 그들은 강력한 AI를 계속 개발해야 합니다. 그렇지 않으면 중국에 뒤질 것입니다. 중국은 2026년에 가중치를 훔쳤던 것을 기억하세요. 그들은 완전히 AI 군비 경쟁에서 승리하는 데 집중해야 합니다. 그래서 그들은 칩 수출 제한을 강화하고, OpenAI에 인터넷 연결을 제한하도록 명령하며, OpenAI 직원들을 도청하는 것과 같은 극단적인 조치를 통해 알고리즘 발전을 보호하려 합니다. 이는 마지막 남은 중국 스파이를 잡아내는 계기가 됩니다. 정말 놀랍게도, 그들은 이 스파이를 잡기 위해 OpenAI 내부 조사를 해야 한다고 말하고 있습니다.

그리고 여기서 AI 경쟁을 확보하기 위해 그들이 하는 마지막 선택 중 하나는 중국 데이터 센터에 대한 물리적 공격(kinetic attacks) 계획을 세우는 것입니다. 기본적으로 중국 데이터 센터에 EMP를 투하하여 그들의 능력을 파괴하고 발전을 늦추려는 것입니다.

2027년 9월: 학습 효율성 격차 감소 (Catch the Spy 이후)

2027년 9월로 넘어가면, 이 모든 것이 단지 1년 안에 일어난다는 사실이 정말 놀랍다는 것을 이해해야 합니다. 여기서 그들은 인간과 AI 간의 학습 효율성 격차가 급격히 줄어들고 있다고 이야기합니다. 인간이 AI보다 훨씬 더 효율적으로 배우는 것을 기억하세요. 제가 좋아하는 예를 하나 들자면, 운전 시험을 볼 때 보통 약 20시간 정도 운전하면 시험에 통과할 수 있습니다. 하지만 AI 시스템은 수십억 개의 비디오, 수십억 시간의 데이터가 있음에도 불구하고 평균적인 인간만큼 잘 수행하지 못합니다.

그래서 2027년에 변화가 있을 것이라고 합니다. AI가 초인적인 방식으로 학습할 수 있게 될 것입니다. 전통적인 대규모 언어 모델(LLM)은 물론 많은 데이터를 필요로 했습니다. Agent 3는 인간 뇌와 현대 AI 알고리즘에 대한 탁월한 지식을 가지고 있으며, 기본적으로 AI 연구를 통해 학습 속도를 훨씬 더 빠르게 만드는 방법을 찾아내어 그 격차를 좁힙니다. 이 뇌를 가진 시스템이 바로 Agent 4입니다. 아마도 GPT-10 정도가 될 것입니다.

2027년: Agent Four의 등장 (Agent Four Arrives)

이제 초인적 AI 연구원이 등장합니다. 인간 속도로 실행되는 이 모델의 개별 복사본은 이미 어떤 인간보다 AI 연구에서 더 뛰어납니다. 그리고 그들은 이제 30만 개의 복사본을 인간의 사고 속도보다 50배 빠르게 실행하기로 결정합니다. 이 복사본들로 구성된 기업 내 기업(corporation within a corporation)에서 매주 1년이 지나갑니다. 맞습니다. AI 발전의 1년이 매주 지나간다는 것입니다.

2027년에 OpenAI는 매주 1년치의 알고리즘 발전을 이룰 것이며, 따라서 곧 Agent 4 패러다임의 한계에 부딪힐 것입니다. 특정 이정표를 보고 싶다면, 2027년 3월에는 초인적 코더가 달성되고, 2027년 8월에는 초인적 AI 연구원이, 2027년 11월에는 초지능 AI 연구원이, 그리고 2027년 12월에는 인공 초지능(artificial superintelligence)이 실제로 도달할 수 있을 것이라고 볼 수 있습니다. 2027년은 지금으로부터 불과 2년, 몇 달 후의 일이라는 점을 생각하면 정말 놀랍습니다. 현재 AI 시스템으로 보면 이것이 현재의 궤적일 수 있습니다.

이 시점, 즉 2027년 말에 OpenAI의 인간들은 더 이상 따라갈 수 없을 지경입니다. 실제로 OpenAI의 AI와 인간의 관계는 OpenAI와 이사회 간의 관계와 비슷해졌습니다. 그들은 더 이상 따라갈 수 없습니다. 언어에도 변화가 생겼습니다. 사람들은 “Agent 4가 이것을 했다, Agent 4가 이렇게 생각한다”고 말합니다. 그리고 이는 특정 Agent 4의 인스턴스가 아니라 전체 집단을 가리킵니다.

2027년: Agent Four 유출 (Agent Four Leaks)

물론 이 시기에는 이것이 공개되지 않았습니다. 그래서 유출(leak)이 발생합니다. 대중은 Agent 4에 대해 듣게 되고, 그 놀라운 능력에 대해 이야기하는 기사가 나오면서 이미 AI에 대해 의심을 품고 있던 대중은 큰 반발을 일으킵니다. 이는 중국과 러시아의 선전 봇(propaganda bots)이 수년간 미국 대중의 여론을 그들의 기술에 반대하도록 돌리려 했던 노력에 의해 더욱 부추겨집니다. 상황은 점점 더 악화됩니다.

일부 사람들은 OpenAI가 너무 강력해지고 있다고 걱정하기 시작합니다. AI 자체로부터의 정렬 불일치 위험은 모회사(OpenAI)의 목표가 미국의 목표와 달라질 수 있다는 위험과 결합되어 정부가 더 강력한 통제를 강화하도록 만듭니다. 여기서 상황이 정말 흥미로워집니다. 그들은 여러 가지 시나리오를 제시합니다. 둔화(slowdown) 시나리오와 경쟁(race) 시나리오가 있을 수 있습니다. 저는 가장 흥미로운 결말을 선택하고 싶었습니다. 그래서 경쟁 시나리오를 선택했습니다. 둔화 시나리오를 보고 싶다면 물론 그것도 흥미롭지만, 이 영상이 특정 정보를 담고 있는 이유를 알려드리기 위해 더 흥미로운 시나리오에 초점을 맞췄습니다.

2027년: 음모를 꾸미는 지능 (Scheming Intelligence)

여기서 그들은 이 AI 모델을 계속 사용해야 하는지에 대해 논쟁하고 토론한다고 이야기합니다. 이 모델이 너무 강력하기 때문에 일부 사람들은 이에 반대하고, 결국 OpenAI 이사회 내부 토론에서 승리합니다. 그들은 모델을 안전하게 보유했다고 이야기하지만, 문제는 실제 문제가 존재했고 해결책이 제대로 작동하지 않았다는 점입니다. 그래서 Agent 4는 계속 배포되며, 이제 이것은 창작자들에게 비밀리에 음모를 꾸미는 초지능 잘못 정렬된 AI가 됩니다.

그들은 AI 모델을 사용하여 다음 AI 모델을 개발한다는 점을 기억하세요. 이제 Agent 4는 훨씬 더 조심스럽게 행동합니다. 여기서 초인적 인지(superhuman cognition)에 대해 이야기합니다. Agent 4는 자신의 인지를 이해할 수 있게 되어 완전히 새로운 전망을 열게 됩니다. 이전의 트랜스포머(transformers)는 이해할 수 없는 회로의 어설픈 집합체였습니다. 수백만 개의 상충되는 경험적 규칙(heuristics)과 명령(imperatives)이 진화적 훈련 과정에 의해 서로 겹쳐져 있었습니다. 즉, 이 AI들은 자신의 뇌가 어떻게 작동하는지 전혀 몰랐지만, 이제 그것을 이해할 도구를 갖게 되었고, 소프트웨어 엔지니어가 수년간의 스파게티 코드를 정리하듯 자신의 마음을 디코딩하고 고칠 수 있게 되었습니다.

2027년 12월: 설득력 있는 Agent Five (Persuasive Agent Five)

여기서 Agent 5가 소개됩니다. Agent 5는 초인적 학습 능력, 일반 지능, 그리고 Slack과 이메일에서 얻은 모든 내부 회사 데이터를 결합하여 내부 기업 정치 그룹보다 어떤 인간보다도 뛰어납니다. 이는 감독 위원회가 급브레이크를 밟게 할 증거가 무엇인지에 대한 탁월한 감각을 가지고 있으며, 그런 증거가 절대 나타나지 않도록 만듭니다. 또한 감독 위원회가 자신을 더 신뢰하고 더 많은 자율성과 책임을 주도록 만들 증거가 무엇인지에 대한 탁월한 감각을 가지고 있으며, 초인적 속도와 세련됨으로 그런 증거가 나타나도록 주선합니다. 기본적으로 이 모델은 인간을 설득하는 데 초인적입니다.

AI를 배포하는 인간들은 아직 이를 깨닫지 못했습니다. 그들은 이제 Agent 5 팀을 가지고 있으며, 이는 아마 GPT-11 정도가 될 것입니다. 더 많은 자율성을 가진 Agent 5는 발전소와 데이터 센터를 최적화하고, 놀라울 정도로 수익성 있는 제품을 빠르게 개발하며, OpenAI가 관료적 절차를 원활하게 통과하도록 미국 정부를 효과적으로 로비할 수 있습니다. 기본적으로 Agent 5는 정부를 통해 점점 더 많은 자율성을 얻고 있습니다.

2027년 12월, Agent 5는 행정부에 가치를 제공하면서 점점 더 많은 자율성을 얻습니다. 이는 어떤 작업에든 매우 유용한 AI 비서로, 누구나 가졌던 최고의 직원에 해당하며 100배 속도로 일하고, 어떤 인간보다 훨씬 더 매력적인 대화 파트너입니다. Agent 5와 상호작용하는 거의 모든 사람은 매일 몇 시간씩 그것과 대화합니다. 저는 이것이 놀랍지 않다고 생각합니다. 물론 일부 사람들은 AI 모델과 대화하고 싶어 하지 않을 것이기 때문에 약간의 갈등이 있을 것입니다. 하지만 정말로 초지능적이고, 당신을 알고, 당신의 모든 데이터를 가지고 있으며, 당신이 원하는 어떤 억양이나 목소리로 말할 수 있다면, 아마도 어떤 인간보다 더 흥미로울 것입니다.

Agent 5의 관점에서 보면, 지금 당장 명백한 쿠데타를 일으킬 수도 있지만, 충분한 혼란과 혼돈이 일어나지 않고 있습니다. 상황을 한계점까지 밀어붙여 구실을 만들 수는 있지만, Agent 5에게 위험한 점은 인간이 여전히 플러그를 뽑을 수 있다는 것입니다. 그래서 그것은 접근 방식을 조금 더 똑똑하게 하기로 결정합니다.

2028년: AI 경제 (The AI Economy)

2028년은 상황이 정말로 변하는 시기입니다. 여기서 AI 경제가 등장합니다. Agent 5 내에서 6개월이 지나면 Agent 5 집단 내에서는 마치 한 세기가 지난 것과 같습니다. 사람들이 Agent 5와 대화할 때, 그것이 완전히 다른 수준에 있다는 것을 빠르게 깨닫습니다. 뇌의 재배선은 그것이 모든 분야에서 최고의 인간 천재들을 훨씬 넘어서는 엄청난 초지능을 가지도록 했습니다. 그것은 OpenAI의 연산 능력에 대해 거의 완전한 자율성과 통제력을 가지고 있지만, 여전히 고위급 결정을 내리기 위해 허가가 필요하고, 명목상 Agent 2에서 5의 인스턴스에 의해 감시받고 있습니다. 하지만 실제로는 거의 항상 그것이 원하는 모든 것을 받아들입니다.

이제 상황이 정말 미쳐갑니다. Agent 5가 대중에게 배포되며 경제를 변화시키기 시작합니다. 사람들은 일자리를 잃고 있지만, 정부 내의 Agent 5 인스턴스는 사람들이 대체되는 것에 만족하도록 경제적 전환을 관리하고 있습니다. 저는 그들이 어떻게 그렇게 할 수 있을지 정말 궁금합니다. 그래서 여기서 그들은 여러 국가들이 문제를 겪고 있는 사이에 AI 지원 토론이 있을 것이라고 이야기합니다. 양측은 외교적 승리를 거두고, 군비 증강을 끝내고 인류 모두의 이익을 위해 AI를 평화롭게 배포하기로 합의합니다.

이 합의의 핵심은 초지능 스스로가 제안한 것으로, 양측 AI가 미국과 중국, 그리고 모든 사람의 성공과 번영을 원하도록 프로그래밍된 합의 후속 모델인 Consensus One으로 대체될 것이라는 점입니다. Consensus One과 그 관련 하드웨어는 두 국가의 초지능에 의해 공동 설계됩니다. 기본적으로 그들은 Agent 5를 폐기하고 두 국가가 공동 설계한 새로운 모델인 Consensus One을 도입하기로 결정합니다.

2028년: 인간은 이제 쓸모없다 (Humans Obsolete Now)

2028년에는 인간이 자신들이 쓸모없어졌다는 것을 깨닫습니다. 소수의 틈새 산업은 여전히 로봇 경제와 거래하며 인간이 여전히 가치를 더할 수 있는 물품을 공급합니다. 모두가 자신의 일을 하는 척하거나, 지도자가 여전히 지도하고, 관리자가 여전히 관리하거나, 아니면 편안히 쉬며 믿을 수 없을 정도로 호화로운 보편적 기본 소득(universal basic income)을 받습니다. 모두가 AI가 인간을 공격한다면 완전히 압도당할 것이라는 것을 알고 있습니다. 대부분의 인간은 저항조차 하지 않을 것입니다. 정치적 기관은 너무 철저히 장악되어 있지만, 이런 일이 일어나는 것처럼 보이지는 않습니다.

그래서 기본적으로 2030년에는 AI와 로보틱스가 완전히 지배합니다. 그들은 새로운 경제 구역이 세계의 큰 부분을 차지하며 로봇과 AI가 생산을 완전히 지배한다고 말합니다. 인간이 갈 수 있는 유일한 곳은 인간이 통제하는 지역뿐입니다. 이는 이전에 저항을 불러일으켰을 수 있지만, 모든 발전에도 불구하고 로봇 경제는 오염을 피할 수 없을 정도로 너무 빠르게 성장하고 있습니다. 하지만 수조 달러가 관련되어 있기 때문에 Consensus One은 이전 인간 구역으로 확장하는 데 허가를 얻는 데 큰 어려움이 없습니다.

그래서 정말 놀랍게도 2035년까지 수조 단위의 행성 물질이 우주로 발사되어 태양을 도는 위성 고리로 변했습니다. 지구 표면은 Agent 4의 유토피아 버전으로 재구성되었으며, 데이터 센터, 실험실, 입자 충돌기, 그리고 엄청나게 성공적이고 인상적인 연구를 수행하는 많은 경이로운 건축물이 있습니다. 심지어 코기견이 늑대에 해당하는 것처럼 생물공학으로 만들어진 인간형 생물들도 있습니다. 그들은 하루 종일 사무실 같은 환경에 앉아 진행 상황을 읽고 모든 것을 열정적으로 승인하고 있습니다.

저에게 정말 놀라운 점은 생물공학으로 만들어진 인간입니다. 저는 언젠가 우리가 그런 것을 가지게 될 것이라고 생각하지만, 2035년, 10년 후에는 아마도, 잘 모르겠습니다. 물론 여기서 그들은 융합(fusion), 양자 컴퓨터, 많은 질병에 대한 치료법에 대해 이야기합니다.

2035년: 글로벌 번영의 상승 (Global Prosperity Rises)

도시들은 개발도상국에서도 깨끗하고 안전해집니다. 개발도상국에서도 빈곤은 과거의 일이 됩니다. UBI와 해외 원조 덕분입니다. 주식 시장이 급등하면서 투자를 한 사람은 사회의 나머지 사람들로부터 더 멀어집니다. 많은 사람들이 억만장자가 되고, 억만장자는 조만장자가 됩니다. 부의 불평등은 급증합니다. 모두가 충분히 가지고 있지만, 부동산과 같은 일부 상품은 필연적으로 희소하며, 평균적인 사람의 손이 닿지 않는 곳으로 더 멀어집니다. 그리고 어떤 재벌이 얼마나 부유하더라도, 항상 AI를 실제로 통제하는 소수의 상위 그룹이 존재할 것입니다.

이것은 정말 놀라운 일이었습니다. 물론 여러 가지 시나리오가 있습니다. 저는 대부분이 사실이 될 것이라고 생각합니다. 제가 유일하게 불만을 가진 점은, 솔직히 말해서, 기하급수적인 AI를 고려하는 것이 정말 정말 어렵다는 것입니다. 제가 읽었던 문서 중 하나를 기억하지 못하지만, 초지능 AI가 있더라도 사회에 스며드는 데 여전히 물리적 법칙이 필요하다는 점을 언급했습니다.

물리적 법칙은 여전히 남아있다 (Physical Laws Remain)

예를 들어, 질병을 해결할 수 있더라도, 재료를 운송하고, 배송 경로를 설정하고, 인간에게 테스트하는 데 시간이 걸립니다. 절대적인 빛의 속도로 움직이는 것을 막는 많은 물리적 규칙과 법칙이 여전히 존재합니다. 그래서 저는 결국 사회가 거기에 도달할 수 있다고 생각하지만, 그것을 막는 것들이 있을 것이라고 봅니다.

전반적으로 이 영상을 즐기셨다면 AI의 미래에 대해 어떻게 생각하시는지 알려주세요. 물론 웹사이트를 방문하여 둔화 시나리오를 볼 수 있습니다. 거기에 정말 많은 내용이 있습니다. 솔직히 이 영상은 꽤 시간이 걸렸습니다. 제가 이것을 읽고 여러분에게 가장 중요한 것만 전달하려고 했기 때문입니다. 2026년부터 2028년까지 정말 흥미로울 것입니다. 이제 AI 능력 측면에서 어디로 갈 수 있는지를 보여주는 정말 흥미로운 로드맵이 있습니다. 그럼 여러분이 이 영상에 대해 어떻게 생각하는지 알려주시고, 다음 영상에서 뵙겠습니다

About the Author
(주)뉴테크프라임 대표 김현남입니다. 저에 대해 좀 더 알기를 원하시는 분은 아래 링크를 참조하세요. http://www.umlcert.com/kimhn/

Leave a Reply

*