/AI Chasm Catalyst

마크 저커버그 메타 CEO가 인공지능(AI) 초지능 개발이 임박했다고 선언하며 기술 업계에 새로운 파장을 일으켰다.

그는 2025년 7월 30일(현지시간) 메타의 공식 블로그와 소셜미디어를 통해 “지난 몇 달 동안 AI 시스템이 스스로 개선되는 초기 징후를 관찰했다”며 “초지능 개발이 가시권에 들어왔다”고 밝혔다.

이 발언은 메타가 새롭게 설립한 ‘메타 초지능 연구소(Meta Superintelligence Labs, MSL)’를 중심으로 한 야심 찬 AI 전략의 일환으로, 빅테크 기업들 간의 초지능 경쟁이 본격화되었음을 알리는 신호탄이다.

초지능 개발의 가시화와 재귀적 자기 개선

저커버그의 선언은 초지능(Superintelligence)이 단순한 이론이 아니라 현실로 다가오고 있음을 강조한다. 초지능은 인간의 지적 능력을 모든 분야에서 초월하는 AI를 의미하며, 과학, 예술, 의학 등에서 인간보다 뛰어난 문제 해결과 창의성을 발휘할 것으로 기대된다.

특히 그는 AI가 스스로 학습하고 개선하는 ‘재귀적 자기 개선(Recursive Self-Improvement, RSI)’의 징후를 언급하며, 이는 초지능으로 가는 핵심 단계로 평가된다. 이와 관련해 세이프슈퍼인텔리전스(SSI) 공동 창업자인 일리야 수츠케버는 “AI가 다음 세대의 AI를 만들기 시작하면 ‘지능 폭발(intelligence explosion)’이 일어날 것”이라고 예측한 바 있어, 저커버그의 발언과 맥을 같이한다.

전문가들은 재귀적 자기 개선이 초지능으로 이어질 가능성에 주목한다. 예를 들어, 구글 딥마인드의 데미스 허사비스 CEO는 2025년 6월 CNN 인터뷰에서 “AI의 자율적 개선은 통제 불능의 위험을 초래할 수 있다”며 글로벌 합의의 필요성을 강조했다. 이는 초지능의 잠재적 위험과 함께 그 개발이 기술적, 윤리적 도전 과제임을 시사한다.

메타의 개인화된 초지능 비전

저커버그는 메타의 초지능 비전을 “모든 사람에게 개인용 초지능을 제공해 각자의 목표를 달성하고 창작을 돕는 것”으로 정의했다. 이는 오픈AI의 샘 알트만 CEO가 제안한 ‘AI가 생산한 가치를 기본소득(UBI)이나 기본자산 형태로 분배한다’는 중앙집중적 철학과 대비된다. 저커버그는 알트만의 접근을 “가치를 중앙화하고 통제하는 방식”으로 간접 비판하며, 메타는 개인의 자율성과 창의성을 극대화하는 데 초점을 맞춘다고 밝혔다.

메타의 비전은 개인화된 AI를 통해 사용자와 밀접하게 상호작용하는 기술을 구현하는 데 있다. 저커버그는 “스마트 안경 같은 개인용 기기가 주요 컴퓨팅 장치가 될 것”이라며, 이 기기가 사용자의 시각과 청각을 공유하며 하루 종일 상호작용할 것이라고 전망했다.

이는 메타의 증강현실(AR) 안경 프로젝트와 연계되며, 사용자 데이터를 기반으로 초개인화된 AI 서비스를 제공해 디지털 광고 중심의 수익 모델을 강화하려는 전략으로 해석된다. 메타의 매출 98%가 광고에서 비롯된다는 점에서, 이러한 접근은 차세대 플랫폼 패권을 노리는 실질적인 비즈니스 전략으로 보인다.

AI 전환의 현실적 과제와 오해

메타의 초지능 선언이 주목받는 가운데, AI 전환의 현실적 과제에 대한 논의도 뜨겁다. 이제현 박사의 글을 통해 드러난 바와 같이, AI 도입 과정에서 흔히 발생하는 오해들은 성공적인 전환을 가로막는다. 첫째, 많은 기업이 대규모 언어모델(LLM)을 모든 문제의 만능 해결책으로 간주하지만, 특정 작업에는 소규모 베이지안 모델이 더 효율적일 수 있다. 예를 들어, 실험 계획 수립에서는 환각 현상이 없는 베이지안 모델이 GPU 의존도가 낮으면서도 정확한 의사결정을 지원한다.

둘째, 행정 업무 자동화를 위해 단일 AI 솔루션을 모든 부서에 적용하려는 시도는 실패 가능성이 높다. 각 부서의 데이터베이스 구조가 다르기 때문에, 표준화된 연동 설계가 필수적이다. 예를 들어, 한 공공기관이 단일 AI 에이전트를 도입하려다 DB 연동 문제로 프로젝트가 지연된 사례는 이러한 접근의 한계를 보여준다.

셋째, AI를 머신러닝으로만 한정 짓는 오해도 문제다. 규칙 기반 전문가 시스템은 특정 업무에서 더 빠르고 정확할 수 있다. 실제로, 금융기관의 대출 심사 프로세스에서 SQL 쿼리를 활용한 규칙 기반 시스템이 복잡한 머신러닝 모델보다 효율적이었다는 사례가 이를 뒷받침한다.

넷째, 데이터의 신뢰성 검증 없이 AI 모델 학습에 사용하는 것은 위험하다. 예를 들어, 한 제조업체가 오염된 데이터를 사용해 AI 모델을 학습시켰다가 잘못된 생산 예측으로 큰 손실을 본 사례는 데이터 검증의 중요성을 강조한다.

마지막으로, AI 전문가의 의견만을 맹신하는 것도 경계해야 한다. 현장 직원의 비정형 데이터를 반영하지 않으면 프로젝트는 실패로 이어질 수 있다. 한 병원의 AI 도입 프로젝트에서 현장 간호사의 피드백을 무시해 시스템이 실제 업무 흐름과 맞지 않았던 사례는 이를 잘 보여준다. 이를 해결하려면 AI 전문가와 현장 직원 간의 ‘통역자’ 역할이 필요하다.

오픈소스 전략의 변화와 안전성 우려

메타는 기존에 ‘라마(LLaMA)’ 시리즈를 오픈소스로 공개하며 개방형 AI 생태계를 주도해왔다. 하지만 저커버그는 초지능 모델에 대해 “안전성 우려로 모든 모델을 오픈소스로 공개하지 않을 수 있다”고 밝혔다.

이는 오픈AI, 구글, xAI 등 폐쇄형 모델을 채택한 경쟁사들과의 전략적 차별화에서 한발 물러선 것으로, 초지능의 잠재적 위험을 인식한 결정으로 보인다. 테크크런치는 “오픈소스 공개는 기술 확산에 유리하지만, 수익성과 안전성 측면에서 한계가 있다”고 분석했다.

실제로, 초지능 AI가 악용될 경우 영화 ‘터미네이터’의 ‘스카이넷’과 같은 통제 불능 상황이 우려된다. 이에 대해 허사비스는 “나쁜 의도를 가진 이들이 AI를 악용할 가능성이 있다”며 글로벌 협력의 필요성을 강조했다.

메타는 이러한 위험을 완화하기 위해 폐쇄형 모델 개발을 병행하며, AR 안경과 같은 하드웨어에 초지능을 접목해 사용자 중심의 안전한 AI 생태계를 구축하려 한다.

경쟁 구도와 GPT-5의 도전

메타의 초지능 선언은 오픈AI의 GPT-5 개발과 맞물려 AI 전쟁의 새로운 국면을 예고한다. 오픈AI는 GPT-5를 ‘맨해튼 프로젝트’에 비유하며, 추론 모델 통합을 통해 복잡한 논리적 사고와 코딩 능력을 강화했다고 밝혔다.

테스트 사용자들은 GPT-5의 코딩 성능이 특히 뛰어나다고 평가했다. 이에 맞서 메타는 오픈AI, 구글 딥마인드, 앤트로픽 출신 연구원을 대거 영입하며 MSL을 강화했다. 예를 들어, 챗GPT 공동 개발자인 자오셩자를 수석과학자로 임명하고, 스케일AI의 알렉산더 왕을 AI 최고책임자로 영입했다.

이러한 인재 영입 전쟁은 AI 업계의 치열한 경쟁을 보여준다. 한 X 게시물에 따르면, 저커버그가 오픈AI 직원들에게 파격적인 보상을 제안하며 영입을 시도했으나, 샘 알트만은 “이는 조직 문화 문제를 초래할 것”이라며 반발했다.

결론: 현실적 접근과 윤리적 책임

메타의 초지능 비전은 개인화된 AI를 통해 차세대 플랫폼을 장악하려는 야심을 드러낸다. 하지만 AI 전환은 기술적 혁신뿐 아니라 현실적 과제와 윤리적 책임을 동반해야 한다.

이제현 박사의 조언처럼, AI 도입은 ‘메시아’를 기다리는 환상에서 벗어나 현장 데이터와 문제에 맞는 최적의 솔루션을 찾아야 한다.

메타의 초지능 연구소와 오픈AI의 GPT-5 경쟁은 AI 전쟁의 새로운 장을 열었지만, 기술의 안전성과 사회적 영향을 신중히 고려해야 할 시점이다.