26-1-14 중국의 인공지능 개발 소식, 혁신은 계속된다. 정태현 글
작년 말 네이처는 2025년 10대 과학자 중 한 명으로 량원펑을 선정했다. AI 분야에서는 유일하게 이름을 올렸다. 서방의 과학계가 여전히 미국과 유럽 중심으로 돌아감에도 이 어워드에 중국 과학자가, 그것도 가장 핫하고 거대한 자본이 집중되고 있는 AI 분야에서 유일하게 선정된 것은 그 자체로 의미심장하다. 량원펑은 AI의 효율성을 높이는 연구로 주목받았는데, 하루 전(1월 12일) 그의 최근 논문 발표가 또다시 뉴스를 장식했다. 아카이브에 업로드된 그의 논문은 "확장 가능한 검색을 통한 조건부 메모리: 대형 언어 모델을 위한 새로운 희소성 축"이라는 제목이다. 이 소식을 접하며 1여년 전 DeepSeek가 가성비 높은 AI 모델을 내놓아 모두를 놀라게 했던 그 충격을 떠올렸다. 중국의 기술 발전 속도는 여전히 예측 불가능하고 압도적이다.
논문을 대충 읽어보았다. 자세히 읽기엔 어렵고 수학 공식을 해석하기 쉽지 않다. 초록과 대강의 내용을 통해 파악한 바를 간단히 설명하자면, 대형 AI 모델은 마치 거대한 뇌처럼 작동해 질문을 받을 때마다 모든 부분을 동원해 생각하느라 에너지를 낭비한다. 량원펑과 그의 팀은 이 문제를 해결하기 위해 "조건부 메모리"라는 아이디어를 제안한다. AI에 특수한 노트를 붙여주는 것과 비슷하다. 노트에는 자주 쓰이는 단어 패턴이나 기본 사실을 미리 저장해 놓고, 필요할 때 즉시 꺼내 쓴다. 그렇게 되면 AI는 쉬운 일은 노트북에 맡기고, 어려운 문제에만 집중할 수 있다. 예를 들어, "사과는 빨간 과일" 같은 간단한 패턴은 저장된 메모리에서 바로 가져오고, 복잡한 수학 문제나 코드 작성처럼 창의력이 필요한 일에 힘을 쏟는다. 연구팀은 이 메모리를 270억 개의 매개변수 규모로 만들었고, 테스트 결과 기존 모델보다 추론 능력, 코드 생성, 수학 해결에서 3~5점 정도 앞섰다고 한다. 긴 문맥을 다룰 때도 이 노트가 도와주기 때문에 잊어버리지 않고 처리하게 된다. 어찌보면 단순하지만 LLM의 틈새 효율을 찾아냈다. 역시 가성비를 좋게 하는 연구다. 사람이 메모장을 활용해 머리를 비우듯 GPU의 메모리 부하를 감소시켜 제한된 자원을 효율적으로 사용하게 만든다.
2024년 말 량원펑의 DeepSeek가 저비용 고성능 모델을 출시했을 때, 미국은 당황했다. 오픈AI나 구글은 수백억 달러를 쏟아부었는데, 중국은 그 절반 비용으로 비슷한 수준을 만들었기 때문이었다. 이번 연구도 그 연장선상에 있다. 중국의 기술이 더욱 빨라지는 현상은 서방의 기술 패권과 제재에도 그 이유가 있다. 미국은 중국의 기술 도약을 "위협"이라 말하며 AI 칩 수출을 제한했다. 그로 인해 중국은 자체 칩과 알고리즘으로 돌파구를 찾을 수밖에 없다. 중국의 속도는 그저 경쟁이 아니라 불평등한 글로벌 질서에 대한 자연스러운 저항이다.
서방 중심의 기술문명 서사에 길들여진 우리들이었지만 이제는 더이상 그렇지 않음을 안다. 혹시 아직도 혐중 친미사대에 빠져있는 자가 있다면 비서방 출신으로 2025년 네이처 선정에서 AI 분야 최고의 과학자가 된 량원펑을 직시하라. 기술은 평화와 정의를 위한 도구가 될 수 있지만, 누가 그것을 독점하느냐에 따라 세상이 달라진다.