Macaron AI의 Mind Lab, 10% 비용으로 1조개 파라미터 RL 신기록 달성, NVIDIA Megatron에 통합
GlobeNewswire
중요도
AI 요약
Macaron AI가 NVIDIA Megatron에 통합되어 AI 학습 비용을 10%로 절감하는 혁신을 달성했습니다.
이는 NVIDIA의 AI 인프라 채택 확대에 긍정적인 신호로 작용하며, GPU 수요
증가를 견인할 것으로 기대됩니다.
핵심 포인트
- Macaron AI가 NVIDIA Megatron에 통합되어 AI 학습 비용을 10%로 절감하는 혁신을 달성했습니다.
- 이는 NVIDIA의 AI 인프라 채택 확대에 긍정적인 신호로 작용하며, GPU 수요 증가를 견인할 것으로 기대됩니다.
긍정 / 부정 요인
긍정 요인
- NVIDIA Megatron 통합으로 AI 학습 비용 절감
- AI 인프라 채택 확대 기대
- GPU 수요 증가 견인 가능성
기사 전문
Macaron AI, '체험 지능' 시대 연다…10% GPU 예산으로 1조 파라미터 AI 학습 성공
인공지능(AI) 발전의 역사는 '더 큰 것이 더 좋다'는 원칙으로 요약될 수 있었습니다. 하지만 이제는 단순히 컴퓨팅 파워를 확장하는 시대가 저물고 있다는 분석이 나옵니다. 전 OpenAI 공동 창업자인 일리야 수츠케버(Ilya Sutskever)가 최근 언급했듯, "AI의 다음 도약은 더 큰 데이터센터에서 나오지 않을 것이며, 기계가 경험으로부터 배우는 방식의 근본적인 돌파구에서 나올 것"이라는 전망입니다.
개인 AI 에이전트(Personal AI Agent)로 알려진 스타트업 Macaron AI는 바로 이러한 아이디어에 베팅하고 있습니다. Macaron AI는 오늘 자체 연구 조직인 Mind Lab을 공식 출범시키고, '체험 지능(Experiential Intelligence)'이라는 비전을 입증하는 일련의 성과와 제품 업데이트를 발표했습니다.
Mind Lab 팀은 Low-Rank Adaptation(LoRA) 기술을 활용하여 오픈소스 1조 파라미터 AI 모델에 고성능 강화학습을 적용하는 데 성공했습니다. 놀라운 점은 이 모든 과정을 기존 대비 약 10%의 GPU 예산으로 달성했다는 것입니다. 즉, 과거 수백, 수천 개의 GPU가 필요했던 작업을 이제는 그 10분의 1 수준으로 수행할 수 있게 된 것입니다. 이러한 효율성 혁신은 대규모 AI 학습의 새로운 장을 열 뿐만 아니라, Macaron AI가 단순한 '앱'을 넘어 진정한 AI 연구 역량을 갖춘 기업으로 전환했음을 보여줍니다.
확장 법칙을 넘어서: 체험 지능을 향하여
AI 업계는 현재 가장 큰 모델들이 가진 결정적인 한계를 인식하고 있습니다. 최신 업데이트마다 놀라운 벤치마크를 달성함에도 불구하고, 실제 세계의 미묘한 차이나 '롱테일(long-tail)' 상황에서는 종종 어려움을 겪는다는 것입니다.
단순히 더 많은 데이터와 파라미터를 투입하는 방식은 점차 수익률이 감소하고 있습니다. 최첨단 모델들은 변호사 시험을 통과하거나 코드를 생성할 수 있지만, 여전히 기본적인 실수를 저지르기도 합니다. 이는 좁은 환경에서 정적인 데이터셋으로 학습하기 때문이라는 분석이 있습니다. 진정으로 '지능적인' 행동은 그 이상을 요구할 것이라는 공감대가 형성되고 있으며, 바로 '경험으로부터 지속적으로 학습하는 능력'입니다.
Macaron AI의 철학은 이러한 관점과 정확히 일치합니다. 이 회사는 경험 기반 지능을 옹호하며, 확장 법칙에 대한 맹목적인 추종을 넘어 실제 사용과 모델 학습 간의 루프를 닫는 것을 목표로 합니다. 미미한 성능 향상을 위해 거대한 모델을 처음부터 다시 학습시키는 대신, Macaron의 접근 방식은 강력한 기반 모델에서 시작하여 실제 상호작용, 피드백, 작업을 통해 반복적으로 개선하는 것입니다. Mind Lab의 작업은 "진정한 지능은 실제 경험으로부터 배운다"는 윤리에 따라 경쟁사들이 사전 학습 경쟁에 갇혀 있는 것과 대조를 이룹니다. 연구와 제품의 공동 설계를 강조함으로써, 팀은 실제 제품(Macaron 개인 에이전트)의 데이터를 활용하여 연구 개선에 정보를 제공하고, 그 반대도 마찬가지입니다. 그들은 단순히 더 많은 사전 학습 데이터를 추가하는 것보다 실제 사용자 피드백으로 학습하는 것이 더 큰 성능 향상을 가져올 수 있음을 경험적으로 입증했다고 주장하며, 이를 '체험 지능'의 부상이라고 명명했습니다.
이러한 비전은 AI가 인간처럼 진화해야 한다는 아이디어에 기반합니다. 즉, 사용자와의 실제 상호작용을 통해 지속적으로 자신을 업데이트하는 것입니다. 실제로 Macaron은 개인 AI 에이전트로 데뷔했습니다. 사무 업무를 처리하는 생산성 봇과 달리, 사용자의 취향을 학습하고 목표를 예측하며 실시간으로 대화를 분석합니다. 일상적인 루틴을 풍요롭게 하기 위해 즉석에서 개인화된 앱을 생성합니다.
Macaron은 체험 지능 시대의 진정한 개인 AI 에이전트가 되는 것을 목표로 하며, Mind Lab은 이를 가능하게 하는 엔진입니다.
Mind Lab: 개인 에이전트 뒤에 숨겨진 연구팀, Macaron AI
오늘 발표는 Macaron AI의 핵심 연구 조직으로서 Mind Lab을 공식적으로 소개합니다. Macaron의 앱은 친근한 인터페이스와 영리한 미니 앱 생성으로 주목받아 왔지만, Mind Lab은 그 경험을 뒷받침하는 방대한 기술적 과제를 조용히 해결해 왔습니다. 이 연구소는 OpenAI 및 DeepMind와 같은 기관 출신 연구원들과 Tsinghua, MIT, Cornell과 같은 최고 대학 출신 동문들을 포함하여 AI 분야에 깊은 뿌리를 둔 10명의 올스타 연구팀으로 구성되어 있습니다. 이 팀은 강화학습, 대규모 최적화, AI 시스템 분야에서 200편 이상의 논문을 공동 집필했으며(30,000건 이상의 인용), 이는 Macaron의 기술적 방어력을 뒷받침합니다. 이 회사는 소비자 제품의 이면에 '최첨단 연구 스택'을 갖추고 있기를 원합니다. 실질적으로 이는 Mind Lab에서 개발된 혁신이 단순히 기성 모델에 의존하는 경쟁사보다 Macaron AI를 더 유능하고 효율적으로 만든다는 것을 의미합니다.
프론트엔드 레이아웃 작업에서 모델 점수가 아닌 인간 선호도에 대한 강화학습은 눈에 띄게 더 나은 결과를 가져왔으며, 실제 피드백이 시스템 동작을 의미 있게 개선할 수 있음을 보여줍니다.
중요한 것은 Mind Lab의 임무가 파라미터 수 경쟁에서 이기는 것이 아니라, AI 지능으로 가는 다른 길을 개척하는 것이라는 점입니다. Macaron의 창립자이자 연구 책임자인 앤드류(Andrew, MIT 출신 AI 연구원)는 "우리는 맹목적으로 확장하지 않고, 더 똑똑하게 확장합니다"라고 말합니다. 연구소는 사용자의 피드백, 환경 탐색, 다운스트림 작업 해결 등 상호작용 경험으로부터 AI 에이전트가 학습할 수 있도록 하는 알고리즘에 중점을 두어, 정적 학습으로는 불가능한 방식으로 개선합니다. 학습 루프에 명시적으로 강화학습과 지속적인 적응을 구축함으로써, Mind Lab은 대규모 정적 코퍼스가 놓치는 실제 세계의 복잡하고 역동적인 측면을 포착하는 것을 목표로 합니다. 요컨대, Mind Lab은 체험 지능의 개념을 실질적인 기술로 전환하는 실험적인 두뇌 신탁 역할을 합니다. 공식 출범과 오늘 공개된 결과물을 통해 Macaron은 업계(및 잠재적 채용 담당자 및 투자자)에게 다른 LLM API를 감싸는 앱이 아니라 그 자체로 완전한 스택 AI 혁신 기업임을 알리고 있습니다.
Macaron을 확인해 보세요: https://macaron.im/
10배 효율의 1조 파라미터 강화학습
Mind Lab 발표의 핵심은 기술적 최초입니다. LoRA(Low-Rank Adaptation)라는 파라미터 효율적인 미세 조정 방법을 사용하여 가장 큰 오픈소스 1조 파라미터 모델에 대한 고성능 강화학습(RL)을 달성했습니다. 이 규모로 RL을 추진하는 것은 엄청난 업적입니다. 일반적으로 수천억(1조는 말할 것도 없고) 파라미터를 가진 모델을 RL을 통해 튜닝하는 것은 엄청나게 비싸며, 종종 '천 GPU급' 컴퓨팅이 필요하다고 여겨집니다. 그러나 Macaron 팀은 약 10분의 1의 리소스로 이를 수행할 방법을 찾았습니다. 기존 접근 방식과 비교할 때, LoRA 기반 RL 파이프라인은 예상되는 GPU 컴퓨팅의 약 10%만 사용합니다. 최근 기술 보고서에서 팀은 동기화된 롤아웃 및 학습 아키텍처를 통해 RL 학습 반복당 시간을 6배 이상 단축했다고 설명했습니다. 결과적으로, 그들은 일반적인 학습 비용의 약 10%로 원하는 모델 정렬 및 성능을 달성했습니다. 이 혁신은 대규모 모델 정렬을 둘러싼 비용 문제를 효과적으로 해결합니다. 하이브리드 병렬화 전략(데이터, 텐서, 파이프라인, 전문가 병렬화 포함)과 LoRA 미세 조정을 결합함으로써, Mind Lab의 시스템은 '은행을 터뜨리지 않고' 진정한 거대 모델을 학습하고 조정할 수 있습니다. 참고로 올해 초 Macaron은 단 48개의 H100 GPU로 671B 파라미터 모델을 학습하여 이미 놀라운 효율성 증가를 기록했습니다. 이제 1T 파라미터 RL 학습을 시연함으로써, 그들은 더욱 도약했습니다. LoRA 접근 방식을 사용하여 오픈 모델에서 이 규모로 RL을 성공적으로 실행함으로써 업계 표준을 설정했습니다. LoRA의 선택은 핵심입니다. 1조 개의 가중치를 모두 업데이트하는 대신, LoRA는 모델을 조정하기 위해 작은 저랭크 업데이트 행렬(종종 파라미터의 0.5% 미만 영향을 미침)을 삽입합니다. 이는 정확도 손실을 최소화하면서 학습에 필요한 컴퓨팅 및 메모리 오버헤드를 크게 줄입니다. 저랭크 조정은 전체 미세 조정 성능의 90% 이상을 유지하면서 컴퓨팅의 일부만 사용합니다.
우리는 이 시스템을 Kimi K2에 대한 장기 추론 및 에이전트 작업 세트에 대해 RL에 적용했습니다. 주요 관찰 결과는 다음과 같습니다.
이러한 결과는 1조 파라미터 LoRA RL이 실현 가능할 뿐만 아니라 운영상 실용적임을 보여줍니다. 특히 MoE 병렬화를 염두에 두고 처음부터 아키텍처화될 때 더욱 그렇습니다.
더욱이 Mind Lab은 핵심 RL 알고리즘을 오픈소스로 공개하고 최적화를 주요 AI 프레임워크에 기여했습니다. 그들의 기술은 NVIDIA의 거대 모델 학습 플랫폼인 NVIDIA의 NeMo Megatron-Bridge와 대규모 AI 연구에 널리 사용되는 인프라인 ByteDance의 VolcEngine RL(VERL) 라이브러리에 통합되었습니다. 이는 해당 프레임워크를 사용하는 모든 조직이 이제 Macaron의 LoRA 기반 RL 방법을 대규모로 활용할 수 있음을 의미합니다. 커뮤니티의 반응은 열광적입니다. 이러한 프로젝트의 유지 관리자들은 기여를 인정했으며, 오픈소스 커뮤니티의 초기 채택자들도 주목하고 있습니다. 기존 플랫폼과의 통합을 통해 Mind Lab은 사내에서 인상적인 데모를 실행하는 것뿐만 아니라 모두를 위해 최첨단 기술을 향상시키고 있습니다. 독점적인 거대 기업들이 기술을 보호하는 분야에서 이러한 개방성은 더 넓은 AI 생태계에 대한 영향력을 중요하게 생각하는 최고 수준의 인재와 협력자를 유치하기 위한 전략적 움직임으로도 볼 수 있습니다. 전체 기술 블로그를 읽어보세요: 10%의 GPU로 1조 파라미터 추론 RL을 구축하는 방법
AI 메모리 재고찰: "메모리 확산"과 현명한 망각
Macaron AI의 메모리 확산(Memory Diffusion)은 AI가 정보를 저장하고 업데이트하는 방식을 재정의합니다. 메모리를 외부 데이터베이스나 과거 대화의 단순한 재생으로 취급하는 대신, Macaron은 에이전트의 궤적을 따라 메모리를 지속적으로 다시 압축합니다. 실제로는 AI의 장기적인 맥락이 모든 대화의 정적 로그가 아니라, 각 상호작용마다 정제되는 진화하는 압축된 상태가 됩니다. 새로운 경험이 들어오면, 오래된 세부 정보는 단순히 축적되거나 삭제되는 것이 아니라 압축되어 진정으로 중요한 것의 간결한 표현으로 통합됩니다. 이러한 동적 접근 방식은 Macaron이 관련 없는 데이터의 부담 없이 지식을 전달할 수 있도록 하여, 계산 효율성을 유지하면서 사용자에게 풍부한 개인 맥락을 제공합니다.
관련 기사
엔비디아, 1분기 재무 결과 발표를 위한 컨퍼런스 콜 개최
중립2026년 4월 29일 PM 09:02OpenAI의 새로운 GPT-5.5, 엔비디아 인프라 기반 Codex 구동 — 엔비디아, 이미 활용 시작
긍정2026년 4월 23일 PM 06:57GeForce NOW, Xbox Game Pass 및 Ubisoft+ 라벨로 게임 검색 기능 강화
긍정2026년 4월 23일 PM 01:23초기 우주 이해하기
중립2026년 4월 23일 PM 01:23열대우림부터 재활용 공장까지: 엔비디아 AI가 지구를 보호하는 5가지 방법
긍정2026년 4월 22일 PM 01:48