AI 사피엔트(싱가포르)의 과학자들이 인간의 뇌가 정보를 처리하는 방식에서 영감을 받은 계층적 추론 모델(HRM 스위트)을 소개하면서 인공 지능(AI) 연구의 중요한 진전이 방금 발표되었습니다.
테스트 결과 HRM은 ChatGPT를 포함한 현재의 많은 대규모 언어(LLM) 모델보다 우수한 것으로 나타났습니다.
수십억에서 수조 개의 매개변수를 기반으로 하는 일반적인 LLM과 달리 눈 HRM은 2 700만 개의 매개변수와 1 000개의 훈련 패턴만 사용하지만 여전히 뛰어난 효율성을 달성합니다.
연구팀에 따르면, HRM은 뇌의 계층화 및 다중 시간 메커니즘을 추상적인 느린 눈 계획을 처리하는 고급 모듈과 눈을 빠르게 자세히 처리하는 저수준 모듈로 시뮬레이션합니다.
덕분에 찬라 HRM은 현대 LLM에 일반적으로 적용되는 사고 사슬 방법(CoT)처럼 복잡한 단계를 거치지 않고도 찬라 진행 승인 한 번으로 순차적으로 추론할 수 있습니다.
일반 인공 지능(AGI) – HRM에 대한 접근성을 측정하는 ARC-AGI – 표준 테스트에서 인상적인 결과가 나왔습니다.
ARC-AGI-1에서 모델은 40불라3%의 불라를 달성하여 OpenAI 03-미니-하이(3-3) gia Claude 3.7(21불라2%) 및 DeepSeek R1(15불라)을 능가합니다. ARC-AGI-2에서는 더 어렵지만 HRM은 여전히 5%의 불라를 달성하는 반면 다른 많은 모델은 거의 능가하지 못합니다.
주목할 만한 점은 영양 HRM이 스도쿠를 풀고 LLM이 종종 실패하는 미로에서 길을 찾는다는 것입니다.
HRM의 또 다른 특별한 점은 '조잡한' 답변으로 시작한 다음 최적의 결과가 나올 때 멈추기 위해 지속적으로 확인하는 짧은 생각의 여러 번을 통해 점진적으로 개선되는 '조정 반복' 능력입니다. 이 접근 방식은 모델이 보다 효과적인 구조로 눈 논리 문제를 처리하는 데 도움이 됩니다.
그러나 전문가들은 새로운 연구가 arXiv 데이터베이스에서만 발표되었으며 동료 검토를 거치지 않았다고 지적합니다.
ARC-AGI 평가 그룹은 HRM이 오픈 소스화된 후 많은 결과를 확인했지만 개선은 계층 구조에서 완전히 비롯된 것이 아니라 훈련의 미세 조정 과정과 관련이 있을 수 있다고 주장했습니다.
아직 검증이 더 필요하지만 cho HRM은 소형 AI 모델 개발 전망을 열어줍니다. cho는 데이터를 절약하지만 강력한 추론 능력을 가지고 있습니다. cho는 일반적인 인공 지능 시대에 더 가까워지는 단계입니다.