기술 회사들이 점점 더 크고 복잡해지는 인공 지능 모델을 지속적으로 개발하는 상황에서 알리바바는 Qwen 3.5 시리즈에 속하는 새로운 소형 AI 모델 시리즈를 소개하면서 다른 방향을 선택했습니다.
4가지 새로운 모델은 Qwen 3.5-0.8B, 2B, 4B 및 9B로 구성되어 있으며 매개변수 규모는 80억에서 90억입니다. 알리바바에 따르면 이 모델은 강력한 추론 능력을 제공하면서도 크기를 최적화하여 효율적이고 유연한 AI 솔루션이 필요한 개발자를 지원하도록 설계되었습니다.
주목할 만한 점은 모든 Qwen 3.5 모델이 동일한 아키텍처에 구축되어 있으며 텍스트와 이미지 모두를 처리할 수 있는 멀티미디어를 지원한다는 것입니다.
각 모델에는 자체적으로 조정하려는 개발자를 위한 "기본" 버전과 즉시 구현할 수 있는 "튜토리얼" 버전의 두 가지 버전이 있습니다.
그중 Qwen 3.5-9B는 이 라인에서 가장 큰 모델이며 많은 관심을 받고 있습니다. 알리바바에 따르면 이 모델은 GPT-oSS-120B를 포함한 훨씬 더 큰 모델과 동등한 성능을 달성했습니다.
크기 차이가 상당함에도 불구하고 Qwen 3.5-9B는 일부 테스트에서 경쟁적인 추론 및 지식 처리 능력을 보여줍니다.
회사는 논리 추론, 수학 문제 해결 및 문서 분석과 같은 작업에서 Qwen 3.5-9B가 OpenAI의 ChatGPT 또는 Google의 Gemini와 같은 대규모 AI 챗봇과 동등한 결과를 얻을 수 있다고 밝혔습니다.
반대로 가장 작은 두 모델인 Qwen 3.5-0.8B와 2B는 노트북이나 스마트폰과 같이 컴퓨팅 성능이 제한적인 장치에서 작동하도록 최적화되어 있습니다.
추론 능력이 더 큰 버전만큼 강력하지는 않지만 여전히 텍스트와 이미지를 모두 처리할 수 있습니다.
Qwen 3.5 모델은 현재 오픈 소스로 출시되어 개발자가 Hugging Face 또는 ModelScope와 같은 인기 있는 플랫폼을 통해 로컬 다운로드 및 실행할 수 있습니다.
이 모델 라인의 출시는 기술계의 관심도 끌었습니다. X 소셜 네트워크에서 xAI CEO 일론 머스크는 Qwen 3.5 모델이 "인상적인 지능 밀도"를 가지고 있다고 언급했습니다. 즉, 매개변수 규모가 작더라도 높은 추론 및 작업 처리 능력을 보여줄 수 있는 능력입니다.
Qwen 3.5의 성공은 AI 개발의 새로운 추세를 보여줍니다. 규모 확장에만 집중하는 대신 기업은 더 작은 모델에서 성능을 최적화하여 AI를 더 쉽게 구현하고 컴퓨팅 리소스를 절약하는 방법을 찾고 있습니다.