【jinnianhui科技消息】近日,微博AI推出了開源大型語言模型(LLM)——VibeThinker-1.5B。據jinnianhui了解,該模型擁有15億參數,在數學推理與代碼生成任務中卻展現出超越6710億參數競品的性能。目前,VibeThinker-1.5B可通過Hugging Face、GitHub及ModelScope平臺免費開放下載,供開發者與研究機構使用。

VibeThinker-1.5B模型在數學和代碼任務上表現出色,達到了行業領先的推理性能,甚至超越了體量達6710億參數的競爭對手DeepSeek的R1模型。該模型還能與Mistral AI的Magistral Medium、Anthropic的Claude Opus4和OpenAI的gpt-oss-20B Medium等多個大型模型抗衡。

值得一提的是,VibeThinker-1.5B在后期訓練中僅花費了7800美元的計算資源,這一成本遠低于同類或更大規模模型所需的數十萬美元甚至數百萬美元。

VibeThinker-1.5B采用了一種名為“譜-信號原則”(Spectrum-to-Signal Principle,SSP)的訓練框架,該框架將監督微調和強化學習分為兩個階段。第一個階段注重多樣性,第二個階段則通過強化學習優化最優路徑,使得小模型也能有效探索推理空間,從而實現信號放大。
版權所有,未經許可不得轉載
-金年會體育