回應新崛起的DeepSeek, Meta上周末公布第一個混合專家(mixture of experts,MoE)模型家族Llama 4 ,並同時開源4000億參數的Maverick及1090億參數的Scout,此外預覽高達2兆參數量的Behemoth ...