phixtral:Phi 2专家混合模型
结合了2到4个微调的microsoft/phi-2模型,Phi 2专家混合模型是一个创新的专家混合体(Mixture of Experts, MoE)。它的设计灵感来自于mistralai/Mixtral-8x7B-v0.1架构,性能优于每...
结合了2到4个微调的microsoft/phi-2模型,Phi 2专家混合模型是一个创新的专家混合体(Mixture of Experts, MoE)。它的设计灵感来自于mistralai/Mixtral-8x7B-v0.1架构,性能优于每...