输入内容以搜索工具。使用上下方向键在联想项之间移动,回车执行搜索,Tab 打开高亮项,Escape 关闭面板。
AI 术语词典
每次仅激活部分容量的模型架构
专家混合模型(MoE)是一种神经网络架构,模型包含许多专业子网络("专家"),但每个输入 token 只激活其中的一小部分。这使模型能够拥有非常大的总参数量,同时保持计算效率。Mixtral 和 GPT-4 据报道使用了 MoE 架构。