💙 Gate广场 #Gate品牌蓝创作挑战# 💙
用Gate品牌蓝,描绘你的无限可能!
📅 活动时间
2025年8月11日 — 8月20日
🎯 活动玩法
1. 在 Gate广场 发布原创内容(图片 / 视频 / 手绘 / 数字创作等),需包含 Gate品牌蓝 或 Gate Logo 元素。
2. 帖子标题或正文必须包含标签: #Gate品牌蓝创作挑战# 。
3. 内容中需附上一句对Gate的祝福或寄语(例如:“祝Gate交易所越办越好,蓝色永恒!”)。
4. 内容需为原创且符合社区规范,禁止抄袭或搬运。
🎁 奖励设置
一等奖(1名):Gate × Redbull 联名赛车拼装套装
二等奖(3名):Gate品牌卫衣
三等奖(5名):Gate品牌足球
备注:若无法邮寄,将统一替换为合约体验券:一等奖 $200、二等奖 $100、三等奖 $50。
🏆 评选规则
官方将综合以下维度评分:
创意表现(40%):主题契合度、创意独特性
内容质量(30%):画面精美度、叙述完整性
社区互动度(30%):点赞、评论及转发等数据
腾讯混元再推开源 AI 大招!Hunyuan-A13B 模型亮相,13B 参数挑战 80B 巨兽
随着生成式 AI 进入新阶段,超大模型虽然强悍,却也伴随着高昂的资源成本与部署难度。腾讯混元最新释出的开源大型语言模型 Hunyuan-A13B,则走出了一条轻量级、高效能的新路线:虽然拥有总计 800 亿参数,但每次推理仅启用 130 亿参数,透过「Mixture-of-Experts(MoE)」架构,大幅压缩推理成本,却又不牺牲语言理解与推理能力。
打破效能与资源瓶颈:Hunyuan-A13B 的技术底层解析
Hunyuan-A13B 采用稀疏 MoE 架构,共拥有 64 个专家模块与一个共享专家,每次推理时仅选用其中 8 个专家活化,搭配 SwiGLU 激活函数与 GQA(Grouped Query Attention)技术,能有效提升记忆体使用效率与推理吞吐量。
此外,其预训练资料量高达 20 兆 tokens,当中包含 2500 亿来自 STEM 领域的高品质资料,强化模型在数学、科学与逻辑推理上的表现。整体训练历经三大阶段:基础预训练、快速退火训练与长上下文扩展训练,最终支援长达 256K tokens 的上下文处理能力。
推理两种模式任选:快速 vs. 深度思考自由切换
Hunyuan-A13B 特别引入双模式推理机制(Dual-mode Chain-of-Thought),根据任务复杂度自动切换「快思」与「慢思」模式。快思适用于日常简单查询,强调低延迟与高效率;慢思则会启动更长的 Chain-of-Thought 推理路径,处理多步逻辑与复杂推演问题,平衡准确性与资源使用。
评测成绩亮眼
在多项公认基准测试中,Hunyuan-A13B 的表现相当出色。它在数学推理(如 AIME 2024、MATH)中勇夺榜首,在逻辑推理(如 BBH、ZebraLogic)也名列前茅。即便在较考验模型深度的长文本测试如 LongBench-v2 和 RULER 中,Hunyuan-A13B 也展现了惊人的上下文保留与逻辑整合能力,击败了参数远大于它的 Qwen3-A22B 与 DeepSeek-R1。
面对开放环境挑战,工具调用能力全面升级
除了语言与推理能力外,Hunyuan-A13B 也大幅提升了 Agent 能力。在 BFCL v3、ComplexFuncBench 等针对工具调用、规划与多轮对话的测试中,它的表现不仅优于 Qwen3-A22B,更在 C3-Bench 测试中名列第一,展现其适应复杂任务流程的强大实力。
推理吞吐量爆表,部署效率值得关注
根据报告实测,Hunyuan-A13B 在推理效率上也同样惊艳。搭配现有推理框架如 vLLM、TensorRT-LLM 等,在 32 批次、14K tokens 输出长度下,可达近 2000 tokens/s 的吞吐量。在使用 INT8、FP8 等量化精度情况下,亦能保持效能,对于企业部署至关重要。
高效能与高性价比兼得,开源模型迎来新选择
腾讯透过 Hunyuan-A13B 为开源语言模型界树立新典范。该模型不仅突破了「小模型难敌大模型」的刻板印象,更提供弹性推理与多任务适应能力,成为开源 LLM 领域的新旗舰。对于资源有限但仍追求高效 AI 解决方案的开发者与企业来说,Hunyuan-A13B 无疑是一个值得关注的强力新选择。
这篇文章 腾讯混元再推开源 AI 大招!Hunyuan-A13B 模型亮相,13B 参数挑战 80B 巨兽 最早出现于 链新闻 ABMedia。