返回列表 发布新帖
查看: 7|回复: 0

DeepSeek最新论文提出“条件内存”(附股)

707

主题

3

回帖

2177

积分

管理员

积分
2177
发表于 前天 12:49 | 查看全部 |阅读模式
1. 核心问题

Transformer 模型没有原生的知识查找机制。当需要用到事实或知识时,它只能通过大量的神经网络计算来“模拟”检索过程,这非常低效。

2. DeepSeek解决方案:Engram 模块

论文提出了 “条件内存” 作为一种新的稀疏化维度,与 MoE 的条件计算形成互补。简单说,Engram 是一个可扩展的、静态的外部知识内存,模型可以根据需要直接从里面查找信息,而无需重新计算。

3. 提升效果:

知识检索任务显著增强、通用推理能力提升更大、代码和数学能力也大幅提升。

4、建议关注:

金蝶国际、用友网络、卓易信息、鼎捷数智、汉得信息、合合信息、虹软科技等

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

投诉/建议联系

admin@discuz.vip

未经授权禁止转载,复制和建立镜像,
如有违反,追究法律责任
  • 添加微信客服
  • 关注公众号
MACD888量化www.macd888.com -MACD量化论坛-MACD股票论坛-MACD888股票论坛-macd论坛-macd网站-macd官网-Macd888论坛官方-macd俱乐部 © 2001-2026 Discuz! Team. Powered by Discuz! W1.5 闽ICP备2025120954号-1
关灯 在本版发帖
扫一扫添加微信客服
返回顶部
快速回复 返回顶部 返回列表