Wesum AI
首页
图谱
主题百科
首页
/
图谱
/
Flash Attention
Flash Attention
技术
用于重构注意力算子计算路径的技术
13 次提及
15 个连接
首次出现: 2026-03-30
最近出现: 2026-04-25
关系图谱
关系 (15)
使用技术 (8)
北航
Qwen3
MoE
Google DeepMind
JoyAI-LLM Flash
TISA
Elephant Alpha
SSD
应用于 (7)
AI科研助手
可解释AI
AI芯片
Attention Mechanism
深度求索 DeepSeek
Transformer
KV Cache
相关文章 (13)
1.
甲子光年 - HPC迎来AI大考,鲲鹏如何为开发者“减负”?|甲子光年
2.
量子位 - 让大模型看懂「高亮标注」:在注意力计算前编辑Key向量,用频谱分解让模型「听你指挥」丨ICLR'26
3.
PaperWeekly - 嫌Muon太吃算力?Mamba作者团队巧用Gram矩阵,实测提速两倍
4.
赛博禅心 - 循环即实验室:八个AI自主研究系统横评
5.
新智元 - 重磅开源!240亿参数力压NanoBanana2
6.
计算机司令部 - 【国联民生计算机】Token“通胀”呼唤超节点
7.
智东西 - 中国AI芯片论文入选计算机体系结构界Nature!芯片会自己做决策了
8.
财联社AI daily - 100B匿名模型Elephant冲上OpenRouter趋势榜第二
9.
量子位 - 大模型架构的下半场
10.
机器之心 - 刚刚,DeepSeek开始频繁更新:TileKernels、DeepEPV2
11.
机器之心 - 比全球最强推理引擎还快2倍,斯坦福、普林斯顿破解大模型「串行魔咒」
12.
极市平台 - 清华拆解OPD黑箱:强老师为什么救不了蒸馏?两个核心条件决定成败
13.
智东西 - DeepSeekV4登顶了!梁文锋把四大技术秘方公开