Wesum AI
首页
图谱
主题百科
首页
/
图谱
/
Block-wise Attention
Block-wise Attention
技术
块级注意力机制,将动作 token 按块组织,实现已完成块的 KV 状态稳定缓存
1 次提及
2 个连接
首次出现: 2026-03-30
最近出现: 2026-03-30
关系图谱
关系 (2)
应用于 (1)
KV Cache
使用技术 (1)
Fast-dVLA
相关文章 (1)
1.
具身智能之心 - 港科大(广州)推出Fast-dVLA!保留离散扩散VLA优势的同时,推理速度干到实时