搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
过去 30 天
时间不限
过去 1 小时
过去 24 小时
过去 7 天
按相关度排序
按时间排序
来自MSN
19 天
多亏Transformer,Mamba更强了!仅用1%计算量达新SOTA
Mamba架构最新进展:仅需1%计算量,新模型性能达SOTA。 能做到这一点,还多亏了Transformer。 通过将Transformer模型中的知识有效迁移到Mamba等替代架构中 ...
搜狐
5 天
北京三狮申请超分辨率轻量级混合Transformer-Mamba网络专利,开启视觉AI ...
2025年1月24日,金融界消息,北京三狮科技有限公司正式向国家知识产权局提交了一项名为“用于超分辨率的轻量级混合Transformer-Mamba网络-TranMamba”的专利申请,公开号为CN119337937A。这一创新技术标志着在智能图像处理和计算机视觉领域的一次重大突破,尤其是在 ...
GitHub
26 天
问答模型(Text-Generation, T5 Based)
问答模型是指通过输入一个「问题」和一段「文章」,输出「问题的答案」。 问答模型分为「抽取式」和「生成式」,抽取式问答可以使用 UIE训练,这个实验中我们将使用「生成式」模型来训练一个问答模型。 我们选用「T5」作为 backbone,使用百度开源的「QA ...
GitHub
26 天
UIE (Universal Information Extraction) for transformsers
UIE的官方文档在这里。 有关UIE的详细的详细介绍在这里。 项目中提供了一部分示例数据,数据来自DuIE数据集中随机抽取的100条,数据在 data/DuIE 。 Notes: 数据标注建议使用 doccano 完成,标注方法和标注转换可以参考 UIE 官方的详细介绍:这里。 NER和事件抽取在 ...
51CTO
29 天
线性化注意力综述:突破Softmax二次复杂度瓶颈的高效计算方案
注意力机制基础理论 本文假设读者已经熟悉ChatGPT、Claude等模型及其底层的transformer架构原理。注意力机制是这类模型 ... 不同的参数化方案可能导致模型趋近于线性注意力或门控注意力机制。 Mamba模型通过选择性SSM块实现了这种时变状态空间框架: Mamba的创新 ...
51CTO
29 天
考研数学得126分、还能编写小游戏,智谱首个推理模型来了,人人 ...
GLM-Zero-Preview 是 GLM 家族中专注于增强 AI 推理能力的模型,擅长处理数理逻辑、代码和需要深度推理的复杂问题。同基座模型相比,GLM-Zero-Preview 既没有显著降低通用任务能力,又大幅提升了专家任务能力。 2024 年的最后一天,智谱 GLM 模型家族迎来了一位新成员 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈