微信联系方式
微信二维码

扫描二维码添加微信

微信号:18103268866

QQ联系方式
QQ二维码

扫描二维码添加QQ

QQ号:3525642302

×
微信扫码查看

请使用微信扫描二维码查看当前页面

扫描二维码后可在微信中分享给好友
剑指“美国版 DeepSeek!”Ai2 科学家 Nathan Lambert 最新访谈:剖析 RLVR、激辩智能体与后训练
technology
2025-08-05 32 次浏览
剑指“美国版 DeepSeek!”Ai2 科学家 Nathan Lambert 最新访谈:剖析 RLVR、激辩智能体与后训练

在巨头用千亿美金构筑技术壁垒的时代,开源 AI 还有未来吗?来自艾伦人工智能研究所(Ai2)的 Nathan Lambert,在最新的 Latent Space 节目中给出了最响亮的回答。他所在的团队

同样1GB文本,为何中文训练效果差?对话EleutherAI研究员Catherine,看懂多语言模型的“诅咒”与“祝福”
technology
2025-07-24 42 次浏览
同样1GB文本,为何中文训练效果差?对话EleutherAI研究员Catherine,看懂多语言模型的“诅咒”与“祝福”

然而,对我所研究的很多语言来说,我们目前的模型性能还很初级,甚至连基础的预训练工作都尚未完善,更遑论考虑智能体或强化学习这些更前沿的问题。但作为语言学家,我必须指出,尽管小模型不是唯一的研究方向,但它

完全开源的7B模型,性能比肩主流LLM,训练成本仅16万美元,复现DeepSeek的强化学习!
technology
2025-05-14 67 次浏览
完全开源的7B模型,性能比肩主流LLM,训练成本仅16万美元,复现DeepSeek的强化学习!

Moxin-7B证明了一点:高性能LLM不必是黑箱。它的全透明策略不仅降低了研究门槛,还为中小企业提供了可控的AI解决方案。Moxin-7B-Base 权重、预训练数据与代码Moxin-7B-Inst

朝进行远程炮及导弹系统打击训练
technology