微信联系方式
微信二维码

扫描二维码添加微信

微信号:18103268866

QQ联系方式
QQ二维码

扫描二维码添加QQ

QQ号:3525642302

×
微信扫码查看

请使用微信扫描二维码查看当前页面

扫描二维码后可在微信中分享给好友
完全开源的7B模型,性能比肩主流LLM,训练成本仅16万美元,复现DeepSeek的强化学习!
technology
2025-05-14 8 次浏览
完全开源的7B模型,性能比肩主流LLM,训练成本仅16万美元,复现DeepSeek的强化学习!

Moxin-7B证明了一点:高性能LLM不必是黑箱。它的全透明策略不仅降低了研究门槛,还为中小企业提供了可控的AI解决方案。Moxin-7B-Base 权重、预训练数据与代码Moxin-7B-Inst

MCP 的那些“坑”!
technology
2025-04-16 18 次浏览
MCP 的那些“坑”!

模型上下文协议(MCP) 是一种让 LLM 与外部工具、数据源打通的机制,听起来很美好:模型不再局限于内部知识,而是可以实时调用各种工具、访问各种文档...殊不知,现实远比想象复杂。