会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 奔腾2 CPU+128MB内存成功运行Llama大模型:速度还挺快!

奔腾2 CPU+128MB内存成功运行Llama大模型:速度还挺快

时间:2025-01-05 16:17:48 来源:庸庸碌碌网 作者:热点 阅读:976次

12月30日消息,奔腾据媒体报道,存成EXO Labs最近发布了一段视频,功运展示了在一台26年历史的行L型速Windows 98奔腾2 PC上运行大模型(LLM)。

这台主频350MHz电脑成功启动进入Windows 98系统,大模度还随后EXO启动了基于Andrej Karpathy的挺快Llama2.c定制的纯C推理引擎,并要求LLM生成关于“Sleepy Joe”的奔腾故事,令人惊讶的存成是生成速度相当可观。

奔腾2 CPU+128MB内存成功运行Llama大模型:速度还挺快

EXO Labs的功运这一壮举并非偶然,该组织自称为“民主化AI”而生,行L型速由牛津大学的大模度还研究人员和工程师组成,他们认为,挺快少数大型企业控制AI对文化、奔腾真理和社会的存成其他基本方面是不利的。

因此,功运EXO希望建立开放的基础设施,训练前沿模型,并使任何人在任何地方都能运行它们,这项在Windows 98上的AI演示,展示了即使在资源极其有限的情况下也能完成的事情。

EXO Labs在文章中详细描述了在Windows 98上运行Llama的过程,他们购买一台旧的Windows 98 PC作为项目基础,但面临了许多挑战。

将数据传输到老设备上就是一个不小的挑战,他们不得不使用“老式的FTP”通过古老机器的以太网端口进行文件传输。

编译现代代码以适应Windows 98可能是一个更大的挑战,EXO找到了Andrej Karpathy的llama2.c,可以总结为“700行纯C代码,可以运行Llama 2架构模型的推理”,Karpathy曾是特斯拉的AI主管,也是OpenAI的创始团队成员。

利用这个资源和旧的Borland C++ 5.02 IDE和编译器(以及一些轻微的调整),代码可以被制作成Windows 98兼容的可执行文件并运行,GitHub上有完成代码的链接。

使用260K LLM和Llama架构在Windows 98上实现了“35.9 tok/s”的速度,根据EXO的博客,升级到15M LLM后,生成速度略高于1 tok/s,Llama 3.2 1B的速度则慢得多,为0.0093 tok/s。

(责任编辑:娱乐)

相关内容
  • 记者:J罗继续正常训练,关于他离队的消息是哥伦比亚方面的谣言
  • 姆巴佩26岁前已打入344球21世纪仅次梅西
  • 《GTA6》B站预告对比油管:细节明显更清晰
  • VESA发布1000nits显示器亮度标准:专门针对OLED HDR
  • [流言板]库里:今年有很多值得感恩的时刻,迎接2025我们一起努力
  • 明星大咖云集:央视跨年晚会节目单公布
  • 沪渝蓉沿江高铁最后一段宜昌至涪陵正式开工:全程时速350公里
  • 我国开建全球最大万吨级纯电动运输船:总电量2万4千度 续航可达500公里
推荐内容
  • 编号带“00001”的高铁司机太牛!36年安全行驶160多万公里
  • 曼晚:加纳乔回归曼联名单,拉什福德仍缺阵、周一称自己身体不适
  • 第103届日本全国高中足球锦标赛今日开赛,揭幕战帝京vs京都橘
  • 理性讨论,2.0太阳纳什到底有多强?率领这样一群队友常规赛碾压联盟,杀进西部决赛,和巅峰马刺五五开!
  • 太TM快了!博主统计李学鹏生涯数据:俱乐部305场4球,国家队32场
  • 镜报:曼城准备在冬窗进行引援,祖比门迪、埃德森都是目标