有求必应:用CPU本地运行大模型推理
🐳【有求】Xavier,Meinhard,A=X+Y+Z\x0a1. 比如,如何在本地配置不同的模型来满足特定的需求(翻译、编程助手、论文汇总及撰写等等)\x0a2. 想学llamaindex搓agent\x0a3. 求一个ollama教程\x0a\x0a🏡 DW妙妙屋开始营业,主打一个有求必应!\x0a\x0a👉【必应】张昊然,Datawhale成员,东南大学硕士在读\x0a\x0a动手学 Ollama 教程:\x0a链接: https://github.com/datawhalechina/handy-ollama\x0a\x0a💡项目里面有关于本地配置模型加显示的内容\x0a\x0a💡项目里面有llamaindex实现本地agent\x0a\x0a💡在AI交流群里也获得推荐\x0a\x0a本期【有求】来源:\x3ca href=\x22https://mp.weixin.qq.com/s?__biz=MzIyNjM2MzQyNg==\x26amp;mid=2247692133\x26amp;idx=1\x26amp;sn=51abc2e75019da8aefe7fe8db9b1c5e0\x26amp;scene=21#wechat_redirect\x22 target=\x22_blank\x22 data-itemshowtype=\x228\x22\x3eDatawhale有求必应:新栏目来了\x3c/a\x3e\x0a\x0a新一期【有求】,在评论区留言,你的学习困惑,想学习的内容,立下12月的学习flag!!👏
,
,
,
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢