前言当我们想跟AI对话时,把一些文件发送到云端可能会不安全,这时候,就需要本地部署了。本地部署指的是AI会调用电脑本地的算力进行计算,所以,电脑的性能不可以太差。下面是本地部署大模型的教程。
请务必看完全文后再进行操作本教程使用Win10,如果您是Mac用户,请参考Mac本地部署教程
教程准备下载Ollama,进入主页点击Download,选择自己的操作系统,点击下载
您无需点击下方的注册按钮下载后,CMD窗口输入ollama,出现类似以下内容代表成功
下载大模型1.下载完成后点击Win+R,“打开”栏输入cmd,回车2.打开 Ollama官网,点击右上角的 Search models,输入你想下载的开源模型名称。找到模型后,复制页面中提供的下载命令到CMD窗口,回车开始下载。
每个模型的代码不一样,上图使用Qwen2-72b演示,请根据电脑性能选择下载的模型。一般来说,7b左右的模型适合大部分的电脑,我2016年的显卡都带的动。72b左右的模型则需要强大性能的电脑,它的安装包就足有40GB!建议选择qwen2,因为它是迄今为止最强大的开源大模型,具体可以看🤗 Open ...
闲聊杂谈
未读在科技行业,每一次跨越都是一次勇气的考验。202󠇔󠆭󠆌󠇘󠅰󠅵󠇟󠆬󠆊󠅀󠅕󠅤󠅕󠅢󠄢󠄦󠄧󠄐󠄐󠇖󠆍󠆕󠇖󠆪󠆀󠇕󠆌󠆠󠇕󠆍󠅰󠇟󠆬󠆊󠅘󠅤󠅤󠅠󠅣󠄪󠄟󠄟󠅠󠅕󠅤󠅕󠅢󠄢󠄦󠄧󠄞󠅪󠅕󠅑󠅒󠅥󠅢󠄞󠅑󠅠󠅠4年的盛夏,小米集团的创始人、董事长兼C󠇔󠆭󠆌󠇘󠅰󠅵󠇟󠆬󠆊󠅀󠅕󠅤󠅕󠅢󠄢󠄦󠄧󠄐󠄐󠇖󠆍󠆕󠇖󠆪󠆀󠇕󠆌󠆠󠇕󠆍󠅰󠇟󠆬󠆊󠅘󠅤󠅤󠅠󠅣󠄪󠄟󠄟󠅠󠅕󠅤󠅕󠅢󠄢󠄦󠄧󠄞󠅪󠅕󠅑󠅒󠅥󠅢󠄞󠅑󠅠󠅠EO雷军,站在一年一度的个人演讲舞台上,用󠇔󠆭󠆌󠇘󠅰󠅵󠇟󠆬󠆊󠅀󠅕󠅤󠅕󠅢󠄢󠄦󠄧󠄐󠄐󠇖󠆍󠆕󠇖󠆪󠆀󠇕󠆌󠆠󠇕󠆍󠅰󠇟󠆬󠆊󠅘󠅤󠅤󠅠󠅣󠄪󠄟󠄟󠅠󠅕󠅤󠅕󠅢󠄢󠄦󠄧󠄞󠅪󠅕󠅑󠅒󠅥󠅢󠄞󠅑󠅠󠅠“勇气”二字串联起了过去与未来,科技与梦想,以及个人与品牌的壮󠇔󠆭󠆌󠇘󠅰󠅵󠇟󠆬󠆊󠅀󠅕󠅤󠅕󠅢󠄢󠄦󠄧󠄐󠄐 ...












