本地部署人工智能模型,不仅通过重视和利用资源赋予个人权力,而且还培育出更加分散和民主的数字生态系统。也就是说,不仅增强了隐私和安全性,还引入了个人计算作为数字时代潜在货币的有趣概念。
Ollama是一个易用的本地语言模型运行框架,可以一键启动并运行Meta Llama 3、Microsoft Phi 3、Google Gemma 2和其他更多开源语言模型(官方模型库也是一份很棒的开源语言模型清单,和NVIDIA提供的最受欢迎的基础模型列表一样,总是汇总支持的最新模型信息),并支持自定义模型导入。Ollama旨在简化在本地硬件上运行大型语言模型的过程,支持GPU加速以提升推理性能。本文基于 Windows 11 + 64 GB + RTX 2080 Ti + Llama 3.x + Cherry Studio 实践。