Ollama相关网址
Ollama相关介绍
Ollama是一个用于在本地计算机上运行大型语言模型的命令行工具,允许用户下载并本地运行像Llama 2、Code Llama和其他模型,并支持自定义和创建自己的模型。该免费开源的项目,目前支持macOS和Linux操作系统,未来还将支持Windows系统。
此外,Ollama还提供了官方的Docker镜像,由此使用Docker容器部署大型语言模型变得更加简单,确保所有与这些模型的交互都在本地进行,无需将私有数据发送到第三方服务。Ollama在macOS和Linux上支持GPU加速,并提供了简单的命令行界面(CLI)以及用于与应用程序交互的REST API。
该工具对于需要在本地机器上运行和实验大语言模型的开发人员或研究人员来说特别有用,无需依赖外部云服务。
Ollama支持的模型
Ollma提供一个模型库,用户可以自行选择安装想要运行的模型,目前支持40+的模型,还在持续增加中,以下是可以下载的开源模型示例:
模型 | 参数大小 | 文件大小 | 下载运行命令 |
---|---|---|---|
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Mistral | 7B | 4.1GB | ollama run mistral |
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
Ollama网页预览
Ollama打不开?
建议用手机浏览器打开。微信/QQ可能屏蔽了该网站,首先保证网址是从浏览器/手机浏览器打开的,因为微信/QQ会屏蔽一些站。 建议使用不会屏蔽网址的浏览器。如果浏览器提示该网站违规,并非真的违规。而是浏览器厂商屏蔽了这个站。推荐原生态不会屏蔽网站的浏览器,苹果可以用自带的浏览器,Alook浏览器、X浏览器、VIA浏览器、微软Edge等。 通常打不开都是因为网络问题。好的网站会针对三大运营商(电信、移动、联通)进行优化,所以小网站会遇到一些网络打不开。一劳永逸的话,我们推荐使用加速器(将自己的网络切换成更稳定的运营商,比如电信)。部分网站需要科学上网,比如google等(这边不推荐,除非你真的用于学习资料的查询。) 以上三点均能解决99.99%网站打不开的问题了。如有疑问,可在线留言,着急的话也可以通过QQ:550088200可以扫描公众号在线联系我们。
数据评估
本站 SUYE ONE提供的 Ollama都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由 SUYE ONE实际控制,在 2024年4月30日 23:40收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除, SUYE ONE不承担任何责任。