[GPT4All](https://github.com/nomic-ai/gpt4all) 演示、数据和代码,用于训练基于 LLaMa 的 ~800k GPT-3.5-Turbo 世代的助手式大型语言模型。
以下是开始使用 CPU 量化 GPT4All 模型检查点的方法:
- 从[直接链接](https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin)或[BT](https://tinyurl.com/gpt4all-lora-quantized)下载文件。gpt4all-lora-quantized.bin
- 克隆此存储库,导航到 ,然后将下载的文件放在其中
- 运行适用于您的操作系统的相应命令:
- M1 Mac/OSX:cd chat;./gpt4all-lora-quantized-OSX-m1
- Linux:cd chat;./gpt4all-lora-quantized-linux-x86
- Windows(PowerShell):cd chat;./gpt4all-lora-quantized-win64.exe
- 英特尔 Mac/OSX:cd chat;./gpt4all-lora-quantized-OSX-intel
[1] @halomaster • 10 Apr 2023, 15:59 GMT
官方支持的 Python 绑定 llama.cpp + gpt4all
https://github.com/nomic-ai/pyllamacpp
[2] @halomaster • 10 Apr 2023, 16:00 GMT
纯C/C++实现的LLaMA模型的推理库
https://github.com/ggerganov/llama.cpp
[3] @halomaster • 10 Apr 2023, 16:07 GMT
llama.cpp的Python绑定:
https://github.com/nomic-ai/pyllamacpp
GPT4ALL GUI:
https://github.com/nomic-ai/gpt4all-ui
1 of 1 pages 3 replies