Serge - LLaMa made easy。

此项目提供了一个基于 llama.cpp 的运行 Alpaca 模型的聊天界面并用docker封装,完全自托管,不需要API密钥,可一键部署。 运行至少需要4.5GB内存。
GitHub_nsarrazin_serge_通过_llama_cpp_与羊驼聊天的网络界面。_完全码头化,具有易于使用的_API。.webm
686.5 KB
 
 
Back to Top