Chatty是一个利用WebGPU技术在浏览器中本地且私密地运行大型语言模型(LLMs)的私人AI聊天工具。它提供了丰富的浏览器内AI体验,包括本地数据处理、离线使用、聊天历史管理、支持开源模型、响应式设计、直观UI、Markdown和代码高亮显示、文件聊天、自定义内存支持、导出聊天记录、语音输入支持、重新生成响应以及明暗模式切换等功能。

使用场景

  • 使用Chatty与Gemma模型进行日常对话。
  • 在没有互联网的情况下,使用Chatty的离线功能进行信息查询。
  • 利用Chatty的文件聊天功能,向模型咨询特定文档的问题。

产品特色

  • 浏览器内隐私:所有AI模型在本地运行,确保数据只在您的电脑上处理。
  • 离线使用:初始模型下载后,无需互联网连接即可使用。
  • 聊天历史:访问和管理您的对话历史。
  • 支持新开源模型:支持与Gemma、Llama2 & 3和Mistral等流行开源模型聊天。
  • 响应式设计:如果手机支持WebGL,可以在手机上使用Chatty。
  • 直观UI:受Gemini和ChatGPT等流行AI界面启发,提升用户体验。
  • Markdown和代码高亮:Markdown消息将如此显示,包含代码的消息将被高亮。
  • 文件聊天:加载文件并询问模型相关问题,完全本地化。
  • 自定义内存支持:添加自定义指令/内存以获得更个性化的响应。
  • 导出聊天记录:生成并保存聊天消息为json或markdown格式。
  • 语音输入支持:使用语音交互与模型互动。
  • 重新生成响应:快速重新生成响应,无需重写提示。
  • 明暗模式:在明暗模式间切换。

用户群体

Chatty适合需要隐私保护、希望在本地处理数据、需要离线使用AI聊天功能、对开源模型有兴趣、需要在不同设备上使用聊天工具、需要管理聊天历史、需要文件聊天功能以及希望有个性化响应的用户。

使用教程

  1. 访问Chatty的GitHub页面或官方网站。
  2. 根据页面指示,克隆仓库或直接在网站上体验应用。
  3. 如果选择本地运行,确保安装了Node.js 和 npm。
  4. 按照安装说明,克隆仓库到本地目录,安装依赖并启动开发服务器。
  5. 访问localhost:3000,开始与Chatty进行聊天。

相关导航

暂无评论

暂无评论...