Chatty是一个利用WebGPU技术在浏览器中本地且私密地运行大型语言模型(LLMs)的私人AI聊天工具。它提供了丰富的浏览器内AI体验,包括本地数据处理、离线使用、聊天历史管理、支持开源模型、响应式设计、直观UI、Markdown和代码高亮显示、文件聊天、自定义内存支持、导出聊天记录、语音输入支持、重新生成响应以及明暗模式切换等功能。
使用场景
- 使用Chatty与Gemma模型进行日常对话。
- 在没有互联网的情况下,使用Chatty的离线功能进行信息查询。
- 利用Chatty的文件聊天功能,向模型咨询特定文档的问题。
产品特色
- 浏览器内隐私:所有AI模型在本地运行,确保数据只在您的电脑上处理。
- 离线使用:初始模型下载后,无需互联网连接即可使用。
- 聊天历史:访问和管理您的对话历史。
- 支持新开源模型:支持与Gemma、Llama2 & 3和Mistral等流行开源模型聊天。
- 响应式设计:如果手机支持WebGL,可以在手机上使用Chatty。
- 直观UI:受Gemini和ChatGPT等流行AI界面启发,提升用户体验。
- Markdown和代码高亮:Markdown消息将如此显示,包含代码的消息将被高亮。
- 文件聊天:加载文件并询问模型相关问题,完全本地化。
- 自定义内存支持:添加自定义指令/内存以获得更个性化的响应。
- 导出聊天记录:生成并保存聊天消息为json或markdown格式。
- 语音输入支持:使用语音交互与模型互动。
- 重新生成响应:快速重新生成响应,无需重写提示。
- 明暗模式:在明暗模式间切换。
用户群体
Chatty适合需要隐私保护、希望在本地处理数据、需要离线使用AI聊天功能、对开源模型有兴趣、需要在不同设备上使用聊天工具、需要管理聊天历史、需要文件聊天功能以及希望有个性化响应的用户。
使用教程
- 访问Chatty的GitHub页面或官方网站。
- 根据页面指示,克隆仓库或直接在网站上体验应用。
- 如果选择本地运行,确保安装了Node.js 和 npm。
- 按照安装说明,克隆仓库到本地目录,安装依赖并启动开发服务器。
- 访问localhost:3000,开始与Chatty进行聊天。
相关导航
暂无评论...