关于Obsidian 插件 Copilot,今天学到的一些知识
在AI的帮助下,今天花了一点时间学习研究 Obsidian 插件 Copilot。
Copilot提供了丰富的预定义指令,主要有四类30条指令,具体是:
文本处理
Generate table of contents for selection: 为选中的文本生成目录。
Make selection longer: 将选中的文本内容扩展,使其更详细。
Make selection shorter: 将选中的文本内容压缩,使其更简洁。
Remove URLs from selection: 从选中的文本中移除所有 URL 链接。
Rewrite selection to a press release: 将选中的文本改写为新闻稿格式。
Rewrite selection to a tweet: 将选中的文本改写为推特推文格式。
Rewrite selection to a tweet thread: 将选中的文本改写为一系列推特推文格式 (thread)。
Simplify selection: 简化选中的文本内容,使其更容易理解。
Summarize selection: 总结选中的文本内容,提取关键信息。
Translate selection: 翻译选中的文本内容。
Change tone of selection: 改变选中的文本内容的语气,例如从正式改为非正式。
Emojify selection: 在选中的文本内容中添加表情符号。
Explain selection like I'm 5: 用五岁小孩能理解的方式解释选中的文本内容。
Fix grammar and spelling of selection: 修正选中的文本内容中的语法和拼写错误。
自定义提示词
Add custom prompt: 添加自定义提示词,用于引导 Copilot 生成特定类型的文本内容。
Apply ad-hoc custom prompt: 应用临时自定义提示词,仅在当前操作中生效。
Apply custom prompt: 应用已保存的自定义提示词。
Delete custom prompt: 删除已保存的自定义提示词。
Edit custom prompt: 编辑已保存的自定义提示词。
知识库管理
Index (refresh) vault for QA: 索引 (刷新) 整个知识库,用于问答功能。
Force re-index vault for QA: 强制重新索引整个知识库,用于问答功能。
Set exclusion for Vault QA mode: 设置在问答模式下排除哪些文件。
Set note context for Chat mode: 设置聊天模式下的笔记上下文,让 Copilot 了解当前笔记内容。
Count total tokens in your vault: 计算整个知识库中包含的总 token 数。
Count words and tokens in selection: 计算选中的文本内容中包含的单词和 token 数。
Clear local vector store: 清除本地向量存储,释放内存空间。
Garbage collect vector store (remove files that no longer exist in vault): 清理向量存储,删除不再存在于知识库中的文件数据。
界面操作
Toggle Copilot Chat window: 打开或关闭 Copilot 聊天窗口。
Toggle Copilot Chat window in Note Area: 在笔记区域打开或关闭 Copilot 聊天窗口。
但是,当下版本无法自己编辑修改这些指令。好在自定义提示词指令,允许我们自己按照工作流编写提示词,实现快捷调用。用起来非常丝滑,感觉在日常工作中,已经可以不用再访问chatgpt网站了。
另外,总结一下关于 Obsidian Copilot 插件,学习到的要点:
自定义提示词:
Copilot 允许用户创建自定义提示词,用于生成特定类型的文本内容。
提示词可以使用多种变量,例如 {FolderPath} 代表文件夹路径, {#tag1,#tag2} 代表带有指定标签的笔记。
目前 Copilot 不支持在执行指令时直接输入变量信息,需要在创建提示词的时候就将变量信息填写完整。文件夹选择:
如果需要使用 {FolderPath} 变量,需要先切换到 Obsidian 的文件浏览器界面,选中目标文件夹,然后再回到笔记编辑界面应用提示词。
Copilot 会记住你选中的文件夹,并将 {FolderPath} 参数替换为该文件夹的路径。指令显示:
Copilot 在 Obsidian 的不同界面会显示不同的指令,具体取决于当前上下文环境。本地模型与远程模型:
Copilot 支持使用本地模型和远程模型。
本地模型需要指定模型文件路径。
远程模型可以使用 Ollama 服务,需要设置 OLLAMA_ORIGINS 环境变量,并将 Copilot 的 "Ollama URL" 设置为 http://localhost:11434。模型选择:
可以通过 Ollama 的网页界面或命令行界面查看已加载的模型。
在 Copilot 的设置页面中,可以选择 Ollama 中所有可用的模型。模型速度:
模型规模、微调数据集、硬件限制和 Ollama 配置都会影响模型运行速度。问答功能:
Copilot 的问答功能是基于检索的,适用于回答关于长笔记的具体问题。
对于需要处理长文本的通用问题,聊天模式是更好的选择。
Upvoted! Thank you for supporting witness @jswit.