Guangzheng Li Profile picture
Blog📰: https://t.co/wcsjbz3ezH GitHub🚀: https://t.co/spQ6r1GWVa Projects😆: VectorHub / ChatFiles / k8s-tutorials / Ladder-theme.
Jun 12, 2023 7 tweets 2 min read
🌞OpenAI 发布了官方的 GPT 最佳实践指南,强烈推荐大家一读。介绍了 6 种策略让 GPT 更好的工作。
1. 撰写清晰的 Prompt
2. 提供参考文本
3. 将复杂的任务拆分子任务
4. 给 GPT 时间来思考
5. 集成外部工具
6. 给 GPT 结果进行测试或评估

详细的在这个线程中介绍.....⬇️⬇️

platform.openai.com/docs/guides/gp… twitter.com/i/web/status/1… 撰写清晰的 Prompt

1⃣️:在问题中包含详细的信息,例如以下例子:

不好的提问:总结会议记录。
优秀的提问:将会议记录总结成一个段落。然后用 Markdown 列表的格式列举一下参与者们各自的要点。最后如果有的话,列出演讲者建议的下一步行动或行动项目。

不好的提问:编写代码来计算斐波那契数列。… twitter.com/i/web/status/1…
Jun 6, 2023 5 tweets 1 min read
之前 GitHub 通过了我 Copilot Chat 申请我还没太在意,因为这玩意还要配合 VSCode Insiders 才能使用。最近和它 Pair 写代码,才察觉到它的模型是 GPT-4!还没有 GPT-4 的限制!

感觉大家可以去申请试试,毕竟我的 Copilot 也是 GitHub 免费提供给我的,直接免费用 GPT-4!感谢巨硬! Image GitHub Copilot Chat 的申请地址在这里⬇️⬇️

github.com/github-copilot…
May 10, 2023 6 tweets 1 min read
[1/n] 目前大多数基于 LLM + Embedding 方案做语料库检索都会遇到文本块上下文的限制。
@gpt_index 的作者写了一篇博客介绍可以通过为每个文档索引非结构化文本摘要发送给 LLM 来增强检索能力。

下面是实现原理:

medium.com/llamaindex-blo… [2/n] 目前大多数 LLM + Embedding 的原理是:

1. 将文档 (pdf/epub/txt) 分成不同的文本快。
2. 将文本块存到向量数据库 (vector db) 中。
3. 在查询期间,通过 embedding 相似性和或关键字过滤器来检索文本块。
4. 将多组可能相关的文本块 + prompt + 问题发送给 LLM 回答问题。