看到不少人推荐 #ChatPDF, 上传 PDF 文件后调用 ChatGPT 生成总结和问答。刚好我申请的微软 New Bing 也通过了,用同一份 PDF 做了下比较,结论如下:

1. New Bing: 总结能力惊艳(见下图),但限制了交互次数
2. ChatPDF: PDF上传方便,但总结能力一般
3. 都会瞎编内容

具体评测和使用地址👇

1/10 New Bing Search
1️⃣ New Bing

我用的 PDF 文件是《Web3.0创作者经济报告》by @BlockBeatsAsia

由于 mac 版本暂不支持 PDF 上传,于是我输入线上🔗代替。不得不说,这个总结和表达能力让我作为人类深深感受到了危机感

看到倒数第 3 条社交协议的时候发现有点不对,质问之后态度还算诚恳。btw最后一条也是瞎编的

2/10
指定某个问题【总结音乐创作者的机会】,New Bing 回答的也不错

另外目前微软限制了一次对话最多 8 次交互,问题多的时候有点不方便,希望早日放开,增加广告版或收费版也可以接受

快速进入白名单小技巧:在注册 bing.com 时使用的微软账户,国家选为美国,3 天左右就通过了

3/10
2️⃣ ChatPDF

地址 ChatPDF.com, 为了稳定使用 chatGPT, 仍然推荐使用自己的 API key,配置方法见下方引用的推文

4/10
PDF 上传成功后,会自动生成总结,但的确质量不太行

5/10
ChatPDF 貌似对中文支持不太好,输入【将这份pdf总结为7个要点】后竟然报错,改为英文后正常输出

这次质量比默认的要好,但和 New Bing 相比还是云泥之别。看来 New Bing 基于的 GPT-3.5 的确要比普通的 ChatGPT 强大很多

6/10
多问 ChatPDF 几个问题后也出现了瞎编的情况,看来目前基于 GPT 的应用都很难避免

7/10
总结一下
1. 由于使用了 GPT-3.5, New Bing 的总结能力远超 ChatPDF
2. 两者都会瞎编内容,需要小心使用
3. New Bing 限制了一次对话最多 8 次交互,问题多的时候有点不方便,希望早日放开,增加广告版或收费版也可以接受

另外我试了演示视频里的 GAP 和 lululemon Q3 财报比较,的确震撼

8/10
感兴趣的朋友可以亲自探索一下这 2 个工具,有更好的用法或者其他更好工具,也欢迎在第一条推下留言。这是一种用了之后再也回不去的体验

最后再推荐下 futurepedia 这个网站,有 1200+ AI 工具的分类和介绍,满足你的各种需求

futurepedia.io

9/10
如果这条🧵对你有帮助

1. 请关注我@starzqeth,持续接收关于Web3、创作者经济、AI 和自我成长的干货内容
2. 请Retweet和Like第一条推文👇

10/10
补充下,GPT 或者 LLM 出现的瞎编,Ted Jiang 称之为“精确的模糊”,可怕的点是习惯之后就会让人觉得是“正确”的,丧失辨别真伪的能力(有空分享下 Ted Jiang 这篇文章,特别有洞察 )

如何更好的使用这类 AI 工具,也是一个值得讨论的话题
在 Web3 和 AI 的帮助下,每一位内容创作者都可以更好打造自己的品牌和 IP

如果你对以下话题感兴趣
· Web3 领域的品牌和 IP 发展
· NFT 和 AI 如何为企业、创作者和消费者带来改变

请订阅我的 newsletter, 我会定期分享案例与思考

web3brand.substack.com/?showWelcome=t…

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with starzq.eth | day1global.xyz & web3brand.io

starzq.eth | day1global.xyz & web3brand.io Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @starzqeth

Dec 9
1/ 不满足于09年时的5w月薪,立志做一家纳斯达克上市公司,结果破产

借10w买比特币,结果第三天就暴跌取不出来,又濒临破产

积累到120个比特币后爆仓,再次破产

用90w做BTC波段增长到3000w, 套现后重仓 1 亿个狗狗币

他相信Dogecoin会成为「星际文明」的货币

这是DOGE发烧友茅泽民的故事

🧵👇 Image
2/ 一般的memecoin投机属性很强,几周就归零,为什么狗狗币活跃了11年成为第7大加密资产?为什么马斯克称它为「人民的货币」?

我们有幸采访了狗狗币华语社区核心布道者茅泽民 @maozemin ,关于狗狗币的前世今生,他为何敢在 3 年前用500w美金重仓1亿个

欢迎收听 xiaoyuzhoufm.com/episodes/67516…

茅总的加密经历也可谓是跌宕起伏,从高收入到破产 3 次,但每一次都迅速做出调整,然后获得 10 倍以上的收益,以及一系列深刻的哲学感悟,和现在自由的人生。

不得不说,这种「自由」的状态是我们非常向往的。如果你对加密、投资、狗狗币 @dogecoin 、比特币、马斯克感兴趣,本期不容错过Image
3/ 时间轴 + 本期播客概要

• 00:00 - 本期精华
• 02:28 - 本期播客背景
• 03:49 - 茅泽民自我介绍, 2013 年创业破产,借 10w 买比特币入圈。第三天比特币就暴跌取不出来,濒临破产,最后靠波段积累到 100 个比特币,期间还经历了门头沟事件
• 12:12 - 2020 年 312 爆仓 120 个比特币,再次破产。然后用 90 万 RMB 抄底比特币 + 做波段,到 2021 年 2 月到 3000 万 RMB
• 20:22 - 再次经历期货亏钱后,寻找下个 10 倍标的,研究并用 500w 美金重仓 1 亿个狗狗币(Dogecoin)
• 28:07 - 狗狗币(Dogecoin)的起源,2013 年作为一个玩笑推出,用来嘲笑当时加密货币的疯狂炒作。早期因为不值钱被当做礼物打赏,奠定了狗狗币「出生带着爱」、「好玩」、「单纯」的早期社区氛围,并广为传播
• 37:02 - 比特币是精英文化,狗狗币是草根文化
• 44:09 - 茅泽民详细解释重仓和看好狗狗币的原因:短期看没有抛压,长期看最有可能成为「星际文明」的货币。同期马斯克开始大量发和狗狗币相关的内容
• 55:19 - 茅泽民创建的群高峰时期持有 10 亿枚狗狗币。晒单记录被外传,得到极大曝光
• 1:00:16 - 马斯克传里面有提到,的确考虑过用区块链来做 Twitter 的支付系统
• 1:07:14 - 狗狗币被卷入了马斯克和华尔街的恩怨,被针对性打压,一度下跌 90%
• 1:14:26 - 狗狗币在 21 年的百倍涨幅是「天时地利人和」
• 1:23:02 - 特朗普的加密政策宽松,马斯克牵头的的政府效率部门(Department of Government Efficiency, 简称为 DOGE), 对狗狗币接下来的影响
• 1:31:03 - 茅泽民对狗狗币超长期持有,在女儿的冷钱包里面放了 1000 万个 Dogecoin+2 个 BTC + 2 个 ETH
• 1:36:19 - 茅泽民仍持有当时购买的所有狗狗币,而且从 2013 年就没有出金过,传说中的场外资金 ;)
• 1:40:13 - 生活中最大的爱好,竟然是看小说和睡觉
• 1:41:00 - 茅泽民进入加密之前的经历,2005年进入四川音乐学院动画专业,大一开始炒股,大三开始做期货。2009 年毕业进入金融行业,在成都月入5w,但希望做一家纳斯达克上市公司于是选择创业,然后破产,就有了开头借 10w 去买比特币的故事
• 1:48:14 - 作为一个财富自由的人,茅泽民最想达成的心愿是什么

免责声明 & 风险提示:主持人或嘉宾在播客中的观点仅代表个人看法,不作为投资建议,DYOR (Do Your Own Research)。
Read 6 tweets
Oct 17
刷到了今年纽约时报排名第一的畅销书 Good Energy

这本书由一位前斯坦福医生和前食品说客撰写,揭露了医疗、食品和制药行业的内幕,并给了出实际的行动建议

整理了一些对自己有用的笔记,希望每个人都可以超越百岁

1️⃣怎么吃更健康
2️⃣压力管理
3️⃣运动 & 作息
4️⃣机构隐瞒你的事

🧵👇 Image
1️⃣怎么吃更健康

1. 补充对线粒体运转重要的维生素/矿物质

2. Omega-3,抗氧化/抗炎症

3. 吃发酵食物+膳食纤维

4. 牛肉要吃草饲:谷饲牛肉的omega-3是草饲的1/5 但omega-6更高(激发炎症)

5. 油:推荐omega-3含量高的亚麻籽/奇亚籽/罗勒籽油

6. 十字花科蔬菜(西兰花🥦):异硫氰酸盐可以帮助Nrf2的释放,Nrf2有利于抗氧化物质的基因表达

7. 姜黄素:减少yan症的信号表达

8. 膳食纤维素:有利于益生菌

9. 石榴:尿石素A,促进线粒体自噬(清理损坏或者运转不灵的线粒体)

10. 压力大焦虑时对镁/锌等消耗增大许多,要额外补充

11. 吃洁净(有机/0添加)食物。超加工工业食品经过化学工程处理,具有成瘾性,占人们摄入热量的近 70%。
2️⃣压力管理

1. 定期戒断电子设备。每天减少 1 小时智能手机使用,已被证明可以减少抑郁和焦虑症状,提高生活满意度。

2. 正念冥想、呼吸法、瑜伽/太极,练习self-love

3. 可穿戴设备监测心率

4. 到大自然中去

5. 芳疗

6. 阅读 / 写作

7. 尝试心理咨询(不可耻,是对心理卫生的追求)
Read 9 tweets
Dec 17, 2023
0/ Andrej Karpathy: 一个大语言模型由你 Macbook 上的两个文件组成

OpenAI 联合创始人 Andrej 用 1个小时,深入浅出的从 6 个方面介绍了大语言模型 (LLM),真是连 60 岁老奶奶都能听懂

我整理出了2500字笔记和1张脑图,帮助你更结构化的理解 ChatGPT 背后的大语言模型,欢迎阅读和分享

👇🏻🧵Andrej Karpathy 大语言模型讲解脑图
1/ 大语言模型(LLM)是什么

🔸一个大语言模型就是两个文件,一个是存储参数的文件,另一个是运行这些参数的代码
🔸以 Meta 刚发布的 Llama 2 70B 为例,这是一个拥有 700 亿参数的神经网络模型,每个参数占用两个字节,因此存储参数的文件大小为 140 GB
🔸另外你还需要一些能运行神经网络的代码,可以是 C 语言或 Python,或任何其他编程语言。只需大约 500 行 C 语言代码,就可以运行以上模型。这些代码被包含在我们所说的运行文件中
🔸下载这 2 个文件到你的 MacBook 上,运行这段 C 代码,就可以得到一个可以和大语言模型交互的二进制可运行文件。比如你可以让它写一首关于 Scale AI 公司的诗,大语言模型就会生成对应的文本Image
2/ 如何训练出一个大语言模型(How to train your ChatGPT)

2 个阶段:Pre-Training(预训练)和 Finetuning(微调)

Stage 1 Pre-Training: 得到一个基础版神经网络模型 ( base model )

🔸从互联网上下载大约 10 TB 的文本

🔸构建一个包含 6,000 个 GPU 的集群

🔸把 10 TB 的文本压缩成一个神经网络文件。需要运行 12 天,花费 200 万美元,可以得到一个 Llama 2 7B 文件( Llama 2 70B 的 1/10)
- 如果考虑到像 ChatGPT、Claude 或 Bard 这样的顶尖神经网络,这些数字可能需要增加十倍甚至更多,这也解释了为什么如今这些神经网络的训练成本高达数千万甚至数亿美元

🔸这个神经网络的核心能力:预测文本序列中的下一个词

- 你可以这么理解这个过程:输入一段文本后,神经网络会预测下一个词是什么。举个例子,在 "cat sat on a" 这四个词的上下文中,神经网络可能会预测下一个词是“mat”,并且给出了 97% 的高概率。这就是神经网络要解决的核心问题
- 这种神经网络训练在某种意义上是一种数据压缩:因为如果你能够非常准确地预测下一个词,你就可以利用这个能力来压缩数据集
- 尽管下一个词预测看似是一个简单的任务,但实际上它是一个非常强大的目标。因为这个目标迫使神经网络在其参数中学习到大量关于世界的信息

🔸这个神经网络的运作机制

- 上千亿个参数散布在整个神经网络中,构建并维护了某种知识库
- 我们所了解的只是如何逐步调整这些参数,以使整个网络在下一个词预测的任务上表现得更好,但我们并不真正清楚这些参数具体是如何工作的
- 一个广为流传的例子,我们称之为“反转诅咒”。如果你和目前最先进的语言模型 GPT-4对话,你问,谁是汤姆·克鲁斯的母亲?它会告诉你是玛丽·李·菲弗,这是正确的。但如果你问,谁是玛丽·菲弗的儿子,它会告诉你它不知道。这种知识很古怪,它似乎是单向的。这些信息并不是简单存储后就能从各种角度获取,你必须从某个特定的角度去提问。
- 目前我们主要将它们视为基于经验的产品。我们可以给它们输入一些数据,然后评估输出结果

Stage 2 Finetuning: 得到一个助手模型(assistant model)

🔸我们实际上不仅仅需要文档生成器(预测文本序列中的下一个词),而是希望能向某个系统提问,并让它根据这些问题生成答案。所以我们真正需要的是一个助手模型

🔸生成助手模型的步骤和上面的训练过程相似,但我们会更换训练数据集,从 10 TB 互联网上爬取的文件,换成 10 万条高质量的数据标注,提升模型输出的质量
- 预训练阶段主要处理数十甚至数百 TB 的文本,但这些文本可能质量不高,因为它们都是从互联网上获取的
- 但在第二阶段,我们更看重质量而非数量。所以我们可能只有很少的文档,比如 10 万份,但这些文档都是问答形式(或者对比标注),并且都是非常高质量的,由专业人士基于标注指南创建

🔸在这些问答形式的文档上进行训练。这个过程被称为Finetuning(微调),只需 1 天就可以完成。

🔸接下来是进行大量的评估工作,部署模型,并监控和收集任何不当行为。对于每个不当行为,都需要修复并返回 Finetuning 第一步重复这个过程
- 修复方法通常是找到错误回应的对话,然后用正确的回应替换

🔸由于微调成本较低,可以每周或每天进行迭代,许多公司在微调阶段而非预训练阶段会更频繁地进行迭代

🔸完成这些步骤后,我们就能得到所谓的助手型模型

- 举个例子,如果你问它一个问题,比如:“你能帮我查一下这段代码吗?似乎有个 bug。请打印 hello world。”即使这个问题并不是训练集的一部分,模型在微调后理解它应该以一个有用的助手的风格回答这类问题

🔸可选的第三阶段:人类反馈强化学习(RLHF)
- 使用比较标签来提升模型性能

总结
🔸预训练阶段是在海量互联网数据上进行训练,重点是知识积累
🔸而微调阶段则更关注对齐,即将格式从互联网文档转变为问答形式,就像一个有用的助手一样Image
Read 9 tweets
Nov 13, 2023
这几天 OpenAI GPTs 被大量创建,这将极大改变我们获取知识的方式

我用 Twitter 的高级搜索功能,找到了最热门的 10 个 GPTs

方法:在搜索框里面输入"chat. openai. com/g min_faves:200 lang:en" (GPTs开头链接 + 最小点赞数 200 + 限定英文)

下面介绍 Top10 GPTs(亲测可用) 👇 🧵
1️⃣ Top1 - NomadGPT(数字游民 GPT), 113w 浏览

这个 GPT 是 Nomad List 的作者创建,可以访问Nomad List的实时数据,回答任何远程生活和工作的问题,基于你的预算、天气情况以及其他数千个数据点

不得不说,数字游民 / 远程工作,真的是 Web3 & AI 时代的趋势

chat.openai.com/g/g-0k9rvxdJn-…
2️⃣ Top2 - DesignerGPT(设计师GPT), 111w 浏览

通过这个 GPT 可以直接在ChatGPT中创建漂亮的网站,绝对命中刚需!

chat.openai.com/g/g-2Eo3NxuS7-…

Image
Read 18 tweets
Aug 16, 2023
【通过GPT 5 分钟将Twitter Space变成1000字文字稿】

上周五我们邀请到Galxe Co-founder Charles, 聊了一个半小时,关于DID/Brand/Open Loyalty的思考

Space结束后,我一般需要再花2-3小时将其变成【千字文字稿】。这次实践了GPT工作流,只花了5分钟就完成,读者也可以更快食用精华

具体方法👇

1/9 https://t.co/wQEVeaFx8B
通过GPT 5 分钟将Twitter Space变成【千字文字稿】,一共 3 步

1️⃣ 通过 Audiolab 将 Twitter Space 下载为 mp3
2️⃣ 用飞书妙计生成 Twitter Space 的采访稿
3️⃣ 用GPT将万字采访稿,变成【千字文字稿】精华

前 2 步我之前介绍过,可以直接查看下面🧵

2/9
3️⃣ 用GPT将万字采访稿,变成【千字文字稿】精华

经过前面 2 步,我得到了一份2w字的采访稿,接下来需要有办法将其喂给GPT

我使用的方法是通过ChatGPT Plus的 Code Interpreter上传。另一个替代的方法是把采访稿放到一个可以线上访问的页面里,比如 notion, 然后让 Google Bard或者Bing来读取

3/9 Image
Read 9 tweets
Aug 14, 2023
使用 AI 辅助创作了半年,分享5️⃣个 AI 给我带来的创作者赋能,效率 x60 #超级个体

通过这条🧵,你将学会如何用1️⃣ 分钟快速解决下面 5️⃣类问题🧵👇

[欢迎收藏🔖 后慢慢看]

1/8 Image
1️⃣ 查阅资料,回答各类"是什么"问题,比如:

- 美国年收入的中位数是多少?
- 流媒体和数字音乐的关系是什么?
- ……

before: 查看多个网页/信息源,然后自己翻译、梳理和汇总

now: 直接询问 Google Bard / Bing, 返回最新信息,这点比 chatgpt 强很多
(帮我上一篇文章至少节约了10个小时

2/8 https://t.co/fks7Gnxwa4
2️⃣ 分析 A 和 B 的优缺点

在写文章的过程中,经常会遇到做 A 和 B 的比较

before: 查看多个网页/信息源后自己整理和比较,比较花时间,而且可能有遗漏

now: 在 Google Bard / ChatGPT 中直接询问 "A 和 B 比较,优缺点是什么",基于回答再进一步扩展

3/8 Image
Read 9 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us!

:(