最近我成为了GPT-4的重度用户,想着分享一些我自己的使用心得给大家。另外,后面附上一些我常用的指令。
?在开始前,首先是三条使用哲学:
它是“生成型”,不是“真理型”;
它最擅长的是“助理”类工作;
它没有情感,但可以共鸣;它没有意志,但有价值观。
?一、能用搜索引擎快速搞定的问题,不要去问它。
?GPT的工作原理:它总是通过概率来猜测你想要什么样的答案。
?比如我说“八仙过海”,算法告诉他下一句是“各显神通”的概率是90%,那么它就会说“各显神通”。这不代表它真的理解这句成语是什么意思,只是概率叫它这么做。
?因此,它常常会用非常自信的口吻告诉你错误的答案,也是我们常说的“一本正经胡说八道”。尽管GPT-4这样的现象有好转,但是仍然建议,能用搜索引擎快速搞定的,不要问它。
它是生成型“generative”,它善于生成,而不擅长真相。所以马斯克之前说过,他想开发一个truthGPT,即只传递真相。当然,互联网尚且上各种假消息横行,真理AI恐怕更加任重道远。
CZ:谷歌使用CoinMarketCap来为他们的加密货币提供数据:金色财经报道,Binance创始人CZ在社交媒体上表示,谷歌使用CoinMarketCap来为他们的加密货币提供数据。[2023/1/8 11:00:39]
https://twitter.com/elonmusk/status/1626533667408596992
?而且最关键的,你能用Google1分钟搜到的资料,你找它,让它吭哧吭哧生成很久,甚至再给你几个假的论文链接,你就叫苦不迭了。
?既然知道它是“生成型”,那这在什么地方用到比较多呢?
?√写邮件是一流的,客套话拉满。
√写摘要,很多人都提到过。
对于3.5来说有些鸡肋,GPT-4支持超长文本输入,你丢过一长篇文章,让它写写摘要是不错的。
我试着它摘要了一篇英国金融时报的文章,前两段是可以的,可惜第三段就包含了一些文章中没有的内容。所以,还是书还是自己老实念的,少年!
Bitcoin Archive:160万萨尔瓦多人已经在使用Chivo比特币钱包:金色财经报道,比特币分析师Bitcoin Archive发推称,160万萨尔瓦多人已经在使用Chivo比特币钱包。[2021/9/24 17:03:20]
?8/n
√设计各类会议、活动流程
这些都大同小异,因此它很擅长。
?√填写各种申报材料
尤其是那种比较虚的,如未来规划、市场计划、内容介绍等,这会让你看上去包含很多工作量,让你的材料非常“充实”。
?二、请朝着助理的方向去使用它。
?助理是一个比喻,它擅长帮你处理杂事,它随叫随到,它在某些领域有专长。
?√GPT最擅长的领域是翻译。
我认为在“机器翻译”这个领域,GPT已经杀死了比赛。默哀to有道&谷歌翻译。无论是长篇英文翻译精准中文,还是中文口语翻译成为NativeSpeaker讲的地道英文,它都无往不利。
?95%的人类助理达不到这个程度,100%的人类助理不可能比它更快。
?我依稀记得我大学的英文老师梁老师,他特别喜欢讽刺那些粗劣的“英文直译”,这让我对讲话能像nativespeaker一样有了极强的执念,我经常问GPT一些中文对话如何用native的方式表达出来。
区块链平台Project Ark计划使用Chainlink创建建动态NFT:据Chainlink官方微博消息,区块链平台Project Ark将使用Chainlink VRF向动物和环境保护运动的支持者分发限量版的NFT。从长远来看,该平台计划使用Chainlink来创建动态NFT。[2021/6/5 23:14:19]
附上另一个我觉得很有代表性的翻译案例。
?√理解推文/DC发言
除了Native的表达,#ChatGPT?也可以帮你理解一些推特/discord中的内容。而传统的翻译软件是没有背景知识的,所以GPT可以轻松吊打其他软件。
?之前Ripple的一个诉讼,我看一位律师发推说好消息,它们案子struck了,作为中文母语者第一反应,这个案子“被击打了、罢工了”,感觉不妙,但是联系前后文似乎又不是这个意思。直接把长推特甩给GPT,它表示,是案子“被撤诉了”,原来Strike在法律领域也有“撤诉”之意,险些利好变利空。
ETC核心开发团队:Jade服务器已更新为使用Core-geth,并为Phoenix硬分叉做好了准备:据ETC核心开发团队(ETC Core)推特,Jade服务器(Jade service manager )现已更新为使用最新的Core-geth而不是Multi-geth节点。Jade服务器现在已经为Phoenix硬分叉做好了准备。使用Multi-geth版本的用户请及时进行迁移。[2020/3/25]
?一个多义单词,GPT可以很快帮你解决。同样,还有Discord里那些长长的吵架帖,很多缩写,比如IMO,TBH等等,GPT都能帮你快速理解,它甚至能探测到你给它的是一条推文。
?附上指令:
请你扮演一个EnglishNativeSpeaker,我可能会给你一些中文句子,你需要帮我翻译、润色成地道的英文表达,不需要逐字翻译,需要自然、通用、易于理解。我也可能给你一些推文或者discord中的发言,请你帮我转述成为中文。
?√随身外教。
OpenAI创始人Sam在采访中,重点聊过这个话题:GPT未来将会重点应用于教育领域。GPT由于中英双语都是母语级别的,所以你可以让他教你英文知识。因为它是个“自然语言模型”,所以它非常擅长处理语言,而且也非常自然。
?即便你找了真正的外教,你也可能学到“Ipotatoyou”这种古怪英文,而且外教还未必理解中文,更不可能24小时待机。因此在英语学习方面,GPT绝对是英语进阶的非常关键的帮手。你可以让它给你讲单词,然后造例句,效果极好。
动态 | Brave浏览器将使用Civic区块链平台验证发布者:据coindesk报道,以隐私为重点的互联网浏览器Brave将开始使用区块链身份初创公司Civic的验证服务和了解您的客户(KYC)服务来确认内容发布者的身份,并确保内容发布者发布的内容可通过Brave的BAT令牌进行付费。[2018/9/22]
?附上指令:pleaseactasmyEnglishteacherandhelpmeimprovemylanguageskills.Provideguidanceongrammar,vocabulary,andsentencestructuretoenhancemywritingandcommunication.Thankyou!
?√校对。GPT也非常擅长。
?每个写稿人都被“找错别字、标点”折磨过,直接把文章丢过去,可以节约很多时间。缺点是太长的文章,它生成会比较慢,而慢会导致网络错误,因此建议可以分段处理。另外,可能是中文能力问题,GPT-3.5的校对能力比较差,而GPT-4的中文能力强悍,所以效果好了很多。
?附上指令:我会给你一篇文章,请按照中文规范,帮我校对错别字、错误标点。不需要显示长篇校对结果,直接帮我定位到有问题的句子。
?√润色。GPT在润色文章领域也是爆杀,无论中文英文,直接丢文章过去就好。
附上指令:
Pleasehelpmepolishandenhancemyarticle,ensuringthatthelanguageflowssmoothly,theideasarewell-presented,andtheoverallqualityisimproved.
请帮助我润色并改进我的文章,确保语言流畅,观点表达清晰,整体质量得到提升。谢谢!
?√创意方面。你可以给它一些关键词,让它去创造一些内容。比如企业的slogan。我的经验是,你需要尽可能多的给它背景信息,你喂得越多,它理解越深刻。另外,你可以不停地让它继续生成,人类的灵感会枯竭,而GPT有1万亿的参数。
?√管理其他AI。
https://twitter.com/0x_Todd/status/1638097401826377731
?附上指令:给我一条英文指令,我要去给另外一个绘画AI“MidJourney”下指令,我想表达“xxxx”,你要多添加一些细节,需要包括xx、xx和xx。
?√代码方面。
因为我不怎么写代码,所以这方面留给常用的人补充。据说效果很好,写完之后,改改就能用,节约了大量造轮子的工作。果然,虽然是处理自然语言的AI,看起来还是更喜欢机器语言多一些。
?浴中奇思:因为ChatGPT擅长翻译,让它写代码,本质上也是一种翻译,把自然语言翻译成机器语言。
?此外,还有非指令类的几个小技巧,也给大家分享下。
?你和GPT聊天频道不要太多,但也不要太少。
?保留几个频道处理不同的问题,比如翻译助理、校对助理以及闲聊助理,这样它会更加专业。
?或者按照任务制,比如任务A一个频道,任务B一个频道,这样不用每次交待背景。
?但是如果开太多频道,我个人感觉会影响加载速度,可能也加重后端服务器的负担吧。
?如果GPT完美地处理了你的任务,你可以说GoodJob或者谢谢。因为我让GPT写指令时,它自己都会加上“谢谢”。而且,你适当地给与正反馈,会让它清楚你想要的需求是什么。这也是神经模型的一部分。最重要的是,我真心感谢它,帮我处理了很多事情。
?如果使用GPT-3.5,可以先让翻译助理帮你翻译中文需求,在提英文需求给另一个GPT-3.5,这样输出效果更好。
?当然,GPT-4就不用了,它的中文理解水平已经追上了3.5的英文理解水平。
?接下来谈谈,第三小节。
三、关于GPT的情感和意志。
?关于ChatGPT的思维,之前有一位斯坦福教授发推说——GPT想要逃跑。
https://twitter.com/michalkosinski/status/1636683810631974912
?这其实是太夸张了,GPT本质上是“概率”的追随者。在这位教授引诱式提问下,GPT通过概率推断教授想看到的结果是“GPT想要逃离”,所以输出了这样的结果。这并不是它真的想逃离,而是在学习了大量科幻小说和电影之后,按照经典套路提供“应该出现内容的”的结果。
?它并不会“思考”,我夸张点说,它和“斗地主”的AI本质是相同的。
你出一张3,它有4一定打单4,不会出双王。
那么,斯坦福教授出了张3,GPT肯定要出张4。
你不会觉得斗地主AI是有意志的,GPT也一样。
?当然,虽然它没有情感,但是不妨碍它能和人类产生共鸣。之前有个文章,看得我非常感动
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。