挖一挖
单车变摩托

工具软件 第50页

ChatGPT大语言模型有什么缺点?

Qubic矿工阅读(134)赞(0)

缺点一:结果高度依赖训练语料​ 正如我前面提到的,当今的语言模型,即使发展了四个版本,但依然没有脱离「概率计算」,本质上来说它们的核心原理就是「利用已有的信息来预测其他信息」。 那这就意味着,大语言模型其实并没有意识,也不知道对错,其生成的...

ChatGPT开发大语言模型需要什么?

Qubic矿工阅读(159)赞(0)

关键一:数据​ 训练数据主要是所谓的语料库。今天的很多语言模型的语料库主要有以下几种: Books:BookCorpus 是之前小语言模型如 GPT-2 常用的数据集,包括超过 11000 本电子书。主要包括小说和传记,最近更新时间是 20...

ChatGPT如何计算概率?

Qubic矿工阅读(147)赞(0)

既然是数学模型,那应该如何计算呢? 最简单的方法,当然就是用统计学的方法去计算了,简单说来,就是靠输入的上下文进行统计,计算出后续词语的概率,比如「你吃了晚饭了吗」,「你吃了」后面按照概率,名词如「饭」或「晚饭」等概率更高,而不太可能是动词...

ChatGPT什么是语言模型?

Qubic矿工阅读(137)赞(0)

LLMs 全称是 Large Language Models,中文是大语言模型。 那么什么是语言模型? 语言模型简单说来,就是对人类的语言建立数学模型,注意,这里的关键是数学模型,语言模型是一个由数学公式构建的模型,并不是什么逻辑框架。这个...

ChatGPT技巧9:其他

Qubic矿工阅读(137)赞(0)

在示例里加入特定符号,让模型知道如何处理特殊情况​ 这个解释起来有点复杂,以下是 OpenAI 的官方 prompt,在一些奇怪的问题上比如 What is Devz9 的回答,你可以用 ? 代替答案,让模型知道当遇到超出回答范围时,需要如...

ChatGPT技巧7:Zero-Shot Chain of Thought

Qubic矿工阅读(181)赞(0)

基于上述的第三点缺点,研究人员就找到了一个叫 Chain of Thought 的技巧。 这个技巧使用起来非常简单,只需要在问题的结尾里放一句 Let‘s think step by step (让我们一步步地思考),模型输出的答案会更加准...

ChatGPT技巧6:通过格式词阐述需要输出的格式

Qubic矿工阅读(170)赞(0)

假设你想让 AI 总结一篇非常非常长的文章,并且按照特定格式给你总结,那你可以在文章前面明确输出的格式(为了不占用太多显示空间,我省略了正文内容,你可以在 OpenAI 的 Playground 看到完整案例)。它的意思其实是让 ChatG...

ChatGPT技巧5:使用特殊符号指令和需要处理的文本分开

Qubic矿工阅读(165)赞(0)

可以用“”“将指令和文本分开。根据我的测试,如果你的文本有多段,增加”“”会提升 AI 反馈的准确性(这个技巧来自于 OpenAI 的 API 最佳实践文档) 信息 感谢 CraneHuang6 的提醒,这里还能用 ### 符号区隔,不过我...

ChatGPT技巧4:增加 Role(角色)或人物

Qubic矿工阅读(144)赞(0)

比如还是上面那个 rewrite 的例子,我在例子前加入这样的一段话,我让 AI 假设自己是一个小学老师,并且很擅长将复杂的内容转变成 7、8岁小朋友也能听懂的话,然后再改写这段话: You are a primary school tea...

ChatGPT技巧3:使用引导词,引导模型输出特定内容

Qubic矿工阅读(173)赞(0)

在代码生成场景里,有一个小技巧,上面提到的案例,其 prompt 还可以继续优化,在 prompt 最后,增加一个代码的引导,告知 AI 我已经将条件描述完了,你可以写代码了。 Better: Create a MySQL query fo...