AI

人工智能相关文章

什么是ChatGPT?

ChatGPT是一个基于人工智能技术的聊天机器人,它是由OpenAI开发的。它可以与用户进行自然语言交流,回答问题、提供建议、讲故事等等。ChatGPT的核心是一个名为GPT(Generative Pre-trained Transformer)的模型,它是一种先进的语言生成模型,可以理解和生成文本。ChatGPT是一个多功能的工具,可以在各种情境下使用,包括娱乐、教育、客户服务等领域。


ChatGPT 中,G、P、T 分别是什么意思?

GPT:Generative Pre-Training Transformer


一个预先训练好的,用生成的方式,把输入文字转化成输出文字的生成转换工具


Generative 生成式

Transformer Generative 的语言模型的核心,说的通俗一点就是「顺口溜」,在大模型里面就叫预测。


当 ChatGPT 获得了足够多的数据输入以后,就可以根据大数据分析发现有一些语言模式是反复出现的。它之所以可以准确的填补「 离离原上__ 」的空格,是因为他有了大量的数据分析获得的,而不是因为它在自己的ai大脑里面重构了一副草原的场景。


你问它: 3457 * 43216 = ?它回答 187,685,376。(很可惜,这是错的,正确结果是 187733376 )。

微信截图_20240420112725.png

之所以会有这么一个错误的结果,在于生成式模型本身的机制,就是给定一些字,预测如果是人类会写什么字,把它生成出来而已,并没有经过严格的逻辑运算。


Pre-Training(预训练)

总结:预先喂的数据越多,能回答的内容就越多且能更准确;


早先的人工智能模型都是为了一个目标训练的。比如给我 1000 张猫或狗的照片,大数据可以训练出来一个模型,判断一个图片是有猫有狗还是没有猫没有狗。这些都是属于专用的模型。


而Pre-Training(预训练)模型不是为了特定的目标训练,而是预先训练一个通用的模型。如果用户有特定的需求,就可以在这个基础通用模型上进行二次训练,基于原来已经预训练的模型,进行微调(Fine- Tuning)。


ChatGPT 就是给了所有人一个预先训练好的模型。这个模型里面语言是强项,它提供的内容无论多么的胡说八道,至少我们必须承认它的行文通畅程度无可挑剔。这就是他 Pre-Training(预训练)的部分,而回答的内容部分,正是我们需要微调(Fine- Tuning)的。


Transformer 转换

语言的转换器就是把语言的序列作为输入,然后用一个叫做编码器 Encoder 的东西变成数字的表现(比如 GPT 就用 1536 个浮点数(也叫 1536 维向量)表示任何的单词,或者句子,段落,篇章等),然后经过转化,变成一串新的序列,最后再用 Decoder 把它输出。这个转换器,是这个生成式自然语言处理的核心。


ChatGPT 的核心就是把一个语言序列转换为了另外一堆语言序列,但无论怎么转化,离真正意义上的 AI觉醒或者人工智能还差的很远很远。


GPT:一个预先训练好的,用生成的方式,把输入文字转化成输出文字的转换模型(工具)