GPT-4和GPT-3.5比到底有什么不同(GPT-4强大之处在哪里)
当开发者还在为OpenAI开放ChatGPT的API(应用程序编程接口)兴奋,铆足了劲研究各种AI插件之时,OpenAI在北京时间3月15日凌晨发布了多模态预训练大模型GPT-4(Generative Pre-trained Transformer 4),支持图像和文本输入并以文本形式输出。
不过,目前只有ChatGPT Plus的订阅用户可以试用有使用上限的GPT-4,想要访问GPT-4 API的开发者也需加入候补名单等待。由于目前的图像输入尚处于只供内部测试使用的第一阶段(α阶段),用户暂时只能向其输入纯文本信息。
在定价方面,对于订阅用户来说,GPT-4的定价为每1000个prompt token(用于文本生成的特定文本片段或单词)0.03美元,每1000个completion token(语言模型基于prompt token生成的完整文本)0.06 美元。
那么,GPT-4与之前“技惊四座”的GPT-3.5有什么不同?它又会让目前的AI应用产生怎样的变化?
首先是语言模型架构的不同:GPT-4使用多模态预训练大模型,输入不只限于文本,而GPT-3.5采用的是基于文本的单模态预训练模型。
当人们谈论GPT-4的高体验、强能力时,往往提及GPT-4针对文本、图像多种类型输入数据的强大的处理能力,这主要基于其特有的“多模态”功能。
虽然GPT-3.5已经具备很强的文本理解与生成能力,但它只是GPT-3微调的版本,它们有着相似的架构,即使增加了更多的参数,GPT-3.5仍然是一个单模态预训练模型,无论是图像还是文本、音频,用户只可以输入一种数据类型的信息。
GPT-4则非常不同。假使我们让计算机根据一张照片描述其中的物品,如果使用单模态预训练模型,计算机只能从图像中提取特征并生成描述,这样很容易出现“误判”。但如果使用多模态预训练模型,同时提供图片与相关文本描述,计算机就可以结合两类信息生成更准确的描述。
在OpenAI公开的GPT-4报告中,用一张带梗的图片演示了GPT-4特有的多模态功能:
比如用户输入:Can you explain this meme?(你可以解释这张网络爆火的图片吗?)
基于GPT-4的ChatGPT给出的回答是:这个梗将两个毫不相干的事物组合在一起,即从太空拍摄的地球照片和鸡块。文字暗示下方的图片是一张美丽的从太空拍摄的地球照片。然而,实际上这张图片是鸡块拼凑而成,模糊地呈现出世界地图的形状。这个梗的幽默之处在于文字和图片之间出现了出乎意料的差异。文字制造了一种期望,即展示一幅壮丽的地球图像,但实际呈现的是一些平凡而又滑稽的东西。
同样,在翻译领域,用户可以向多模态预训练大模型提供文本与音频,而非之前基于单模态预训练大模型只能提供文本或音频,计算机结合多种输入数据类型分析,可以生成更准确的翻译结果。在文献阅读过程中,用户也可以直接输入文献的图片格式与文字指令,使其总结论文要点。
其次是训练数据来源不同:GPT-4使用文本、图像、视频等多种类型,回答更具针对性,而GPT-3.5只有文本。
ChatGPT的爆火,展现了GPT-3.5在各种自然语言处理任务中出色的性能,以及在多个任务中与人类不相上下的文本理解与文本生成能力,但GPT-4让生成的内容更具针对性了。
对于模型的训练数据,GPT-3.5使用的是来自互联网的大量文本数据,这些数据包括维基百科、新闻报道、网站文章等。GPT-4使用的则是包括图像、视频、语音等多种类型的数据。比如,GPT-4可以通过分析视频和音频内容,学习不同的语音和口音模式,从而提高其对口语的理解和生成能力。
正因如此,OpenAI在介绍GPT-4的页面写道,“GPT-4 比以往任何时候都更具创造力和协作性。它可以生成、编辑和迭代用户进行创意和技术写作任务,例如创作歌曲、编写剧本或学习用户的写作风格。”
为了佐证相比GPT-3.5,拥有更大模型容量和更高计算能力的GPT-4可以处理更复杂、更长的输入信息,并生成更准确、更流畅的输出内容,OpenAI在报告中提到,经过6个月使用对抗性测试程序(Adversarial Testing,为确保机器学习模型不会对恶意数据产生过于错误的预测或输出,从而增强机器学习模型的安全性和稳健性)并参考ChatGPT的经验教训,GPT-4在真实性和可控性等方面取得了有史以来最好的成果。
如今,GPT-4能够通过模拟律师考试,其分数在应试者的前10%左右;相比之下,GPT-3.5的得分在倒数10%左右。并且,GPT-4也在USABO Semifinal Exam 2020(美国生物奥林匹克竞赛)、GRE口语等多项测试项目中取得了接近满分的成绩。
知识在计算机中如何表示是人工智能领域的核心问题之一,以前这个问题通过关系型数据库的方式解决,但BERT、GPT等预训练模型的出现提供了另一种可能——大模型也成为一种知识存储的方式:知识以参数的方式存储,虽然可读性、精度相对较低,但通过自然语言就能调用。
虽然GPT-4还没有被广泛使用,但随着该模型的出现,语言交互系统将变得更加高效。如今,GPT-4可以处理超过25000字的文本,这意味着它可以处理上下文较长的对话,而不会迷失或混淆。到那时,当我们向智能客服提问的时候,应该不会只得到根据关键词自动回复的固定内容,让人着急上火对它大吼“给我转人工客服”;当我们与聊天机器人对话的时候,它也不会太频繁地说驴头不对马嘴的话,或者经常在回答不上来的时候转移话题。
OpenAI称,GPT-4是在Microsoft Azure AI超级计算机上接受训练的,具有Azure的“AI优化”基础架构,因此可以面向世界各地的用户提供此项服务。微软也表示,其Bing AI Chatbot自上个月该服务进入预览版以来一直基于GPT-4运行。
不过很遗憾的是,虽然在内部的真实性评估中,GPT-4的得分比GPT-3.5高40%,但GPT-4并不能让生成的内容绝对符合事实,它与GPT-3.5乃至早期的GPT模型一样不完全可靠。
OpenAI也在GPT-4的报告中用17页的内容(占据全篇近20%)着重强调了这一点(报告中对应:GPT-4 Observed Safety Challenges这一小节)。比如它仍然会产生虚假信息、有害内容、“幻觉”(产生“幻觉”事实并出现推理错误)、传统或非传统武器扩散、隐私、网络安全、过度依赖等问题。

 

点赞(36)

猜你喜欢

相关推荐

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部