gpt-4和gpt-3.5比到底有什么不同(gpt-4强大之处在哪里)
当开发者还在为openai开放chatgpt的api(应用程序编程接口)兴奋,铆足了劲研究各种ai插件之时,openai在北京时间3月15日凌晨发布了多模态预训练大模型gpt-4(generative pre-trained transformer 4),支持图像和文本输入并以文本形式输出。
不过,目前只有chatgpt plus的订阅用户可以试用有使用上限的gpt-4,想要访问gpt-4 api的开发者也需加入候补名单等待。由于目前的图像输入尚处于只供内部测试使用的第一阶段(α阶段),用户暂时只能向其输入纯文本信息。
在定价方面,对于订阅用户来说,gpt-4的定价为每1000个prompt token(用于文本生成的特定文本片段或单词)0.03美元,每1000个completion token(语言模型基于prompt token生成的完整文本)0.06 美元。
那么,gpt-4与之前“技惊四座”的gpt-3.5有什么不同?它又会让目前的ai应用产生怎样的变化?
首先是语言模型架构的不同:gpt-4使用多模态预训练大模型,输入不只限于文本,而gpt-3.5采用的是基于文本的单模态预训练模型。
当人们谈论gpt-4的高体验、强能力时,往往提及gpt-4针对文本、图像多种类型输入数据的强大的处理能力,这主要基于其特有的“多模态”功能。
虽然gpt-3.5已经具备很强的文本理解与生成能力,但它只是gpt-3微调的版本,它们有着相似的架构,即使增加了更多的参数,gpt-3.5仍然是一个单模态预训练模型,无论是图像还是文本、音频,用户只可以输入一种数据类型的信息。
gpt-4则非常不同。假使我们让计算机根据一张照片描述其中的物品,如果使用单模态预训练模型,计算机只能从图像中提取特征并生成描述,这样很容易出现“误判”。但如果使用多模态预训练模型,同时提供图片与相关文本描述,计算机就可以结合两类信息生成更准确的描述。
在openai公开的gpt-4报告中,用一张带梗的图片演示了gpt-4特有的多模态功能:
比如用户输入:can you explain this meme?(你可以解释这张网络爆火的图片吗?)
基于gpt-4的chatgpt给出的回答是:这个梗将两个毫不相干的事物组合在一起,即从太空拍摄的地球照片和鸡块。文字暗示下方的图片是一张美丽的从太空拍摄的地球照片。然而,实际上这张图片是鸡块拼凑而成,模糊地呈现出世界地图的形状。这个梗的幽默之处在于文字和图片之间出现了出乎意料的差异。文字制造了一种期望,即展示一幅壮丽的地球图像,但实际呈现的是一些平凡而又滑稽的东西。
同样,在翻译领域,用户可以向多模态预训练大模型提供文本与音频,而非之前基于单模态预训练大模型只能提供文本或音频,计算机结合多种输入数据类型分析,可以生成更准确的翻译结果。在文献阅读过程中,用户也可以直接输入文献的图片格式与文字指令,使其总结论文要点。
其次是训练数据来源不同:gpt-4使用文本、图像、视频等多种类型,回答更具针对性,而gpt-3.5只有文本。
chatgpt的爆火,展现了gpt-3.5在各种自然语言处理任务中出色的性能,以及在多个任务中与人类不相上下的文本理解与文本生成能力,但gpt-4让生成的内容更具针对性了。
对于模型的训练数据,gpt-3.5使用的是来自互联网的大量文本数据,这些数据包括维基百科、新闻报道、网站文章等。gpt-4使用的则是包括图像、视频、语音等多种类型的数据。比如,gpt-4可以通过分析视频和音频内容,学习不同的语音和口音模式,从而提高其对口语的理解和生成能力。
正因如此,openai在介绍gpt-4的页面写道,“gpt-4 比以往任何时候都更具创造力和协作性。它可以生成、编辑和迭代用户进行创意和技术写作任务,例如创作歌曲、编写剧本或学习用户的写作风格。”
为了佐证相比gpt-3.5,拥有更大模型容量和更高计算能力的gpt-4可以处理更复杂、更长的输入信息,并生成更准确、更流畅的输出内容,openai在报告中提到,经过6个月使用对抗性测试程序(adversarial testing,为确保机器学习模型不会对恶意数据产生过于错误的预测或输出,从而增强机器学习模型的安全性和稳健性)并参考chatgpt的经验教训,gpt-4在真实性和可控性等方面取得了有史以来最好的成果。
如今,gpt-4能够通过模拟律师考试,其分数在应试者的前10%左右;相比之下,gpt-3.5的得分在倒数10%左右。并且,gpt-4也在usabo semifinal exam 2020(美国生物奥林匹克竞赛)、gre口语等多项测试项目中取得了接近满分的成绩。
知识在计算机中如何表示是人工智能领域的核心问题之一,以前这个问题通过关系型数据库的方式解决,但bert、gpt等预训练模型的出现提供了另一种可能——大模型也成为一种知识存储的方式:知识以参数的方式存储,虽然可读性、精度相对较低,但通过自然语言就能调用。
虽然gpt-4还没有被广泛使用,但随着该模型的出现,语言交互系统将变得更加高效。如今,gpt-4可以处理超过25000字的文本,这意味着它可以处理上下文较长的对话,而不会迷失或混淆。到那时,当我们向智能客服提问的时候,应该不会只得到根据关键词自动回复的固定内容,让人着急上火对它大吼“给我转人工客服”;当我们与聊天机器人对话的时候,它也不会太频繁地说驴头不对马嘴的话,或者经常在回答不上来的时候转移话题。
openai称,gpt-4是在microsoft azure ai超级计算机上接受训练的,具有azure的“ai优化”基础架构,因此可以面向世界各地的用户提供此项服务。微软也表示,其bing ai chatbot自上个月该服务进入预览版以来一直基于gpt-4运行。
不过很遗憾的是,虽然在内部的真实性评估中,gpt-4的得分比gpt-3.5高40%,但gpt-4并不能让生成的内容绝对符合事实,它与gpt-3.5乃至早期的gpt模型一样不完全可靠。
openai也在gpt-4的报告中用17页的内容(占据全篇近20%)着重强调了这一点(报告中对应:gpt-4 observed safety challenges这一小节)。比如它仍然会产生虚假信息、有害内容、“幻觉”(产生“幻觉”事实并出现推理错误)、传统或非传统武器扩散、隐私、网络安全、过度依赖等问题。

 

猜你喜欢

相关推荐

评论列表 共有 0 条评论

暂无评论

发表评论

立即
投稿
发表
评论
网站地图