What is ChatGPT?
What is ChatGPT?

What is ChatGPT?

Date
Created
Feb 13, 2023 02:43 AM
Descrption
It is a so bid deal!
Tags
OpenAI
ChatGPT
notion image

Intro

相信近日已经没少听到关于ChatGPT的消息了,抖音,微博,各种社交,新闻平台上都有关于ChatGPT的新闻,那么ChatGPT到底是什么,它究竟会改变什么,以及最关心的,对于我们的工作会带来怎样的冲击。

ChatGPT是什么

看下官网的解释:

ChatGPT: OptimizingLanguage Modelsfor Dialogue

We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests. ChatGPT is a sibling model to InstructGPT, which is trained to follow an instruction in a prompt and provide a detailed response.
 
简单来讲:就是一个语言对话模型机器人,以前我们也用过类似的客服机器人,大部分都是一些死的回复文案,问着问着又兜圈子兜回开始的话题,以前的客服机器人与人工智障没什么区别,但是ChatGPT更加符合真人对话,之所以爆火,也是因为其回复的自然得体,真实,完全可以比拟人类的对话,甚至以及可以超过人类。
 
你可以到官网按照指南注册一个账号来体验一下其功能。

问答交互

notion image
简单几句可能显示不出其威力。
如果我们说,帮我用OC写一个单例类:
notion image
很快便输出了结果,并且很精确,这是一个标准的单例类,并且很多公司的iOS面试题都有这道题。

关联上下文

假如仅止于此,可能也没有那么惊艳,再次询问是否可以用Siwft来写一个单例类,可以看到马上也
输出了Siwft版本的单例类:
notion image
可以看到两次询问的上下文是有关联的,如果说能单次抛开上下文给出正确答案已经很牛了,那么ChatGPT可以完美识别上下文,然后给出答案,我觉得才是一次革命性的改变。

代码纠错

可以看到我们在写一个错误循环的时候,ChatGPT可以识别到错误,并且改正错误。
notion image

理解计算

notion image

写作

notion image
看了以上例子,是不是可以设想一下,作为一个求职者,可能ChatGPT已经可以比一些应聘者都要强了。
所以这也是前几天有新闻报导,ChatGPT已经通过了谷歌考试:
所以替代基础的程序员感觉已经不远了。同时一些电话客服,以及一些柜台普通业务员,也同样会有被替代的风险, 甚至财务,老师,服务性行业的很多工作都可以被替代。
那么为什么之前的语言模型无法引起想ChatGPT一样的爆炸式效果,让我们再次探索一下ChatGPT究竟强在哪里。

ChatGPT的前世今身

介绍ChatGPT之前,首先得了解一下以下的知识。

OpenAI

 
OpenAI(开放人工智能)是美国一个人工智能研究实验室,由营利组织 OpenAI LP 与母公司非营利组织 OpenAI Inc 所组成,目的是促进和发展友好的人工智能,使人类整体受益。OpenAI成立于2015年底,总部位于加利福尼亚州旧金山,组织目标是通过与其他机构和研究者的“自由合作”,向公众开放专利和研究成果。 创始人伊隆·马斯克以及山姆·柯曼的动机是出于对强人工智能潜在风险的担忧。至2018年,OpenAI 的总部坐落于旧金山的米慎区,与伊隆·马斯克的另一座公司Neuralink在同一办公室大楼。
马斯克则在2018年时因公司发展方向分歧而离开,社交媒体上说是和平分手,但是是其实应该还是理念不合,马斯克应该是为了赚钱,但是当时的OpenAI应该还是坚持自己的价值观,为了AGI的发展朝向利于人类的方向发展。但是后来成立的OpenAI LP是盈利受限的子公司,则不是纯非盈利公司了。但是其实也理解,毕竟训练一个模型就要多少机器一起运行,以及各种训练素材,以及人工干预,不烧钱是不可能的,适当盈利也是合乎情理的。所以这也是后来Open AI在换了CEO后,迅速崛起的一大原因。
从2018年起,OpenAI就开始发布生成式预训练语言模型GPT(Generative Pre-trained Transformer),可用于生成文章、代码、机器翻译、问答等各类内容。

什么是 GPT?

Generative Pre-trained Transformer (GPT),是一种基于互联网可用数据训练的文本生成深度学习模型。它用于问答、文本摘要生成、机器翻译、分类、代码生成和对话 AI。
 
在正式介绍GPT之前,还应该介绍下以下几个名词:

NLP

自然语言处理(英语:Natural Language Processing,缩写作 NLP)是人工智能语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言处理包括多方面和步骤,基本有认知、理解、生成等部分。自然语言认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言。

LLM

Large language models
Large language models (LLMs) such as GPT-3 are increasingly being used to generate text. These tools should be used with care, since they can generate content that is biasednon-verifiable, constitutes original research, or violates copyrights. Editors retain full responsibility for LLM-assisted edits, which should still comply with all relevant Wikipedia policies.
The use of LLMs is not prohibited. However, as with other computer generated content, LLM outputs must be rigorously scrutinized for compliance with all applicable policies before being added to any article. Furthermore, LLM use must be declared in the edit summary.
大型语言模型(LLM)具有广泛的应用场景,其中一些主要应用场景包括:
  1. 自然语言理解(NLU):理解自然语言输入,如语音识别或文本理解。
  1. 机器翻译:翻译文本或语音。
  1. 文本生成:生成文本,如文章、电子邮件、对话等。
  1. 数据增强:生成更多的训练数据来提高模型性能。
  1. 问答系统:构建问答系统,回答用户的提问。
  1. 情感分析:识别文本中的情感倾向。
  1. 智能客服:构建智能客服系统,自动回答客户的问题。
  1. 聊天机器人:构建聊天机器人,与人类进行自然语言对话。
当然,这只是一部分应用,随着技术的不断发展和新的需求的出现,LLM 还会有更多的应用场景。

从 GPT-1 到 GPT-3

每一代GPT模型的参数量都爆炸式增长,堪称“越大越好”。2019年2月发布的GPT-2参数量为15亿,而2020年5月的GPT-3,参数量达到了1750亿。
notion image
 

BERT