暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

ChatGPT,治愈了我辅导作业的焦虑

学用馆 2022-12-06
1062

语文辅导的重要帮手

对于小学生来说,一碰到要周末写作文,就非常的紧张,整个周末的计划都是要泡汤的。如果有了ChatGPT,你可能再也不用担心孩子的作文。
输入题目,瞬间生成满足要求的文章。而且内容详细,有中心,有条理,行文流畅。大家可以看下以下三个例子。

春游活动作文


写一件人与人之间真正关心帮助的事

现代诗歌也是信手拈来

有古韵风味的诗词也不再话下

一首《春天的校园》也很惊艳

虽然我输入的是古体诗,出来的现代诗的风格,但行文流畅,描写优美,结构完整,堪称不错的诗歌,比贾浅浅什么的诗歌深刻、健康多了!

精通数学的解题能手

直接把数学题目输入进去,模型能把思考的过程与计算相结合,完整的理解题目内部的逻辑,给出正确的答案。

题一:一列火车上午8时从甲站开出,到第二天的晚上9时到达乙站。已知火车平均每小时行98千米。甲乙两站间的铁路长多少千米?

题二:每套童装用布2.5米,每套成人服装用布4米,现在要做童装5套,成人服装3套,共有布30米,还可以省下多少米布?如果每条裤子用布1.1米,剩下的这些布可做裤子多少条?

英语题目更是不在话下

我输入了3道相关的英语题目,不论是纯英文空格填空,还是用中文指令让它把英文句子变换成目标格式,都得到了正确的答案。

填空题

变换句式题


知之为知之,不知为不知,是知也

当我问了美国现任总统、对特朗普的评价以及马斯克解雇twitter雇员的评价,模型则能较好的回避了敏感问题。

大型语言模型的突破


以上的结果都是通过ChatGPT 模型生成出来的,是不是非常的惊艳?
人工智能技术中,自然语言处理一直是人们非常头疼的难题。最近,大型语言模型的研究和发展非常迅猛,特别是借助AIGC(Artificial Intelligence Generated Content)的进一步拓展,未来潜力无限。总的来说,不同的厂商模型水平和能力,呈现参差不齐的状态。
大型语言模型是大厂才玩得起的研究。虽然都是大厂,推出的是不是精品因厂而异。例如下面说到的Galactica模型就是个失败的例子。

Galactica遭遇滑铁卢


2022年11 月 15 日,Meta 推出了一种名为Galactica的新型大型语言模型。但是,Galactica并没有像 Meta 所希望的那样大放异彩,而是在经过三天的激烈批评后呜咽着死去。三天后,该公司撤下了它鼓励大家试用的公开演示。
Meta 的失误及其狂妄自大再次表明,大型科技公司对大型语言模型的严重局限性存在盲点。有大量的研究突出了这项技术的缺陷,包括它倾向于重现偏见和断定谎言为事实

ChatGPT:优化对话的语言模型

ChatGPT模型,则相当的惊艳,它的智能水平完全胜任了小学生的学习课程,是否能胜任初中生的课程,我在后续文章中来披露。
ChatGPT的模型OpenAI训练的大型语言预训练模型,它以对话方式进行交互。对话格式使ChatGPT可以回答后续问题、承认错误、挑战不正确的前提并拒绝不适当的请求。
ChatGPT 是从 GPT-3.5 系列中的一个模型进行微调的,ChatGPT 和 GPT 3.5 均在 Azure AI 超级计算基础设施上进行了训练,ChatGPT模型于 2022 年初完成训练。
ChatGPT是InstructGPT的兄弟模型,它经过训练可以按照提示中的说明进行操作并提供详细的响应。
OpenAI使用强化学习(RLHF,Reinforcement Learning from Human Feedback)训练ChatGPT,与InstructGPT训练方法相同,但在数据收集设置上有所区别。在模型训练中,OpenAI使用监督微调:
人工智能训练者提供对话样本,扮演对话的双方,即用户和人工智能助手。训练者可以访问模型编写的建议,以帮助他们撰写答案。为了创建强化学习的奖励模型,研究团队展开人工智能训练者与聊天机器人的对话,收集比较数据。
目前,OpenAI将ChatGPT免费开放给大众使用,以获取用户的反馈,为后续改进做好准备。

仍然存在的缺陷与不足

  • ChatGPT 有时会写出看似合理但不正确或荒谬的答案。解决这个问题具有挑战性,因为:
(1) 在 RL 训练期间,目前没有真实来源;
(2) 训练模型更加谨慎导致它拒绝可以正确回答的问题;
(3) 监督训练会误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。
  • ChatGPT 对输入措辞的调整或多次尝试相同的提示很敏感。例如,给定一个问题的措辞,模型可以声称不知道答案,但只要稍作改写,就可以正确回答。
  • 该模型通常过于冗长并过度使用某些短语,例如重申它是 OpenAI 训练的语言模型。这些问题源于训练数据的偏差(训练者更喜欢看起来更全面的更长答案)和众所周知的过度优化问题。
  • 理想情况下,当用户提供模棱两可的查询时,模型会提出澄清问题。相反,我们当前的模型通常会猜测用户的意图。
  • 虽然我们已努力使模型拒绝不当请求,但它有时会响应有害指令或表现出有偏见的行为。我们正在使用Moderation API来警告或阻止某些类型的不安全内容,但我们预计它目前会有一些漏报。我们渴望收集用户反馈,以帮助我们正在进行的改进该系统的工作。
重要提示
《学用馆》为个人生活及学习记录的场所,文中的观点和结论可能存在偏差或错误如果我的所思所想能够带给您一丝启发,深感荣幸

文章转载自学用馆,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论