在这个舆论时常反转的时代,只要一个消息听起来合理,许多人就会认为这是正确的。
撰文:DAOctor
Elon Musk 创立的 OpenAI 基金会的最新聊天机器人 ChatGPT 以其强大写作、对话能力席卷了网络世界。ChatGPT 是一种由人工智能驱动的聊天机器人,它以一种令人信服的对话方式与用户互动。ChatGPT 对问题深思熟虑和全面的回答(即使不准确)令用户震惊,包括学术界和科技行业。
该工具迅速走红。周一,Open AI 的联合创始人、著名的硅谷投资者 Sam Altman 在 Twitter 上表示,ChatGPT 的用户已突破 100 万。
知名的科技投资人 Box 首席执行官 Aaron Levie 也表示:「当一项新技术调整了你对计算的想法时,会有一种特定的感觉。谷歌、 火狐、 AWS 、iPhone 都做到了。OpenAI 正在通过 ChatGPT 做到这一点。」
与其他人工智能工具一样,ChatGPT 也可能扰乱创意产业、延续偏见和传播错误信息。如 Stack Overflow 暂时禁止用户分享 ChatGPT 生成的回复。因为 ChatGPT 很容易与用户互动,且可以快速生成大量回答,这让网站充斥着许多第一眼看起来是正确的答案,但在仔细检查后就能发现其中的错误。
因此,本文,我们将讨论最近流行的 AIGC 工具 ChatGPT 及此类工具对内容生态审核制度的挑战。
Generative Pre-trained Transformer (GPT),是一种基于互联网可用数据训练的文本生成深度学习模型。它用于问答、文本摘要生成、机器翻译、分类、代码生成和对话 AI。
2018 年,NLP(自然语言处理)的预训练模型元年,GPT-1 诞生,此时的 GPT-1 仅是一个语言理解工具而非对话式 AI。2019 年 GPT-2 采用更多的网络参数与更大的数据集进行训练,此时的 GPT-2 展现出普世且较强的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。随后,GPT-3 出现,作为一个无监督模型(自监督模型),几乎可以完成自然语言处理的绝大部分任务,例如面向问题的搜索、阅读理解、语义推断、机器翻译、文章生成和自动问答等等。GPT-3 的出现使人们看到了通用人工智能的希望。
今天,ChatGPT 的到来,也被视为文本生成器 GPT-3 的下一个迭代,为 GPT-4 到来拉开序幕。
ChatGPT 是一种大型语言模型,通过大量在线信息进行训练并创建其响应。注册 ChatGPT 后,用户可以要求人工智能系统回答一系列问题,这些问题包括开放性问题:例「生命的意义是什么?『加密货币值得投资』?」「什么是 Hacker Movement」等。
谈到 ChatGPT 的算法模型, 其前身 InstructGPT 仍值得关注。
2022 年初,OpenAI 发布了 InstructGPT。开发人员通过结合监督学习 + 人类反馈强化学习,提高 GPT-3 的输出质量。在这种学习中,人类对模型的潜在输出进行排序,强化学习算法则对产生类似于高级输出材料的模型进行奖励。
训练数据集以创建提示开始,其中一些提示是基于 GPT-3 用户的输入,比如「解释什么是 Hacker Movement」或「给一个小学生解释 Hacker」。
开发人员将提示分为三个部分,并以不同的方式为每个部分创建响应:
ChatGPT 和 InstructGPT 算法模型基本一样。不同之处在于数据如何被收集和训练。
与其他 AI 聊天机器人不同,本着构建更加负责任的强人工智能原则, ChatGPT 可以回答后续问题、承认错误、挑战不正确的问题并拒绝不适当的请求。
写在这里记起,科幻小说家艾萨克·阿西莫夫(Isaac Asimov)为机器人设定的行为准则—机器人三定律:
不可置疑的是 AIGC 对很多领域产生了积极的影响。如,文本创作、音乐创作、游戏文本生成等。随着 AIGC 工具的成熟,其甚至可自主编程、拼接生成新的协议。
但,此类工具向内容生态提出一个全新的问题即:如何应对 AIGC 的真实性。以 ChatGPT 为例:
人工智能生成的答案有数千个,而这些答案通常需要具有专业知识的人详细阅读,才能确定答案实际上是错误的,这些错误信息很容易破坏以志愿者为基础的高质量问答社区。
纸质新闻时代,每个事实都必须包含权威的一手或二手资料来源,但现在已经很少有出版物有事实核查员,这就把责任推给了记者和编辑。信息爆炸时代,以人为媒介传播的虚假信息尚且让审核机制「头疼」,很难想象当人工智能开始传播虚假信息,所带来的挑战。尤其是在这个舆论时常反转的时代,只要一个消息听起来合理,许多人就会认为这是正确的。
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。