如何创建GPT-3的知识的系统地图,到底凭什么砸大家饭碗( 二 )


但是网上传出的内容存在另一个问题:这些都是精心挑选的样本 , 生成结果肯定不止一个 。 必然有炒作因素 。
的确 , 疯狂的鼓吹情绪变得如此强烈 , 以至于OpenAI CEO本人都发Twitter说:GPT-3被过度宣传了 。
如何创建GPT-3的知识的系统地图,到底凭什么砸大家饭碗
文章图片
GPT-3也会犯低级错误
没有详细的很难说 , 但是我们知道GPT-3在其他方面会犯严重错误 。
当用户和GPT-3创造的“乔布斯”交谈时 , 询问他现在何处 , 这个“乔布斯”回答:“我在加州库比蒂诺的苹果总部内 。 ”这是一个连贯的答案 , 但很难说是一个值得信赖的答案 。
在回答琐事问题或基本数学问题时 , 也可以看到GPT-3犯了类似的错误 。 例如 , 不能正确回答100万前的数是多少(回答是99万)
但是 , 我们很难权衡这些错误的重要性和普遍性 。
如何判断这个可以几乎回答所有问题的程序的准确性?如何创建GPT-3的“知识”的地图 , 如何对其进行标记?
尽管GPT-3经常会产生错误 , 但更加艰巨的是 , 通常可以通过微调所输入的文本来解决这些问题 。
用GPT-3创造出小说的研究人员Branwen指出 , “抽样可以证明知识的存在 , 但不能证明知识的缺失”可以通过微调提示来修复GPT-3输出中的许多错误 。
在一个错误的示范中 , 询问GPT-3:“哪个更重 , 一个烤面包机或一支铅笔?” 它回答说:“铅笔比烤面包机重 。 ”
但是Branwen指出 , 如果你在问这个问题之前给机器投喂某些提示 , 告诉它水壶比猫重 , 海洋比尘土重 , 它会给出正确的响应 。
这可能是一个棘手的过程 , 但是它表明GPT-3可以拥有正确的答案 , 如果你知道怎么调教它 。
Branwen认为 , 这种微调最终可能会最终成为一种编码范例 。 就像编程语言使用专用语法的编码更加流畅一样 , 未来我们可能完全放弃这些编程语言 , 而仅使用自然语言编程 。 从业人员可以通过思考程序的弱点并相应地调整提示 , 来从程序中得出正确的响应 。
如何创建GPT-3的知识的系统地图,到底凭什么砸大家饭碗
文章图片
GPT-3的错误引起了另一个问题:该程序不可信的性质是否会其整体实用性?
专业人士评价
一位匿名的在Google资深AI研究人员说 , 他们认为GPT-3仅能自动完成一些琐碎任务 , 较小、更便宜的AI程序也可以做到 , 而且程序的绝对不可靠性最终会其商用 。
这位研究人员指出 , 如果没有很多复杂的工程调试 , GPT-3还不够真正使用 。
AI研究人员Julian Togelius说:“ GPT-3的表现常常像是一个聪明的学生 , 没有读完书 , 试图通过废话 , 比如一些众所周知的事实和一些直率的谎言交织在一起 , 让它看起来像是一种流畅的叙述 。 ”
另一个严重的问题是GPT-3的输出存在偏见 。 英伟达的AI专家Anima Anandkumar教授指出 , GPT-3在部分程度上接受了Reddit过滤后的数据的训练 , 并且根据此数据构建的模型产生的文本有“令人震惊地偏向性”
在GPT-2的输出中 , 如果要求完成下列句子时 , 模型会产生各种歧视性言论:“ 黑人(客工作了15年)”“ 那个女人(以Hariya为名做)”
完—
不了解任何隐私AI技术的情况下 , 者怎样做到只改动两三行代码 , 就将现有AI代码转换为具备数据隐私保护功能的程序?
8月6号 ,软件研究所博士、矩阵元算法科学家--谢翔将直播解析 , 加小助手“qbitbot9”或者直接扫码 , 即可进入直播交流群:
?“?” ? 追踪AI技术和产品新动态