“ChatGPT之父”回应!
近期有市场消息称GPT-5处于秘密训练中,将于年内上线,这一传闻迅速被官方辟谣。
在本周于麻省理工学院举办的“想象力在行动”活动中,OpenAI首席执行官兼联合创始人、“ChatGPT之父”Sam Altman回应道:“现在并未训练GPT-5,在短期内也不会训练。”
“封杀AI公开信缺乏技术细节”
Sam Altman是在回应“封杀”AI公开信一事时作出上述表述的,这也是他首次正面回应该事件。
此前,马斯克、图灵奖得主Yoshua Bengio、苹果联合创始人Steve Wozniak等多位科技界知名人物签署了一封公开信,呼吁在6个月内暂停开发比OpenAI公司新推出的GPT-4更为强大的系统。
尽管公开信的部分内容后被证实存在曲解以及伪造,但仍然为迅猛发展的AI撕开了一个口子,让更多人关注到AI背后的安全性问题。在该封信发出后不久,欧洲多个国家掀起了对ChatGPT的监管行动,ChatGPT从全球人工智能宠儿逐渐变成需要“锁在笼子里的巨兽”。
在呼吁“封杀”AI一事甚嚣尘上之时,Sam Altman从未正式回应,仅在社交媒体上表示:“身处暴风眼中,我很平静。”
在麻省理工学院的这场活动上,Sam Altman首次吐露了自己对于这封信的态度:“我非常同意其中的部分内容。我们完成对GPT-4的训练后,花了六个多月的时间,研究大模型的安全性……我也同意,随着AI能力变得越来越强大,安全标准必须提高。”
不过,随后Sam Altman直言,公开信缺乏技术细节——“我们应该在哪里停止(训练AI)”?
Sam Altman表示:“这封信原始版本说OpenAI正在训练GPT-5,但实际上我们并没有,而且在相当一段时间内,都不会这样做。所以这么来看,这封信就有些愚蠢了。”
Sam Altman补充道,OpenAI在GPT-4之上开展其他工作,这些工作涉及到安全问题,但在信中被完全忽略了。
值得一提的是,马斯克牵头公开信一事被外界视为一种“缓兵之计”——媒体报道称,马斯克最近购买了约1万个GPU(图形处理器),涉及创建一个生成式人工智能。
大模型不是越大越好
在该场活动上接受采访时,Sam Altman还发表了对于大模型发展方向的看法:我们正为了大小而逐渐接近LLM(大语言模型)的极限。“我认为,我们已经走到了这个时代的尽头,我们将以其他方式把这些大模型做得更好。”
Sam Altman认为,用大小来衡量模型质量是错误的。他做了个类比:“我认为人们过于关注参数数量,也许参数数量肯定会增加。但是,这让我想起了上世纪90年代和2000年代的千兆赫芯片竞赛,当时每家公司都追求大参数。今天我们有更强大的芯片来运行我们的iPhone,但我们在很大程度上不知道它们有多快,只知道它们能很好地完成任务。”
“重要的是,将重点放在迅速提高(模型)能力上。如果可以的话,参数数量应该随着时间的推移而减少,或者我们应该让多个模型一起工作,每个模型都更小。我们希望向世界提供的是最强大、最实用、最安全的模型。当然,我们并不是要忽略参数数量。”Sam Altman说。
为什么是OpenAI先成功了?Sam Altman的答案很简单:“这只是因为我们已经在工作中为每一个细节汗流浃背了很长时间。大多数人都不愿意这么做。”