• |
  • |
  • |
  • |
?20240526/cvvyn.pdf

有关"imtoken钱包里的eth被盗"网页版/手机app介绍公告 hd 19.82-凯发旗舰厅

2024-05-26 01:27:37 来源: 新华社
字号:默认 超大 | 打印 |

openai短时间、大规模的人事变动是其发展战略变化的前哨吗?

伟大的技术和产品公司有时会在管理上崩溃。就像雅达利在巅峰时期因为质量控制体系松弛而崩溃一样。能否兼具技术和管理?openai面前也有类似的试题。5月15日,gpt-openai在4o发布后的一天内再次成为人们关注的焦点。然而,与之前的技术突破不同,openai的主题是开始其首席科学家ilya和超级对齐团队的集体离开。此前,超级对齐团队拥有openai20%的计算能力资源。因此,难免会有人怀疑openai短时间、大规模的人事变动是否是其发展战略变化的前哨?openai内部的分歧存在已久,在去年11月的“宫斗”事件中早已公之于众。这次ilya sutskever等一行人的出走,可以看作是历史矛盾的延续。在ilya辞职之前,openai最大的区别之一就是对ai安全的态度。在科技巨头和初创企业的相互卷下,人工智能技术的研发在快车道上不断前进,人工智能时代离我们越来越近。有人认为“openai正在训练更强大的ai系统,目标是最终全面超越人类智能”。在未知的全新力量下,隐藏着未知的风险。用前员工的话来说,这可能是人类历史上最好的事情,但如果我们不小心行事,也可能是最糟糕的事情。目前的人工智能监督主要集中在“评估风险和采取缓解措施”的组合上。这种组合很容易被大公司利用,但最终忽视了对最需要监督的前人工智能实验室的监督。在超级对齐团队解散之前,openai有三个团队来应对不同时间尺度的人工智能风险。“对齐”或“超对齐”是人工智能领域使用的术语,是指在人类需求和优先事项范围内训练人工智能系统运行的工作。超级对齐ai团队于2023年6月5日首次宣布成立。该团队的使命是“解决不同类型的安全问题,如果公司成功构建agi”——即未来人工智能智能水平不断提高后可能出现的安全问题。人工智能教父geofray hinton的ilya是坚持安全第一的安全派。2016年,ilya作为联合创始人、研究总监加入openai,并于2018年担任首席科学家。ilya在研发过程中一直关注人工智能大模型的安全性。sam altman是一所商业学校,致力于开发“更闪亮的产品”,并与谷歌等竞争对手展开了激烈的竞争。在他看来,agi安全治理的优先级远不如推出“闪亮产品”。虽然altman在采访中多次表示重视安全问题,但就实际操作而言,计算能力资源的平衡不断向研发侧倾斜。对altman来说,如何在当前的ai竞赛中增加足够的马力,比未来的安全治理更为重要。william是openai的前员工和超级对齐成员之一 saunders在less wrong论坛表示,对openai能否在agi时代负责任的行动失去了信心。william saunders不是一个例子。对openai未来agi安全部署工作的失望已成为其团队许多人离开的关键因素。很多人认为ilya出走很可能已经看到了agi的安全隐患。openai“权力游戏”还有多少季?在技术驱动的进步面纱下,未来安全团队将被迫“重组”。事实上,openai在安全方面的人员一直在“跳跃”。2021年,gpt-3团队负责人dario和daniela amodei因“安全研究优先顺序”不同而辞职,转身创办anthropic。同年,rlhf发明者兼安全研究主管dr.paul christiano从安全团队辞职,成立了非营利性校准研究中心。2023年11月,openai围绕安全问题爆发宫斗,sam 被撤职100小时后,altman重返openai。这场“权力游戏”将于2024年继续上演。2024年2月15日,安全研究员 william saunders 在 ea 我在论坛上总结了自己 openai 作为超级对齐团队工作的一部分。表示已经从openai辞职。3月17日,jan leike 离职。jan leike参与了chatgpt的核心技术之一——人类反馈强化学习rlhf。加入openai后,从代码大模型codex开始、instrucgpt前身chatgpt,chatgpt、gpt-他都是重要贡献者。4月,daniel kokotajlo拒绝签署辞职协议,并在随后的媒体采访中公开表示,“openai正在训练一个更强大的ai系统,目标是最终完全超越人类智能。他“逐渐对openao领导层及其负责处理agi的能力失去了信心”。4月11日,安全团队leopold aschenbrner和推理团队的pavel izmailov因涉嫌信息泄密而被开除。安全研究员 cullen o'keefe openai也离开了。5月15日,openai联合创始人兼首席科学家ilya宣布离职,并在社交平台x上表示,“下一个计划——这个项目对我个人来说意义重大,我会在适当的时候分享细节。”。ilya宣布离开几个小时后,ilya的同事,openai超级对齐团队联合主管jan leike光速宣布辞职,并在x上留下两个字母:i resigned。leike 自2021 年加入 openai,并于2023年开始领导超级对齐团队。接下来的几天,jan leike在x上揭开了这次离开的“内幕”:“我与 openai 领导在公司的核心优先事项上存在分歧一段时间,直到我们最终达到临界点。”“在过去的几个月里,我的团队一直在逆风而行”,“建造比人类更聪明的机器本质上是一项危险的工作……但在过去的几年里,安全文化和流程让位于闪亮的产品”。他认为openai“应该把更多的精力花在为下一代模型做准备上,包括安全、监控、准备、安全、对抗鲁棒、(超级)对齐、保密、社会影响和相关主题。这些问题很难解决,我担心我们还没有走上正确的轨道。他认为openai“应该把更多的精力花在准备下一代模型上,包括安全、监控、准备、安全、对抗鲁棒、(超级)对齐、保密、社会影响和相关主题。这些问题很难解决。我担心我们还没有走上正确的轨道。”。william是超级对齐成员之一 saunders,daniel参加了gpt-4对抗性测试 kokotajlo,之前两人都离开了openai。许多离职的人中,daniel kokotajlo和jan leike属于敢于直接批评openai在安全领域和发展方向上存在问题的“特殊群体”。其中一个原因很可能是openai的“封口协议”。 openai前员工kelsey piper 据透露,openai的员工需要签署一份具有非贬低协议的离职协议,如果拒绝签署,其股权收益将被取消。而daniel kokotajlo拒绝签署此协议。sutskever和leike openai退出后,opencnn 证实最近几周已经开始解散其超级对齐团队,并将各研究小组的团队成员整合起来。openai发言人表示,该结构将有助于 openai 更好地实现其超级对齐目标。事实上,业务线的新领导者john schulma此前负责openai现有产品的安全。纵向超级对齐团队的横向合并也意味着未来安全检查员将在一定程度上消失。浮世新人换旧人,sam altman在社交平台x上表达了对ilya离开的遗憾,称“他离开后的openai不再像以前那样了”,但他立即在同一篇文章中宣布任命了新的首席科学家jakub pachoki。此外,openai最近还聘请了shivakumar,一位在谷歌搜索广告业务工作多年的资深人士。 venkataraman。此后,openai的发展战略以“党同伐异”为代价,阶段性地实现了表面一致性。

责任编辑:郑靖伯
扫一扫在手机打开当前页
"));
网站地图