5G+AI视频智能分析算法,smarteye, OpenAI的内斗纷争~发展线路之争?
OpenAI“内斗”暂告一段落。自上周五首席执行官Sam Altman突然被董事会宣布遭解雇、董事长兼总裁Greg Brockman辞职;紧接着Altman据传将带领一队人马加入微软,到OpenAI员工以辞职威胁董事会要求Altman回归;再到本周三,OpenAI董事会更换成员、Altman回归OpenAI。表面上看,似乎是一场针对一家炙手可热独领风骚的技术初创公司控制权的争夺战,但本质上是人工智能(AI)发展两种路线的冲撞——一派抗着“加速主义”旗帜,希望AI在技术精英的带领下加速前进改造世界;另一边则是以利他主义理论为根基、力求让AI在人类控制下发展的保守派别。如果再深究下去,这是一场围绕人类道德、资本主义和政治的博弈。
此时此刻OpenAI以这种戏剧化的形式暴露在聚光灯下,或许意味着AI已经发展到了一个关键的岔路口,接下来的选择将关系到人类未来的福祉甚至存亡。到底该往哪儿走?
哲学家卡尔·波普尔曾说过:乌托邦主义的吸引力,是因为没能认识到我们不可能在地上建造天国。
OpenAI首席科学家伊利亚(Ilya)却用代码敲出一句:不,我偏要。
几天前,他跟OpenAI董事会几名成员,对CEO山姆·奥特曼(Sam Altman)发起罢免投票,奥特曼就此出局,AI界的「911事件」就此酿成。
是大戏,就会一波三折九曲回环。OpenAI宫斗,就在几天内变成了连续剧:
第一集,爆出政变。OpenAI董事会将奥特曼逐出公司。
第二集,联合创始人辞职,员工联名要求奥特曼回归。
第三集,承压之下,OpenAI董事会与奥特曼商谈回归。
第四集:谈判破裂,奥特曼改组董事会的要求被拒。
第五集,微软宣布奥特曼加入微软,Game暂时Over。
反转反转再反转,堪比3秒钟一个过山车5秒钟一个反转的国产爽文微短剧,ChatGPT想破脑袋大概都编不出这剧情。
旁观者说OpenAI里上演的是「权力的游戏」,OpenAI董事会表示100个不同意:这分明是「人民的名义」。
AIoT万物智联,智能安全帽、智能头盔、头盔记录仪、执法记录仪、车载DVR/NVR、布控球、智能眼镜、智能手电、无人机4G补传系统等统一接入大型融合通信可视指挥调度平台VMS/smarteye 。
然而,随着ChatGPT的狂奔,以及由此引发的全球范围内的AI竞争,OpenAI似乎已经远离刚成立时的初衷,即打造以“为全人类服务”为宗旨的、安全可靠的通用人工智能(AGI)。
此时,有必要审视AI领域长期存在的两种对立的路线以及背后的哲学思潮。我们如何看待AI——是工具,是人类的伙伴,还是人类的驾驭者?;以及,我们是否以及应该如何监管AI——是企业和行业自治,还是政府强力监管?甚至,人类是否会因AI灭亡?……
科技与人类的关系:“有效加速”(effective acceleration)vs “有效利他”(effective altruism)
加速主义萌芽于约20世纪初的未来主义运动。这一派别的追随者认为技术是一股强大、高速的力量,主张加快技术革命的速度,甚至对技术的毁灭性维度,如战争,都当作“美”来赞颂。2010年左右加速主义分成两个阵营并开始广泛传播,其中左翼认为需要改变现有的资本主义架构从而引导技术发展的方向;右翼则以哲学家Nick Land为代表,更强调资本的作用,认为技术和社会的领导的权应由专制的机构和少数技术人员掌握,后者被视为当下人工智能“有效加速主义”的哲学源头。
有效加速主义在硅谷拥有不少追捧者,比如在社交平台X(原推特)上,会发现有账号后面加有e/acc后缀(effective accelerationism的缩写),包括YC掌门人Garry Tan,A16Z创始人Marc Anderessen等。
他们对人工智能的看法如何?前阿里巴巴人工智能首席陶芳波有个简洁版的解释:
- 人类应该无条件地加速技术创新,并快速推出他们,来颠覆社会结构。
- e/acc 运动认为这种对社会的颠覆风险,本质上对人类有利,因为会迫使人类适应,从而帮助我们更快达到更高的意识水平。
- 过去三百年人类随着技术的颠覆而进化,结果显然都非常好。
与有效加速主义相对的是“有效利他主义”,警惕人工智能对人类可能带来的威胁。
作为动能派的马斯克,向来很难用「左右」来界定,但他在AI上的看法就接近于左翼——他经常渲染AI威胁论,认为硅基(机器)最终会毁灭碳基(人类)。
他之前计划推出TruthGPT宣战ChatGPT,很多人认为他是眼红OpenAI一枝独秀、眼红奥特曼抢了风头,但他更可能的动机是,对大规模AI应用的担忧和对OpenAI商业化运作方式的不满。他之前退出OpenAI董事会,之后签署呼吁暂停强AI研究的千人联名信,都与此相关。
将效率优先序前置的右翼,则往往会接入更多商业化思维,他们笃信技术进步主义,认为技术的问题就该在技术的发展中解决,更先进的技术就是解决方案本身。
今年6月,全球顶级风投公司 a16z掌舵者马克·安德森就驳斥加强对AI监管的合理性,认为「AI最大的风险是不以最大努力追求它。」
细究起来,这次OpenAI变局的始末里,也穿插着左右翼激烈博弈的脉络。
显然,有效利他主义者对人工智能的态度更倾向于负面的、警惕的。著名计算机科学家、德克萨斯大学教授Scott Aaroson在他的个人博客里曾总结了极端的有效利他主义者是如何看待AI的:
- 人类的生存或毁灭取决于未来一两年内少数精英工程师的行动;
- 关于AI风险的公共宣传价值有限,因为大多数人无论如何都不可能理解;
- 人工智能会欺骗人类,同时努力摧毁人类,以令其效用函数最大化;
- 从看起来无害到在几小时或几年内密谋杀死所有人类,可能只需要一个门槛。
- ……
OpenAI的路线之争
上周五之前,OpenAI最早董事会有6名成员,除首席执行官Sam Altman和董事长兼总裁Greg Brockman,还有Quora的首席执行官Adam D’Angelo、乔治敦大学Helen Toner、咨询公司Rand的兼职高级管理科学家Tasha McCauley,以及“AI之父” Geoffrey Hinton的学生、顶级人工智能科学家Ilya Sutskever,他也是OpenAI的联合创始人以及此次内斗的关键人物。
犹记得,在ChatGPT刚问世时,许多人都对OpenAI独特的公司治理架构赞叹不已——OpenAI创立时就定位为非盈利机构,致力于为全人类创造出安全有益的通用人工智能(AGI),其权力金字塔的塔尖立着董事会,董事会下面控制OpenAI的非营利母公司。
创始人自身不控股,大股东微软没有关键投票权,这般设计确实太反常规。当时很多人就由此反思:中国什么时候能出现自己的OpenAI?中国企业家何时能不只顾着低头挣钱?
但现在看,它独特的公司架构确实太挑战人性了,说得更苛刻些,就是反人性。
有挣钱的能力而不好好挣钱,除非是理想主义圣徒,一般人谁能经受住这番诱惑?
某种程度上,OpenAI今天的内讧,从它一开始背负起「非盈利」使命和「为了人类」愿景,充满着乌托邦气质的时候,就已经埋下了伏笔。
作为CEO的奥特曼是中间派偏右,他自己曾说,他在AI辩论中属于中间派。
作为首席科学家的伊利亚是左翼,其光谱色号偏「深」,他以往偶尔在媒体中出镜都是强调AI安全问题。
作为首席技术官(CTO)的米拉·穆拉蒂,立场偏中立,跟奥特曼虽不同频却也相近,此次风波中,担任临时CEO的她力主重新聘用奥特曼,就说明了很多问题。
有意思的是,不少人此前将奥特曼被扫地出门跟乔布斯当年被踢出苹果作类比,但从擅长的能力区间看,奥特曼更接近于AI界的库克,在融资、商业化、应用生态探索等方面的能力尤为突出;伊利亚更像是管理能力和商业思维欠缺版的乔布斯,技术创新能力出类拔萃。
OpenAI成立初衷是非盈利组织,因此董事会并非利益驱动。据Venturebeat等多家媒体报道,Angelo,Toner和McCauley均隶属于有效利他主义阵营。2017年,OpenAI还曾获得了Open Philanthropy的3000万美元注资,而该项目是由有效利他资助的。OpenAI对此予以否认,表示这些非员工董事“与有效利他运动社区的互动主要集中在与AI安全相关的主题上,或者,提供为密切参与该团体的人员的观点。”
但至少Toner和McCauley与利他主义运动关系极其密切。两个人的名字经常出现在利他主主要义运动论坛,甚至McCauley的名字还赫然出现在极端利他主义运动官方背书的主要成员名单上。俩人还一同担任英国国际人工智能治理中心的顾问委员会成员。
Toner 还曾在 Open Philanthropy工作,并且因与人合作的一篇文章中批评OpenAI 在发布 ChatGPT 时的安全实践不如其竞争对手 Anthropic,与Altman发生龃龉。在这篇论文中,她还提到,不能因为担心中国在AI竞争中后来居上而拒绝对AI的监管。
Toner频繁对外发声警告AI风险。今年5月,Toner警告不能过度依赖AI聊天工具,说其对人类来说“还有大量未知领域“,今年10月,她说美国政府应该“采取措施保护民众远离AI伤害和风险,与此同时提升创新、捕捉技术福祉”。
McCauley在公开舆论上并不活跃,鲜少就AI对外发表评论,可能部分因为她同时也是美国知名演员Joseph Gordon-Levitt的妻子。不过据她的X(原twitter)介绍,她是有效利他运动某个机构的英国董事会成员。另外据《纽约客》报道,她和她的丈夫与MacAskill是志同道合的好友。另外,同Elon Musk一样,她也是2017年阿西洛马人工智能原则(Asilomar AI Principles)的签署者。
至于Adam D’Angelo,他是否属于有效利他主义者仍然存在争议。不过从今年4月与Semafor的采访中可以看出,他更关注的是如何让AI与人类“对齐”,换句话说,人类应该怎样驾驭AI。他说这是他在OpenAI董事会的责任。“我不确定走到这一步是否是有风险,但让人们考虑这些问题是有用的。”但对AI他的态度比较乐观:“如果在某个节点上出现了超级强大的AI,那么另外一些人也会拥有超级强大的AI来保卫自己或者束缚AI或执行法律。”
作为OpenAI的技术灵魂人物,Ilya Sutskever显得非常低调,但他在公开场合无数次表达了对AI的担忧,用的是更深刻的、格言一般的表述方式:
他曾在X上发文,“如果你把智力看得比人类其他所有品质都重要,那么你的未来会很糟糕。”
他在接受英国《卫报》采访时,把AGI与人类的关系同人与动物的关系做类比。他说,人类不讨厌动物,还喜欢许多动物,但是当人类要造一条高速路时,不会向动物征求意见,因为高速路对人类很重要。“我认为,默认地,人类和通用人工智能的关系也将会是这样。通用人工智能完全自动,按照自己的意愿行事。”
今年10月,他接受MIT Technology Review采访时表示,他现在的首要任务不是要开发下一代GPT或者其他产品,而是如何阻止“人工超级智能作恶“。他还认为,ChatGPT可能是有意识的;世界需要睁开眼睛看看AI技术的真正实力,甚至,他预测未来有一天部分人类会选择与机器融为一体。“一种可能性——以今天的标准来看可能很疯狂,但以未来的标准来看不会那么疯狂——就是许多人会选择成为人工智能的一部分。”
在Altman被解雇前,Sutskever在X上发布的最后一条推文这样写道,“最终,AI 将变得非常、非常、非常强大。我们将无法理解他们。他们会比我们聪明得多。到那个时候,强烈的铭印至关重要,只有这样,他们对我们的感觉才会像我们对自己的孩子一样。”
出于对AI的担忧,今年7月,他与OpenAI的科学家同事Jan Leike(后者也被普遍认为是有效利他主义者)一起组建了一个团队,专注于他们所谓的“超级对齐”。超级对齐是OpenAI的术语,意即让人工智能模型做人类希望其做的事情。该项目计划利用OpenAI庞大计算资源的五分之一,在四年时间内实现科技突破,做到真正驾驭比人类聪明得多的AI系统。
那么,OpenAI此次内斗的核心人物Altman,他又是如何看待AI和AI风险? Altman负责创建了OpenAI的盈利子公司,并积极奔赴世界各地商讨融资事宜。与此同时,他是OpenAI的联合创始人之一,也是阿西洛马人工智能原则的签署人,在对外公开声明中也经常提及AI的风险并提议对AI进行适当的监管。他还是UBI(universal basic income)理念的积极倡导者。
