打开APP

OpenAI的闹剧,真的源于小题大做么?

就像古老时代的哲学家们并不是把天底下的书都看完了才能产生洞见,他们也可以选择围炉夜话,通过交谈甚至是自我对话来创造新的智慧,如果AI达到了这样的境界,那么AGI(通用人工智能)恐怕也是真的要降临于世了。

随着Sam Altman重新回到OpenAI执掌大权,那场儿戏般的宫斗终于告一段落,前日参加一场连麦,谈到对于OpenAI的追剧过程以及盲点,其实信息量相当大,尤其是前阿里巴巴算法专家、心识宇宙创始人陶芳波老师的分享对我的启发性很高。

陶老师也是最近被转发巨多的的作者,他是在AI这个行业里躬身入局做了很多年的技术专家,和我作为使用者和消费者的视角有很大不同,我也简单总结一下我们聊的内容。

现在回过头看,OpenAI的宫斗除了夺权之外,其实还有一条埋了至少半年以上的隐线,它未必是最突出或者首要的矛盾,但实际上造成了董事会和管理层的离心离德。

OpenAI的董事会结构虽然已经被吐槽很多次了,但它之所以那么奇葩,原因都在于最开始想用这么一个去商业化的设计方案来实现董事会应当为全人类负责这个使命,我们现在觉得有问题的「由和业务无关的人来决定公司生死」的处境,其实初心就是这么考虑的。

如果不是出了这么一档子事,如此架构的理想主义甚至还是备受好评的,毕竟它代表了传统商业经济形态之外的一种尝试,而且诞生了一家领军企业,不可谓不成功。

但是有两个问题是随着时间发展逐渐暴露出来的:

其一,是Transformer这条路线太烧钱了,不再是研究型公司负担得起的,通过大佬们的捐赠只是杯水车薪,必须重新回到融资这条路上才能支持继续发展;

其二,是理想主义总会高估人性,不知道人类本身也是有局限性的,你怎么知道董事会的判断,是出自自我的偏见,还是真的为全人类负责呢?或者说,他们凭什么说自己是为全人类在做判断?

所以我才说,不如调几个不同风格的满功率GPT-4来担任董事会,重要事项让它们来投票决定,这要比人类靠谱多了。

无论如何,Sam Altman一直都有在打补丁,想要兼容现代商业制度,那个董事会的成员最开始是9个人,后来减少到6个人,并长期维持下来,这也是很草率的地方,因为一般都不会留双数,但Sam也没怎么管,算是一个比较重大的疏忽,说明他根本没想过后院起火的可能。

根据几家媒体的最新拆解,董事会的其中一人——在外面研究 人工智能相关政策的Helen Toner——认为OpenAI的发展过于危险了,甚至认为如果毁掉OpenAI才能解决问题,那么这也是拯救全人类的*手段。

从时间线上看,是Sam Altman想先动手,他在和Helen Toner长期无法达成共识的情况下,试图把她从董事会里拿走,却慢了一步,Helen说服了首席科学家Ilya反水,联合其他董事提前把Sam和他的死党Greg踢出了局,用的理由也是偏保守和监管的那套,认为Sam太着急了,而且不受控制,对发布产品的重视度远高于对齐。

虽然最后证明几乎所有OpenAI的员工都选了Sam Altman,但在OpanAI内部确实也有很多不赞同过早发布产品的声音,他们未必始终都站在Sam这一边,但都不接受用儿戏般的宫斗方式来达到目的,这太蠢了。

我的看法是,就好比说做好极端情况的应对当然是没毛病的,如果被毒蛇咬了那我们可以接受截肢保命的代价,但OpenAI的闹剧在于,现在好像只是有人的胳膊被蚊子咬了一下,然后就直接拿出电锯要截肢了⋯⋯

陶芳波老师不赞同我的判断,听他解释之后我也意识到确实有很多地方是旁观位置观察不到的死角,而陶老师正在前沿做AI Agent,他见到的、经历的事情,要深很多。

简单来说,陶老师认为,控制AI的先决条件,是人类要比AI强大,如果AI超过了人类,那么人类根本无从判断AI的决定是对是错,以致于失去驾驭AI的能力。

所以时间其实很紧张——而不是还有得从容余地——所谓的「对齐派」根本就还没有写好全部后门,而「加速派」就已经迫不及待的要让AI重构社会了,而在硅谷的大环境里,「加速派」则是占据*上风的,所以导致了OpenAI的董事会要用那种独断的方式来为公司踩刹车,这事儿可笑归可笑,但不是不能理解的。

我接触到的许多AI从业者,都带回和陶老师很是接近的一种复杂性,怎么说呢,就是在高度认同AI事业价值的同时,也对AI保持着同样高度的怀疑和警戒,过去历史上所有的技术都是工具,现在开始超越了工具,这既让人感到兴奋,也有所不安。

相比之下,我可能更偏乐观一点,如果现在的世界和社会已经接近*了,那么AI引发改变的风险当然需要讨论其必要性,但事实是,当下整个人类文明的生产力都还非常低下,我们被困在促狭的地月系统里,受制于能源、经济、战争等种种因素,如果AI可以造就跨越繁荣的机会,那么它能救赎的苦难,一定高于危险。

我很尊重技术专家们对于肩负职责的崇高性,但在信息不对称的世界里,「饱汉不知饿汉饥」的情形也是比比皆是的,让大众市场而非自我道德来做均值回归,可能是一个容错率更高的选择。

这又回到了OpenAI开发出的那个突破性进展Q Star,时至今日我们都还无法具体了解这个引起董事会恐慌暴走的玩意到底是什么,只能从各种蛛丝马迹里来拼凑出一个相对接近的答案:

Sam Altman在早些时候的一次活动里有过一段略显突兀的自我问话,大意是不知道究竟是在制造工具,还是创造生物?而在OpenAI内部透露的只言片语里,Q Star拥有了「轻微的自我意识」,证据之一就是它已经可以摆脱依赖数据才能开展训练的限制了,而是可以自我对话(合成数据)实现学习。

连「图灵三巨头之一」的Yann LeCun都震惊于这个进展,他说现有大模型需要灌数据只是受限于技术水平不得已而为之的做法,大模型的训练数据量理论上可以不设上限——甚至超越人类古往今来的所有知识——但是就像人类和猩猩的基因组之间只有差不多8MB的差异,人类文明从来不是靠堆量堆起来的,AI也不应该这样。

就像古老时代的哲学家们并不是把天底下的书都看完了才能产生洞见,他们也可以选择围炉夜话,通过交谈甚至是自我对话来创造新的智慧,如果AI达到了这样的境界,那么AGI(通用人工智能)恐怕也是真的要降临于世了。

今年8月的时候,Sam Altman还发推表示他收到了同事送的「塞尔达传说:王国之泪」,所以人类获得AGI的时间要往后推迟4天了——他要用4天时间来打游戏——没想到啊,任天堂竟然是专门为了拯救人类不被AI奴役而专门开发了那款新游戏,却也只让人类灭亡的时间拖了区区4天而已⋯⋯

这是今年夏天,Sam Altman代表OpenAI在全球巡回演讲里的一张抓拍,构图和色彩的恰到好处,却又隐约给这张照片赋予了某种「神性」的意味,对不对?

【本文由投资界合作伙伴微信公众号:阑夕授权发布,本平台仅提供信息存储服务。】如有任何疑问题,请联系(editor@zero2ipo.com.cn)投资界处理。

相关资讯

相关企业

AI数据总览

最新资讯

热门TOP5热门机构 | VC情报局

去投资界看更多精彩内容
【声明:本页面数据来源于公开收集,未经核实,仅供展示和参考。本页面展示的数据信息不代表投资界观点,本页面数据不构成任何对于投资的建议。特别提示:投资有风险,决策请谨慎。】