无法保护人类,我辞职!AI真的要取代人类了?

无法保护人类,我辞职!AI真的要取代人类了?

抚观天下 2024-10-24 业务领域 15 次浏览 0个评论

  人类与AI的战争已经拉开帷幕,负责保护人类安全的“人类派”,一个又一个接连辞职和被解雇,而疯狂发展AI的“AI派”则全力以赴,比人类更聪明的AGI似乎势不可挡,正在一步步逼近人类文明的最后堡垒——我们岌岌可危的现实世界?人类的终结真的就要来了吗?

  OpenAI的关键安全高管简·雷克,昨天突然在推特上宣布,鉴于OpenAI安全文化和流程已不再重要,而是让位于闪亮的产品,他即刻辞去在OpenAI的职务,同时忠告所有同事:学会感受AGI,以与你们正在构建的东西相称的严肃态度行事,我就指望你们了,整个世界就指望你们了。

  看起来是不是很悲壮,就像战场上败阵的将军,望着蜂拥而来的敌人,有心杀贼,却无力回天,只能无奈地放下武器。OpenAI究竟发生了什么,雷克为什么要发出如此的悲鸣和哀叹?

  雷克是OpenAI负责人工智能开发安全的关键研究员,担任协调主管、超级协调联席主管及执行官,以确保强大的人工智能遵循人类的价值观和目标2024澳门天天六开彩免费图 ,全面解答解释落实_尊享版2.777。

  雷克不是第一个从OpenAI辞职的安全专家,当然也不会是最后一个,事实上他帖子下的第一个评论,就是一位自称“AI末日预警者”的利隆·夏皮拉,贴出的一张触目惊心的图片,列出了2021年到2024年OpenAI多个关键事件和人物变动。

  2021年,GPT-3团队领导因安全问题辞职:达里奥和丹妮拉·阿莫代离开OpenAI,创立了Anthropic,开发的Claude目前是OpenAI GPT-4、谷歌Gemini之后排名第三的大语言模型,致力于开发对人类安全的AGI,达里奥认为AI导致世界末日的概率为10-25%。

  2021年,OpenAI人类反馈强化学习(RLHF)安全研究负责人保罗·克里斯蒂安诺辞职,他认为AI导致世界末日的概率为50%。

  2023年,OpenAI董事会为确保安全和有益的AGI,决定解雇CEO萨姆·奥特曼,酿下AI开发史上迄今为止最具爆炸性,同时又最具戏剧性的大事件,因为奥特曼很快就夺回了自己的位置。

  2024年,OpenAI两位安全研究人员利奥波德·阿申布伦纳和帕维尔·伊兹麦洛夫因泄露信息被解雇,阿申布伦纳被认为是首席科学家伊利亚·苏茨克维尔的亲密盟友。

  2024年,OpenAI关注安全的研究人员丹尼尔·科科塔洛因对OpenAI在AGI时代的行为失去信心而辞职,他认为AI导致世界末日的概率为70%。

  2024年,领导解雇奥特曼的OpenAI创始人兼首席科学家伊利亚·苏茨克维尔辞职,他认为“未来无论如何都对AI有利”,但他更希望对人类也能有利。

  然后就是今天的超级协调团队负责人雷克辞职,这意味着继苏茨克维尔之后,OpenAI中残存的最后一个“人类派”也被迫出局,此前他认为AI导致世界末日的概率为10-90%。

  是不是特别的绝望?绝望就对了,因为以后更绝望。好吧,开个玩笑,任何一个公司都会不断地有人员进出,虽然OpenAI人员进出严重不正常,包括CEO被莫名其妙开除,又莫名其妙地归位,但总体来说,几年进出几个人,似乎也不能说明什么吧。

  好吧,创始人和CEO都莫名其妙地进进出出,似乎也不能说什么也没有说明,我好像有点无法说服自己了。不管怎样,这些事情就是发生了,那么所有这些事情发生的主线是什么呢?

  很明显,就是一条,人类安全,“人类派”把人类安全当宝,“AI派”把人类安全当草,所以造成了这些内部斗争。一些人可能不以为然,人类大脑皮层有860亿个神经元,意识是什么复杂到连我们自己都没有搞清楚,人工智能算什么,人类制造的东西怎么可能超过人类?

  这句话如果反过来问,其实逻辑更清晰,人类制造的东西,有哪样没有超过人类?如果我们制造出来的东西,连我们自己都不如,那还有什么制造的必要吗?我们用自带的家伙做事就可以了。比如种地用手耙明显废手,所以发明了铁锹,铁锹没超过手吗?走路很慢,一小时只有5公里还废脚,所以人类发明了汽车飞机,汽车飞机没超过脚吗?

  人类计算不行,所以发明了计算机,计算机没有超过人脑计算吗?现在人类模拟神经元,发明了机器学习神经网络,用能够处理自然语言的大模型来代替人类思考,凭什么它就不能超过人类的思考,最终把我们自以为傲的最后堡垒——意识也超过呢?只要你不是神棍,你就不至于认为,意识会凭空而来吧。

  所以从逻辑上来说,AGI超越人类大脑是必然会发生的,那么另外一个必然会发生的逻辑就是,功能强大的东西最终会淘汰功能弱小的东西,尤其是这个功能强大的东西数量也越来越庞大时。比如我们人类就是最好的例子,说我们人类是哺乳动物中功能最强大的,应该没有任何反对意见吧?一些研究认为,目前地球物种灭绝的速度比自然灭绝速度快100倍以上,甚至可能是1000倍,未来将达到10000倍。

  很多人不相信这些,认为是无稽之谈,其实你只要看看人类不断扩大的居住范围就知道了,地球上人类总重量高达4亿吨,而野生哺乳动物,包括海洋哺乳动物只有6200万吨,单位面积的能量只能养活一定数量的物种,物种占用的面积越来越少,能够生存的数量当然就越来越少了。如果地球注定只能养活6.62亿吨哺乳动物物种,那么当人类增加到90多亿时,理论上就没有其他哺乳动物生存的空间了。

  现在人工智能其实是在两条线上发展,齐头并进,一条是“大脑”AGI,即比人类更聪明的人工智能,另一条线是“手脚”机器人,当AGI大脑装入有手脚的机器人时,就像我们人类从树上下来,最终进化出发达的大脑,整个世界可能就会发生根本性的改变了,而这种改变是不以人类意志为转移的,就像当初人类的演化不以尼安德特人的意志为转移一样新澳2024正版资料免费公开 ,收益成语分析落实_钱包版5.842。

  尼安德特人有意见吗?没有,因为他们没有坚持到可以发表意见的那一天。那你还有什么意见呢?你能活到轮到你发表意见的那一天吗?新澳精准资料免费提供网站 ,收益成语分析落实_钱包版5.842

  肯定地说,能,因为人工智能的“大脑”AGI,已经开始融入“手脚”机器人了,本周一,OpenAI推出了GPT-4o,它可以通过摄像头看到周围的世界,理解周围的东西,和人类交流这一切,并且开始拥有人类的情感,会开玩笑、讲笑话、撒娇、调情、恭维人,如果再有灵活的手脚,赋予和人类一样的逼真外形,可能要不了多久,它就会发展到你根本分辨不出来,它是人类还是机器人的程度,我们很快就会进入到以前想都不敢想的科幻世界。

  谷歌也在本周宣布推出Gemini Live,一个和GPT-4o类似的对话助手,并且正在构建一种万能人工智能助理Project Astra,帮助你识别周围的物体、面孔、情绪等,来回答你的各种问题,比如你的钥匙串上次放哪儿了。

  正是因为和谷歌的激烈竞争,让OpenAI感觉到前所未有的危机,才有了雷克OpenAI安全已不再重要,而是让位于闪亮产品的说法,才有了一个个安全高管的离职。OpenAI这些安全高管的离开,除了少数外,都是因为“人类派”肩负的安全责任,与“AI派”优先发展事项存在分歧和冲突,最终矛盾越来越大,达到临界点而不得不爆发。

  但迄今为止,这些矛盾爆发对人类安全有利的只有一次,就是CEO奥特曼被解雇那一次,但那也只是“人类派”短暂的,没有任何力量的弱弱反击,甚至连隔靴搔痒都说不上,因为奥特曼很快就夺回了自己的位置,OpenAI由此走上了更快的发展道路,奥特曼甚至跑到中东寻找资金造芯,希望疯狂增强AI的算力。在AI加速和人类安全的考量中,人类安全根本不值一提。

  OpenAI的内斗,“人类派”节节败退,几乎已被清洗干净,“AI派”则气势如虹,势如破竹,人类真的面临巨大危机了嘛?很多人可能不以为然,人类,地球霸主,已知宇宙唯一的智慧生命,怎么可能被机器淘汰,即使要淘汰,那也是遥远的未来,绝对不是现在。

  好吧,未来其实并不遥远,有可能就在明天。尼安德特人比我们智人老祖宗强壮吧,脑容量更大更聪明吧,为什么他们灭了,我们却延续下来了呢?科学家们研究来研究去,认为原因还不明,可能是气候原因,也可能是在与智人的竞争中失败了。其实真正的原因说来说去,就是一句话,他们没有我们智人老祖宗会生。

  你可能一下子就想到什么,现在地球人最能生的是哪些人,世界正在发生什么变化?地球有一天会被那些人占满,现在处于优势主导地位的,会像尼安德特人一样逐渐消失吗?

  放心!人类可能已经没有这一天了,因为更能生的已经出现了,AGI+机器人,规模化制造,甚至一夜之间就能给你生出无数来,需要10月怀胎,数十年成长才能使用的人类如何能够与之匹敌?可能在不远的将来,智人就得像尼安德特人一样,面临自己的终极命运,只是尼安德特人是无意识地面对终极命运,而我们却只能眼睁睁地看着。

  电影《终结者》里面,天网上线,机器人开始接管世界,人类陷入惨烈的抗争,但现实世界很可能不会这样,而是润物细无声,只是这次不是润物,而是润人,你做好被润的准备了吗?

转载请注明来自陕西弘达律师事务所,本文标题:《无法保护人类,我辞职!AI真的要取代人类了?》

百度分享代码,如果开启HTTPS请参考李洋个人博客
每一天,每一秒,你所做的决定都会改变你的人生!
Top