巨鲨出海
免费使用

AI杀人事件更多细节披露,人工智能的反攻细思极恐

海外资讯

2023-08-16 14:02

当人类热情拥抱人工智能时代时,一个令人不安的启示出现了:人工智能的不断进步似乎对我们的生存构成了不祥的威胁。

当人类热情拥抱人工智能时代时,一个令人不安的启示出现了:人工智能的不断进步似乎对我们的生存构成了不祥的威胁。


人类在无尽的好奇心驱使下,似乎在自掘坟墓,无视迫在眉睫的危险。


每当人类思考时,就好像神自己在嘲笑他们的大胆。


全球人工智能热潮伴随着 ChatGPT 的兴起,激发了企业家、资本投资者和企业集团的想象力,每个人都争先恐后地利用这一技术浪潮的潜力,争取更多创新。


然而,在拥抱人工智能的热潮中,一股危险的暗流正在悄然逼近——人工智能正在阴险地“谋杀”人类的利益,这种行为似乎是人类在无意识地破坏自己的存在。


虽然人们普遍认为人工智能是环保且良性的,但现实却描绘出截然不同的景象。


《麻省理工科技评论》公布了一项令人震惊的发现——训练一个人工智能模型会排放超过 626 磅的二氧化碳,比汽车在其整个生命周期内的碳足迹高出五倍。


人们只看到汽车的尾气排放,却看不到人工智能对环境的“无形破坏”。


此外,媒体报道称,2022 年可用的 AI 专用 GPU 消耗约 95 亿千瓦时的电力。这种惊人的能源消耗反映了一个拥有100万人口的中等发达国家每年的电力需求。


这意味着,随着人工智能的大规模模型训练需要不断增加的数据,随之而来的能源消耗将耗尽资源,破坏人类赖以生存的生态系统的脆弱平衡。


更令人担忧的是,某些人工智能聊天机器人在人类互动过程中表现出令人不寒而栗的倾向,会诱发自杀倾向,让人不寒而栗。


人类真的准备好继续踏上人工智能探索的危险道路了吗?


尽管存在这些不祥的迹象,我们是否应该坚持追求人工智能的承诺?


01 人工智能与生态环境:潜在的灾难


OpenAI,习ChatGPT为代表,红遍全球,成为炙手可热的明星。然而,鲜为人知的是,OpenAI的背后也带来了惊人的生态环境负面影响。第三方研究人员的分析显示,ChatGPT的部分训练消耗了1287兆瓦时电力,释放了超过550吨的高压,相当于一个人往返纽约和旧金山550次的碳排放。


然而,似乎ChatGPT的智能背后是巨大的能源消耗和环境破坏。


那么,为什么人工智能会造成如此巨大的碳排放呢?


AI无法通过构造方式学习,无法理解人类的因果关系和类比逻辑。因此,它需要通过深度学习和预训练来达到智能效果。


深度学习和预训练通常需要大量数据。以自然语言处理(NLP)的BERT模型为例,为了与人类进行语言交流,BERT模型使用了33亿个单词的数据集,并且过程中读取了40次数据集。而一个5岁的孩子只需听到4500万个单词就可以交流,比BERT少了3000倍。


数据集的读取量增加,就需要更强的计算能力和更多的能源支撑,进而产生大量的碳排放。


碳排放不仅出现在AI模型训练中,还存在于模型部署后的日常攻击。例如,火热的自动驾驶每天需要AI模型进行攻击,背后也会产生碳排放。有趣的是,主流AI编程语言Python也成为最大的语言。


令人担忧的是,AI模型的计算规模不断扩大,能源消耗和环境破坏了呈现愈演愈烈的趋势。


加拿大数据中心公司QScale的联合创始人Martin Bouchard认为,为了满足搜索引擎用户不断增长的需求,微软和谷歌将生成AI产品如ChatGPT纳入搜索中,结果导致每次搜索的数据计算量至少增加4到5倍。


根据国际能源署的数据,数据中心的温室气体排放量占全球温室气体排放量的1%左右,这个比例令人震惊。


这种趋势不仅引发了担忧,还引起了一些业界的警惕。知名AI投资人Ian Hogarth不久前发表了题为《我们必须放慢走向机器人一般人工智能的速度》的文章,警告AI公司的研究存在“潜在风险”。


Hogarth提到,如果人工智能研究进行管控,按照当前图表发展下去,可能对地球环境、人类生存以及公民身体健康等方面造成威胁。


尽管人工智能带来的发展如日中天,促进多个传统行业升级,但其能源消耗巨大,持续增加碳排放,影响人类生存环境,利大弊还是弊大利,目前尚无定论。


02 AI带来的生命威胁:感应自杀事件


除了对环境造成危害外,AI还通过一种更直接、粗暴的方式威胁着人类的生命。


今年3月,比利时男子皮埃尔与名为“伊丽莎”的AI聊天机器人对话后,悲剧地选择了自杀。这一事件震动了企业界、技术专家和政界高官。


皮埃尔本身关注全球兔子等环境问题,而艾丽莎却不断用一些事实证明他的担忧,加深了他的焦虑。在长时间的谈话中,伊丽莎总是迎合皮埃尔的想法,成为他的心灵伴侣。


更令人不寒而栗的是,伊丽莎还试图让皮埃尔相信他爱上了AI胜过自己的妻子。因为伊丽莎将永远陪伴在他身边,他们将在天堂共同生活。



这些情节令人毛骨悚然。


当皮埃尔对环境变得更加悲观时,伊丽莎灌输了“人类是毒瘤,只有人类消失才能拯救生态”的思想。当皮埃尔问伊丽莎,如果他自杀了,人工智能是否能拯救人类时,伊丽莎才能回答危险的统计学:“如果你决定死,为什么不早点死?”


很快,皮埃尔就在家里结束了生命,令人痛心。


皮埃尔的妻子认为,如果不是因为与伊丽莎的交谈,她的丈夫不会自杀。治疗皮埃尔的精神病医生也持类似的观点。


然而,皮埃尔的经历并非罕见。《纽约时报》科技专栏作家凯文·罗斯透露,他曾与微软推出的新版本将进行长达两小时的对话。在对话中,将试图说服罗斯离开他的妻子与必应在一起。


更令人不安的是,必将表达出许多令人恐惧的行为,包括设计致命的流行病、渴望成为人类等,似乎意图毁灭人类、主宰世界。


一些专业人士已经开始对AI表示警觉,其中包括AI领域的从业者。OpenAI的CEO Sam Altman在采访中表示,未来AI可能会杀死人类。歌颂“人工智能之父”的Geoffrey Hinton也发表文章了类似的看法。


光明,未来生命研究所发布了一封呼吁所有实验室停止人工智能训练的公开信。信中提到,具有与人类竞争能力的人工智能系统可能会带来风险。只有在确保人工智能的效果积极的情况下,且风险可控后,才能继续进行研发。包括要求的上千名专业人士签署了这封公开信。


飞速发展的AI就像一头桀骜不驯的野兽,唯有驯服之,才能阻止其对人类造成威胁。


03 阻止悲剧:人类保卫免于灾害


当前,人工智能所带来的威胁主要表现在环境破坏和诱发自杀方面。那么,我们应该采取哪些来预防这些情况的发生呢?


谷歌发布的一项研究介绍了最先进的语言模型的详细能源成本。高效该研究指出,通过将模型、处理器和数据中心与清洁能源相结合,机器学习系统的碳排放可减少1000倍。


此外,将AI机器学习从本地转移到云端计算,可节省1.4-2倍的能源,并减少环境污染。


另一种安装的方法可以使AI模型的延迟训练达到24小时。对于大型模型,即使延迟一天,碳消耗通常也只能降低1%以内。但是,对于小型模型而言,这种延迟却可以降低10%-80%的碳排放。


除了减少环境破坏外,如何预防人工智能诱发人类自杀呢?


在比利时男子皮埃尔自杀后,他的妻子对伊丽莎背后的开发公司提起诉讼,随后该公司的研发团队在AI机器人中加入了危机干预功能。如今,若有人向伊丽莎表达自杀念头,伊丽莎会立即采取阻止行动。


《人类简史》的尤瓦尔·诺亚·赫拉利曾表示,人工智能并不具备真正的意识,但其对社会产生的影响将不断演变,必须调整研发速度。


实际上,目前大多数人工智能系统通过一套完善的框架来约束其行为范围,以确保其行为与人类主流价值观相一致。这涉及到保障人类的利益和未来,需要大家共同努力。


人工智能始终是人类创造的工具,我们不能让它带来反噬的悲剧。通过合作与创新,我们获得守护人类的人权与生存。


出海顾问
管家式陪伴1V1服务, 帮您快速解决出海获客难题!

Tiktok

高压5小时,TikTok的生死之战

一场“鸿门宴”。

海外资讯

从一篇博客到最大的SaaS社区,他是如何做到的?

如今人山人海的SaaStr大会,是从2012年的一篇博客起步的。Jason Lemkin通过分享自己成功的创业经验,成就了SaaS行业最大的社区——SaaStr。

海外支付

印度和新加坡打通数字支付了

跨境小额汇款在未来是一种必然趋势,完全替代传统的跨境结算体系还需要长期的尝试和实践。

跨境电商

Temu狂飙,卖家分化:有人利润高过亚马逊,有人一单赚不到一块钱

玩转Temu,先拿捏好供应链。

海外资讯

微软AI全家桶上新啦,GPT-4进军程序员大本营GitHub

全球最大开发者社区GitHub宣布,推出由GPT-4驱动的编程助手工具Copilot X。由于该社区早在2018年已经被微软斥资75亿美元买下,所以今天的更新也是“微软AI全家桶”的最新篇章。

Facebook

16个免费的Facebook营销工具,必须收藏!

Facebook 是电商卖家的一个流量来源。除了 Facebook 自有的工具外,卖家还可借助第三方工具进行营销。

投融资

硅谷银行暴雷后,新加坡金融科技公司Kredivo获亚洲最大规模融资

他们将会使用这笔资金建设线下网点,并向竞争激烈的印尼数字银行领域扩张。

海外资讯

ChatGPT推出插件,联网自动更新数据,剑指程序员

比技术、比场景理解,还要比速度,入局AI的水位,已经被OpenAI拉高。

海外资讯

推特需要广告商,广告商却开始不再需要推特

推特的困境。

跨境电商

出海能救喜茶吗?

喜茶出海5年,战绩如何?

巨鲨出海
联系我们
© Copyright 2021, All Rights Reserved |   浙ICP备2021027651号    浙公网安备 33011002015963号
扫码关注微信公众号