• 闫瑞祥打卡获得20积分
  • 张尧浠 打卡获得15积分
  • 张尧浠 打卡获得10积分
  • PrismNET打卡获得20积分
  • 闫瑞祥打卡获得10积分
  • 温莎打卡获得10积分
  • 何小冰打卡获得10积分
  • 闫瑞祥打卡获得10积分
  • 闫瑞祥打卡获得20积分
  • 闫瑞祥打卡获得20积分
  • 闫瑞祥打卡获得10积分
  • 何小冰打卡获得15积分
  • 何小冰打卡获得20积分
  • 李廉洋打卡获得10积分
  • 闫瑞祥打卡获得15积分
  • 闫瑞祥打卡获得15积分
  • 张尧浠 打卡获得10积分
  • 冯喜运打卡获得10积分
  • 闫瑞祥打卡获得10积分
  • 张尧浠 打卡获得15积分
  • 闫瑞祥打卡获得15积分
  • 肖胜风打卡获得10积分
  • 张尧浠 打卡获得20积分
  • 闫瑞祥打卡获得20积分
  • 何小冰打卡获得10积分
  • 快乐其其打卡获得10积分
  • macus007打卡获得15积分
  • 张尧浠 打卡获得20积分
  • 张尧浠 打卡获得15积分
  • 张尧浠 打卡获得10积分
我要打卡

暂停GPT-5研发 OpenAI只是公开呼吁 未来的AI需要对齐
  Emma 2023-03-30 16:21:11 26896
据生命未来研究所官网,3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命。

【友财网讯】-据生命未来研究所官网,3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命。


暂停GPT-5研发 OpenAI只是公开呼吁 未来的AI需要对齐


信中写道“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”马斯克此前曾多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等甚至比核武器都危险得多。


截至目前,马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。


值得一提的是,OpenAI CEO奥特曼在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。


高盛:全球将有三亿人失业


ChatGPT迭代升级的脚步加快,很多人失业的恐惧也越来越重。高盛分析师布里格斯和库达尼在3月27日发布的研究报告中就直面了这一问题。


报告称:“最近出现的生成式人工智能将降低劳动力成本和提高生产率。尽管AI的潜力存在很大的不确定性,但它可以生成与人类创造成果无法区分的内容,并能打破人机沟通障碍,反映出具有潜在巨大宏观经济影响的重大进步。AI不仅节省劳动力成本,还能创造新的就业机会以及提高在岗工人的生产率。AI的革命性就像早期通用技术(如发电机和个人计算机)一样能为社会带来繁荣。”


ChatGPT等生成式人工智能系统的最新突破,料将给全球劳动力市场带来重大颠覆,全球预计将有3亿个工作岗位被生成式AI取代,律师和行政人员将是最有可能被裁员的岗位。


高盛研究发现,目前欧美约有三分之二的工作岗位都在某种程度上受到AI自动化趋势的影响,而多达四分之一的当前岗位有可能最终被完全取代。该研究计算出美国63%的工作暴露在“AI影响范围”中,其中7%的工作有一半以上的流程可以由AI自动化完成,这使他们很容易马上被人工智能取代。在欧洲,情况也差不多。


更为关键的是,当前的AIGC(人工智能生成内容)无需工资,亦不存在失业的概念,作为提供生产力的经济单位,其与宏观经济间的逻辑关系较人类发生了根本性改变,而这或许将给经济环境带来难以估量的影响。


公开信一发布,Yudkowsky立马写了一篇长文发表于TIME杂志上。他表示,自己没有签字,原因是在他看来,这封信太温和了。这封信低估了事态的严重性,要求解决的问题太少了。他说,关键问题并不在于「与人类竞争」的智能,很显然,当AI变得比人更聪明,这一步是显然的。


关键在于,包括他在内的许多研究人员都认为,构建一个拥有超人智慧的AI最有可能导致的后果就是,地球上的每个人都会死去。


不是「或许可能」,而是「必然会」。


如果没有足够的精确度,最有可能的结果就是,我们造出的AI不会做我们想做的事,也不会关心我们,也不会关心其他有知觉的生命。


理论上,我们应该可以教会AI学会这种关怀,但现在我们并不知道该怎么做。


如果没有这种关怀,我们得到的结果就是:AI不爱你,也不恨你,你只是一堆原子组成的材料,它可以拿来做任何事。


而如果人类想要反抗超人AI,必然会失败,就好比「11世纪试图打败21世纪」,「南方古猿试图打败智人」。


Yudkowsky表示,我们想象中会做坏事的AI,就是一个住在互联网上、每天给人类发送恶意邮件的思想家,但实际上,它可能是一个充满敌意的超人AI,一个思考速度数百万倍于人类的外星文明,在它看来,人类很愚蠢,很缓慢。


当这个AI足够智能后,它不会只待在计算机中。它可以把DNA序列通过邮件发给实验室,实验室将按需生产蛋白质,然后AI就拥有了生命形式。随后,地球上的所有生物都会死亡。


这种情况下,人类该如何生存?目前我们毫无计划。


OpenAI只是公开呼吁,未来的AI需要对齐。而另一个领先的AI实验室DeepMind,根本没有任何计划。


来自OpenAI官方博客,不管AI有没有意识,这些危险都存在。它强大的认知系统可以努力优化,并计算满足复杂结果的标准输出。


的确,当前的AI可能只是从训练数据中模仿了自我意识。但我们实际上对这些系统的内部结构知之甚少。


如果我们依然对GPT-4无知,并且GPT-5进化出了惊人的能力, 就像从GPT-3到GPT-4一样,那我们很难知道,究竟是人类创造了GPT-5,还是AI自己。


【版权申明】友财网部分内容及图文转载于网络,仅供学习、参考、介绍及报道时事新闻所用。友财网不拥有版权,版权归版权持有人所有,如有版权方请联系我们删除!
字数:0
我来叨两句
最新评论