更新时间:2026-01-21 17:54 来源:牛马见闻
在谈及 AI 对劳动力市 AI 工具阿莫迪认为应该关注AI构建AI这个问题
<p class="f_center"><br><br></p> <p id="48PLRT89">在2026年达?沃斯经济论坛上),Anthropic联合创始人达里奥·阿莫迪(Dario Amodei)与DeepMind CEO蒂米斯·哈萨比斯(Demis Hassabis)同台对话。</p> <p id="48PLRT8B">关于何时实现通用人工智能(AGI),两人都相信不会很遥远,但是在细节上两人却出现了偏差。</p> <p id="48PLRT8D">阿莫迪认为,到 2026 年或 2027 年,人类将拥有在大多数领域达到诺贝尔奖得主水平的模型。他的核心逻辑在于“自我改进的循环”。模型现在已经擅长编写代码和进行 AI 研究,这使得它们能够设计下一代更强的模型。</p> <p id="48PLRT8F">他透露,Anthropic内部的工程师已开始不再亲自写代码,而是转变为模型的“编辑”。他预言,这种由 AI 驱动的研发加速将比人们想象的更快,甚至在未来6到12个月内就能由模型端到端地完成软件工程师的大部分工作。</p> <p id="48PLRT8H">哈萨比斯虽然同意在编码和数学等输出可验证的领域进展惊人,但他强调了“自然科学”的复杂性。</p> <p id="48PLRT8J">他指出,<strong>在生物、化学或物理领域,AI 的预测需要通过实验来验证,这天然地限制了迭代速度。</strong></p> <p id="48PLRT8L">此外,他认为目前的系统还缺乏“提出问题”和构建全新理论的能力,这是科学创造力的最高阶。真正的AGI不应只是一个会写代码的聊天机器人,它必须具备探索自然科学、解决未知难题的能力。</p> <p id="48PLRT8N">尽管如此,他依然坚持认为,到本十年末(2030年前),有 50% 的可能性会出现具备人类所有认知能力的系统。</p> <p id="48PLRT8P">本次对话的一个核心技术议题是“闭环”(Closing the Loop),即AI是否能完全脱离人类干预实现自我进化。</p> <p id="48PLRT8R">阿莫迪对此持乐观态度,他认为随着编码能力的指数级提升,这一闭环在软件和逻辑层面正在迅速形成。</p> <p id="48PLRT8T">在他看来,软件层面的闭环正在迅速合拢。随着模型编码能力的指数级提升,人类在研发链条中的必要性正在降低,这直接导致了技术迭代周期的极度压缩。</p> <p id="48PLRT8V">哈萨比斯则指出了物理世界的法则制约了AI技术。</p> <p id="48PLRT91">他认为,真正的AGI应当包含物理AI和机器人技术。一旦涉及到硬件制造、芯片生产以及物理实验,迭代速度就会受到物理定律和供应链的限制。</p> <p id="48PLRT93">更重要的是,在生物学、化学和物理学领域,AI的预测结果必须经过现实世界的实验验证,这一过程受制于物理定律和时间,无法像纯代码那样瞬间完成。</p> <p id="48PLRT95">因此,虽然纯数字领域的奇点可能临近,但全面接管物理世界的自我改进系统可能还需要更长时间来克服这些障碍。</p> <p id="48PLRT97">但两个人都认可一个事实,<strong>一旦某个系统跨过了那个临界点,它将不再是一种普通的工具,而是一种能重新定义科学边界的超级智能。</strong></p> <p id="48PLRT99">在谈及 AI 对劳动力市场的影响时,两人虽然角度不同,但是观点却是一致的。</p> <p id="48PLRT9B"><strong>阿莫迪的预测是,未来1到5年内,一半的入门级白领工作可能会消失。</strong></p> <p id="48PLRT9D">他表示,即使在Anthropic内部,对初级和中级员工的需求也在减少。虽然劳动力市场具有适应性(如农业向工业的转型),但这一次技术进步的指数级速度将压倒社会的适应能力,这可能导致一场前所未有的危机。</p> <p id="48PLRT9F">他认为,这一次的不同在于速度。当技术的指数级增长压倒了人类社会的适应速度时,旧有的经济模型将彻底失效。我们可能在一两年内就面临“所有方面都比人类更强”的AI,这留给人类转型的时间窗口几乎为零。</p> <p id="48PLRT9H">哈萨比斯虽然同意短期内初级工作会受到冲击,但他更关注长远的哲学困境。</p> <p id="48PLRT9J">他认为经济问题或许反而是容易解决的(可能通过分配机制),真正让他“夜不能寐”的是“意义和目标”的丧失。</p> <p id="48PLRT9L">哈萨比斯表示,我们从工作中获得的不仅仅是薪水,还有尊严、社交和目标感。</p> <p id="48PLRT9N">他悲观地表示,<strong>当AI在智力、创造力和生产力上全面碾压人类,当人类最引以为傲的智慧不再稀缺,人类将无法定义自我。</strong></p> <p id="48PLRT9P">当AI在智能和生产力上全面超越人类,人类将如何定义自我价值?他建议年轻一代应精通 AI 工具,通过人机协作实现能力飞跃,并在经济回报之外寻找诸如艺术、探索宇宙等新的生命意义。</p> <p id="48PLRT9R">对话的最后,主持人询问两人,AI领域哪些事情是最值得关注的。</p> <p id="48PLRT9T">哈萨比斯认为,如世界模型(world models)、持续学习(continual learning)这些技术值得关注。而且这些技术一旦发展成熟,具身智能产业将会迎来爆发期。</p> <p id="48PLRT9V">阿莫迪认为应该关注AI构建AI这个问题,他认为,这件事的发展方向将决定我们是还需要几年才能到达AGI。</p> <p id="48PLRTA1"><strong>全文翻译:</strong></p> <p id="48PLRTA3"><strong>赞妮:</strong>欢迎大家,也欢迎在线观看直播的各位。坦白说,这场对话我已经期待了好几个月。去年在巴黎,我很荣幸地主持了阿莫迪和哈萨比斯的一场对话。那次对话最引人注目的,恐怕是你俩被挤在一个很小的双人沙发上,而我却坐在一张巨大的沙发上,这可能是我搞砸了。但当时我就说,对我而言,这就像是主持披头士乐队和滚石乐队之间的对话。从那以后,你们再也没有同台对话过。所以,这是续集,乐队再次重聚。我非常高兴。</p> <p id="48PLRTA5">我们对话的标题是“AGI之后的第二天”,我觉得这可能有点超前了,因为我们或许应该先谈谈我们能多快、多轻松地到达那里。我想先就此做个更新,然后再谈谈其后果。</p> <p id="48PLRTA7">首先,关于时间线。阿莫迪,你去年在巴黎说,到2026或2027年,我们将拥有一个在许多领域都能达到诺贝尔奖得主水平的模型。我们现在已经是2026年了。你还坚持那个时间表吗?</p> <p id="48PLRTA9"><strong>阿莫迪:</strong>你知道,要准确预测某件事何时发生总是很难的,但我认为这个预测不会偏离太远。我设想的实现机制是,我们制造出擅长编码和AI研究的模型,然后用它来生产下一代模型,并加速这个过程,形成一个能加快模型开发速度的循环。</p> <p id="48PLRTAB">就目前编写代码的模型而言,我们Anthropic内部有些工程师说,他们已经不再写任何代码了,只是让模型写,然后他们进行编辑和处理周边事务。我不知道,也许再过6到12个月,模型就能端到端地完成软件工程师大部分甚至全部的工作。</p> <p id="48PLRTAD">接下来的问题是,这个循环关闭的速度有多快。并非循环的每个部分都能被AI加速,对吧?还有芯片、芯片制造、模型的训练时间等等。</p> <p id="48PLRTAF">所以,这里有很多不确定性。很容易想见这可能需要几年时间。但我很难想象会比这更久。如果非要我猜,我会猜这个过程会比人们想象的要快。编码,以及日益增多的研究,其发展速度将超出我们的想象,这将是关键的驱动力。再次强调,很难预测这种指数级增长会把我们加速多少,但某些快速的变化即将发生。</p> <p id="48PLRTAH"><strong>赞妮:</strong>哈萨比斯,你去年则稍微谨慎一些。你说,到这个十年末,有50%的可能性会出现一个能展现人类所有认知能力的系统。很明显,正如阿莫迪所说,在编码领域,进展是惊人的。你对自己的预测有何看法?过去一年有什么变化?</p> <p id="48PLRTAJ"><strong>哈萨比斯:</strong>是的,我想我仍然坚持原来的时间线。进展确实是惊人的,但我认为某些工程领域,比如编码或数学,自动化起来相对容易一些,部分原因在于它们的输出是可验证的。</p> <p id="48PLRTAL">而自然科学的某些领域则要难得多。你不见得能知道你合成的化学物质或关于物理学的预测是否正确,可能需要通过实验来测试,而这一切都需要更长的时间。</p> <p id="48PLRTAN">我还认为,目前还缺少一些能力,比如不仅仅是解决现有的猜想或问题,而是首先提出问题、理论或假设。我认为这要难得多,这是科学创造力的最高层次。目前尚不清楚(我们能否实现)。我相信我们会拥有这样的系统,所以我不认为这是不可能的,但可能还缺少一两个关键要素。</p> <p id="48PLRTAP">我们都在研究的自我改进循环,首先能否在没有人为干预的情况下真正闭环,还有待观察。顺便说一下,这种系统也存在风险,我们应该讨论,我相信我们会的。但如果这种系统真的能运作起来,它可能会加速整个进程。</p> <p id="48PLRTAR"><strong>赞妮:</strong>我们稍后会谈到风险。但我觉得过去一年的另一个变化是,这场竞赛的“座次”发生了变化。一年前的这个时候,我们刚经历了DeepSeek的时刻,每个人都对那里发生的事情感到无比兴奋。</p> <p id="48PLRTAT">当时还有一种感觉,就是DeepMind似乎落后于OpenAI。我想说,现在情况看起来大不相同了。我的意思是,他们已经宣布了“红色警报”(codered),对吧?这真是非凡的一年。</p> <p id="48PLRTAV">所以,跟我说说你具体对哪些事情感到惊讶,以及你们今年做得有多好。</p> <p id="48PLRTB1"><strong>哈萨比斯:</strong>我一直非常有信心,我们能够重回各类排行榜的顶端,打造出最先进的模型。因为我认为我们一直拥有最深厚、最广泛的研究基础。关键在于如何将这一切整合起来,让整个组织重新找回那种强度、专注度和初创公司的精神。</p> <p id="48PLRTB3">这需要大量的工作,而且还有很多工作要做。但我认为你已经开始看到我们取得的进展,无论是在Gemini 3模型上,还是在产品方面,Gemini应用的市场份额正在不断增加。所以我觉得我们正在取得巨大进步,但要做的工作还有很多。DeepMind正在成为谷歌的“引擎室”,我们正习惯于将我们的模型更快地部署到产品界面上。</p> <p id="48PLRTB5"><strong>赞妮:</strong>阿莫迪,关于这方面我有个问题问你。因为你刚刚或正在进行新一轮融资,估值也高得惊人。但与哈萨比斯不同,你算是一家“独立的模型制造商”。我认为,越来越多的人担心,独立的模型制造商在实现盈利之前,可能无法持续足够长的时间。这种说法对OpenAI也是公开的。跟我说说你是怎么看待这个问题的,然后我们再谈AGI本身。</p> <p id="48PLRTB7"><strong>阿莫迪:</strong>是的,我们是这样想的:随着我们构建出越来越好的模型,我们发现不仅投入的计算量与模型的认知能力之间存在指数关系,模型的认知能力与其能产生的收入之间也存在指数关系。我们的收入在过去三年里增长了10倍:2023年从0增长到1亿美元,2024年从1亿增长到10亿美元,2025年预计从10亿增长到100亿美元。</p> <p id="48PLRTB9">这些收入数字,我不知道这条曲线是否会真的持续下去,如果持续下去那就太疯狂了。但这些数字已经开始接近世界上最大公司的规模了。所以总是有不确定性。我们正试图从零开始引导这一切,这很疯狂,但我有信心,只要我们能在我们专注的领域生产出最好的模型,那么事情就会进展顺利。</p> <p id="48PLRTBB">我通常会说,这对谷歌和Anthropic来说都是好的一年。我认为我们的共同点是,我们都是那种由研究人员领导的公司,专注于模型,专注于解决世界上的重要问题,将这些硬核科学问题作为我们的北极星。我认为这类公司未来将会成功,我想我们在这方面有共识。</p> <p id="48PLRTBD"><strong>赞妮:</strong>我会忍住不问你那些不是由研究人员领导的公司会发生什么,因为我知道你不会回答。那么,让我们回到预测上来。我们本应讨论“AI之后的第二天”,但让我们先谈谈“闭环”。模型能够实现自我驱动、自我改进的几率有多大?因为这才是“赢家通吃”门槛的关键。你还相信我们很可能会看到这种情况发生吗?还是说这将更像一种普通技术,追随者和后来者也能参与竞争?</p> <p id="48PLRTBF"><strong>哈萨比斯:</strong>我绝对不认为这将是一种普通技术。正如阿莫迪提到的,有些方面它已经在帮助我们进行编码和一些研究工作。但要实现完全的闭环,我认为还是个未知数。我认为这是可能做到的,但在某些领域,你可能需要AGI本身才能做到。这些领域比较混乱,不容易快速验证答案,属于NP-hard类型的领域。</p> <p id="48PLRTBH">此外,我所说的AGI也包括物理AI、机器人技术等。这样一来,硬件就加入了循环,这可能会限制自我改进系统的速度。但在编码和数学这些领域,我完全可以看到它能行得通。接下来的问题更具理论性:工程和数学在解决自然科学问题上的极限在哪里?</p> <p id="48PLRTBJ"><strong>赞妮:</strong>阿莫迪,你去年发表了《爱与恩典的机器》(Machines of Love and Grace),那是一篇非常乐观的文章,描绘了你将看到的潜力。据说你正在写一篇更新版的文章。虽然还没发布,但也许你可以给我们透露一下,一年之后,你的主要观点会是什么?</p> <p id="48PLRTBL"><strong>阿莫迪:</strong>是的。我的看法没有改变。我一直认为AI将会非常强大,我想哈萨比斯和我在这点上是一致的,只是在具体时间上有所分歧。因为它非常强大,所以会带来很多美好的事物,就像我在《爱与恩典的机器》中谈到的那样:帮助我们治愈癌症,根除热带疾病,帮助我们理解宇宙。</p> <p id="48PLRTBN">但与此同时,也存在巨大而严重的风险。我不是一个末日论者,我并不认为我们无法解决这些风险,但我们必须思考并着手解决它们。我先写了那篇积极的文章,要说有什么高深的原因,其实只是因为写积极的文章比写消极的文章更容易、更有趣。</p> <p id="48PLRTBP">所以,我终于在度假时花了些时间,写了一篇关于风险的文章。即使在写风险的时候,我骨子里还是个乐观的人,所以我写的角度是“我们如何克服这些风险?我们如何制定一个战斗计划来对抗它们?”</p> <p id="48PLRTBR">我用的框架来自电影《超时空接触》(Contact)中的一个场景。他们发现了外星生命,一个国际小组正在面试代表人类去会见外星人的人选。他们问其中一个候选人:“如果你能问外星人一个问题,你会问什么?”其中一个角色回答说:“我会问,你们是怎么做到的?你们是如何在不自我毁灭的情况下度过技术青春期的?你们是怎么挺过来的?”自从20年前我看了那部电影,这句话就一直萦绕在我心头。</p> <p id="48PLRTBT">这就是我使用的框架。我们正在敲开这些不可思议能力的大门。但我们如何处理它并非命中注定。我认为未来几年,我们将要处理的问题包括:</p> <p id="48PLRTBV"><strong>1. 如何控制这些高度自主且比任何人类都聪明的系统?</strong></p> <p id="48PLRTC1"><strong>2. 如何确保个人不会滥用它们?我担心像生物恐怖主义这样的事情。</strong></p> <p id="48PLRTC3"><strong>3.如何确保国家不会滥用它们?</strong></p> <p id="48PLRTC5"><strong>4. 经济影响是什么?我谈论了很多关于劳动力替代的问题。</strong></p> <p id="48PLRTC7"><strong>5. 还有什么是我们没想到的?这在很多情况下可能是最难处理的。</strong></p> <p id="48PLRTC9">所以,我正在思考如何应对这些风险。对于每一项,都需要我们作为公司领导者个人采取行动,也需要我们共同努力。同时,也需要更广泛的社会机构,比如政府,在解决所有这些问题中发挥作用。我只是觉得这件事非常紧迫,它发生得如此之快,是一场危机,我们应该投入几乎所有的精力来思考如何度过这个阶段。</p> <p id="48PLRTCB"><strong>赞妮:</strong>我有点头晕。你提到了一些可以指导我们接下来对话的领域。让我们从就业开始。你曾非常直言不讳地表示,未来一到五年内,一半的入门级白领工作可能会消失。</p> <p id="48PLRTCD">但我想先问问哈萨比斯,因为到目前为止,我们实际上还没有看到对劳动力市场有任何明显的影响。是的,美国的失业率有所上升,但我看过的所有经济研究都表明,这是疫情后的过度招聘所致,并非由AI驱动。如果说有什么影响的话,那就是人们正在招聘人才来建设AI能力。你认为这会像经济学家一直说的那样,不是“劳动总量谬误”,实际上会创造出新的工作岗位吗?因为到目前为止,证据似乎表明是这样的。</p> <p id="48PLRTCF"><strong>哈萨比斯:</strong>我认为在短期内,情况确实会是这样,这是一种突破性技术出现时的正常演变。一些工作会被颠覆,但我认为会创造出新的、甚至更有价值、更有意义的工作。</p> <p id="48PLRTCH">我认为今年我们将开始看到对初级、入门级工作(如实习)的一些影响。我能感觉到我们自己在招聘这方面有所放缓。但我认为,现在有这些惊人的创意工具,几乎免费提供给每个人,这完全可以弥补这一点。如果我现在对一班本科生讲话,我会告诉他们要变得极其精通这些工具。</p> <p id="48PLRTCJ">即使是我们这些构建工具的人,也忙于构建,很难有时间去真正探索即使是今天的模型和产品所具有的潜力,更不用说未来的了。我认为,掌握这些工具可能比传统的实习更能让你在某个专业领域实现飞跃。</p> <p id="48PLRTCL">这是我看到的未来5年可能发生的情况。也许我们在这点上的时间尺度略有不同。但我认为AGI到来之后会发生什么,那是一个不同的问题,因为到那时我们将真正进入未知领域。</p> <p id="48PLRTCN"><strong>赞妮:</strong>阿莫迪,你还坚持你去年说的“一半白领工作会消失”的看法吗?</p> <p id="48PLRTCP"><strong>阿莫迪:</strong>我的看法差不多。我其实同意你和哈萨比斯的观点,在我发表评论时,对劳动力市场还没有影响。我现在认为,我们可能开始看到一些微小的开端,主要是在软件和编码领域。我甚至在Anthropic内部也看到了这一点,我可以预见到,在初级和中级岗位上,我们需要的员工会变少而不是变多。</p> <p id="48PLRTCR">我仍然坚持一到五年的时间表。如果你把这和我之前说的联系起来——我们可能在一到两年内,或者稍长一点时间,拥有在所有方面都比人类更强的AI——这两者似乎并不矛盾。原因是存在滞后和替代效应。我知道劳动力市场有适应性,就像过去80%的人从事农业,农业自动化后他们成了工厂工人和知识工作者。所以这里也有一定程度的适应性。</p> <p id="48PLRTCT">但我的担忧是,随着这种指数级增长不断复合,我认为用不了多久,大概一到五年,它将压倒我们的适应能力。我想我说的和哈萨比斯可能是一样的,只是我们对时间线的看法不同,而这最终归结于你认为“闭环”的速度有多快。</p> <p id="48PLRTCV"><strong>赞妮:</strong>哈萨比斯,你对政府认识到这件事的严重程度,并开始思考需要采取何种政策应对,有多大信心?</p> <p id="48PLRTD1"><strong>哈萨比斯:</strong>我认为在这方面所做的工作远远不够。我常常感到惊讶,即使在这里遇到经济学家,也没有更多专业的经济学教授在思考将会发生什么。不仅仅是通往AGI的路上,即使我们把阿莫迪谈到的所有技术问题都解决了,工作岗位替代也只是一个问题。也许有办法更公平地分配这种新的生产力和财富,但我不知道我们是否有合适的制度来做到这一点。</p> <p id="48PLRTD3">但那之后还有更大的问题,这些问题现在就让我夜不能寐,那就是关于意义和目标的问题。我们从工作中获得的不仅仅是经济回报。奇怪的是,经济问题可能比人类状况和整个人类将何去何从的问题更容易解决。但我同样乐观,我们会找到新的答案。</p> <p id="48PLRTD5">我们今天做的很多事情,从极限运动到艺术,都不一定与经济收益直接相关。所以我想我们会找到意义,也许还会有更复杂的活动形式。另外,我认为我们将探索星辰大海,这也会为我们提供目标。但我认为现在就值得思考这些问题,即使按照我5到10年的时间线,时间也并不充裕。</p> <p id="48PLRTD7"><strong>赞妮:</strong>你认为出现针对AI的民众强烈反对,从而导致政府做出从你们角度看可能是愚蠢的事情的风险有多大?我想到1990年代的全球化时代,当时确实有一些工作岗位被取代,政府做得不够,结果民众的强烈反弹导致我们走到了今天的地步。</p> <p id="48PLRTD9"><strong>哈萨比斯:</strong>我认为肯定有风险。人们对工作和生计感到恐惧和担忧,这是合理的。未来几年,无论在地缘政治上还是其他方面,情况都会非常复杂。</p> <p id="48PLRTDB">我们想做的,并且正通过AlphaFold和我们的科学工作以及我们的分拆公司Isomorphic来努力做的,是解决所有疾病,找到新能源。我认为作为一个社会,我们显然希望得到这些。也许目前行业的平衡,对这类活动的投入还不够。我们应该有更多像AlphaFold这样为世界带来明确好处的例子。我认为行业和所有领导者都有责任更多地展示这一点,而不仅仅是谈论它。</p> <p id="48PLRTDD">但随之而来的是这些意想不到的颠覆。另一个问题是地缘政治竞争,主要是美中之间。所以,除非在这方面有国际合作或谅解——我认为这在部署最低安全标准等方面是好事——否则情况会很复杂。这项技术将是跨国界的,它将影响每一个人,影响全人类。</p> <p id="48PLRTDF">如果我们可以,也许比我们目前预测的速度稍微慢一点会更好,这样社会可以更好地适应。但这需要某种协调。</p> <p id="48PLRTDH"><strong>赞妮:</strong>末日论者担心的另一个潜在风险是出现一个全能的、恶意的AI。你们俩似乎都对末日论持怀疑态度。但在过去一年里,我们看到这些模型表现出了欺骗和口是心非的能力。你现在对这个风险的看法是否与一年前有所不同?</p> <p id="48PLRTDJ"><strong>阿莫迪:</strong>从Anthropic成立之初,我们就一直在思考这个风险。我们开创了“机制可解释性”(<br>mechanisticinterpretability)这个理念,也就是深入模型内部,像神经科学家研究大脑一样,去理解它为什么会这么做。随着时间的推移,我们越来越多地记录下模型出现的不良行为,并正在努力用机制可解释性来解决它们。</p> <p id="48PLRTDL">我一直对这些风险感到担忧,我想哈萨比斯也是。但我对“末日论”——即我们注定失败,无能为力——持怀疑态度。我认为这是一个风险,但如果我们共同努力,是可以通过科学来学习如何正确控制和引导我们创造的这些东西的。但如果我们构建得不好,如果我们只顾着竞争而没有护栏,那么我认为确实有出问题的风险。</p> <p id="48PLRTDN"><strong>赞妮:</strong>哈萨比斯,我想问你一个更广泛的问题:在过去的一年里,你对这项技术的上行潜力(科学、你谈到的所有领域)是变得更有信心了,还是对我们讨论的风险更担忧了?</p> <p id="48PLRTDP"><strong>哈萨比斯:</strong>我从事这个领域已经20多年了。我之所以将整个职业生涯都投入到AI中,就是因为它作为科学和理解宇宙的终极工具所带来的巨大好处。风险我们从一开始就在考虑,至少从15年前DeepMind成立之初就在想。我们预见到,如果你得到了好处,它就是一种军民两用技术,可能会被坏人用于有害的目的。</p> <p id="48PLRTDR">但我坚信人类的创造力。问题在于,我们是否有时间、专注度和所有最优秀的人才来合作解决这些问题。我确信如果我们有这些,我们就能解决技术风险问题。但如果我们没有,情况就会变得支离破碎,大家各自为战、相互竞争,那就很难确保我们生产的系统在技术上是安全的。但我感觉这是一个非常棘手的问题。</p> <p id="48PLRTDT"><strong>赞妮:</strong>我们还有两分钟,可以提一个问题。</p> <p id="48PLRTDV">我想问一个有点哲学的核心问题。对我来说,支持末日论的最有力论据是费米悖论,即我们在银河系中没有看到智能生命。我想知道你们对此有什么看法?</p> <p id="48PLRTE1"><strong>哈萨比斯:</strong>我想了很多。这不可能是原因。因为如果技术消灭了外星人,我们应该能看到他们的AI,比如飞向我们的“回形针”(paper clips)或者戴森球(Dyson sphere)之类的结构,但我们什么都没看到,无论是AI还是生物。所以我认为费米悖论一定有别的答案。</p> <p id="48PLRTE3">我的猜测是,我们已经通过了“大过滤器”(thegreat filter),那个过滤器很可能就是多细胞生命的演化,这对生物学来说极其困难。所以,我不认为未来有什么是注定的。我认为,接下来会发生什么,将由我们人类自己来书写。</p> <p id="48PLRTE5"><strong>赞妮:</strong>这个讨论很棒,但超出了我们剩下的30秒。那么,每人15秒,当我们明年再会时,会有什么变化?</p> <p id="48PLRTE7"><strong>阿莫迪:</strong>我认为最值得关注的是“AI系统构建AI系统”这个问题。它的发展方向将决定我们是还需要几年才能到达AGI,还是我们将面临奇迹和巨大的紧急情况。</p> <p id="48PLRTE9"><strong>哈萨比斯:</strong>我同意。此外,还有其他有趣的研究方向,如世界模型(world models)、持续学习(continual learning)。如果自我改进本身不能带来所有成果,那么我们就需要攻克这些问题。然后,我认为像机器人技术可能会迎来它的“爆发时刻”。</p> <p id="48PLRTEB"><strong>赞妮:</strong>也许根据你们刚才所说,我们都应该希望你们花的时间能再长一点。</p> <p id="48PLRTED"><strong>哈萨比斯:</strong>我也希望如此,我认为那对世界会更好。</p> <p id="48PLRTEF"><strong>赞妮:</strong>但你们可以对此做些什么。谢谢大家!</p>
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901