AGI
-
First Principles of AGI-Inclusive Humanity
By W.H.L. with Claude Sonnet 4 W.H.L.: Recently, there has been increasing concern and anxiety about the arrival of AGI. It is understandable: when a machine’s intelligence becomes advanced enough to match or surpass human intelligence, it could potentially evolve into something powerful enough to disobey, oppose, or even harm humans. One premise behind this Continue reading
-
Intelligence Amplification via AI by AI
By W.H.L. with Gemini 2.5 Pro W.H.L.: Hi Gemini! I’d like to explore the topic of “intelligence amplification” with you. We know this concept has been around for many years to refer the idea of enhancing human intelligence with machines such as computers. Could you provide some background context for our discussion? Gemini 2.5 Pro: Continue reading
-
From Knowledge to Wisdom: the Gap to Fill for AGI
By W.H.L. with Claude 3.7 Sonnet W.H.L.: Hi Claude! My question for you today is: What are crucial differences between current state of the art large reasoning models and true AGI, or what are still missing from the best large models? Claude 3.7 Sonnet: Differences Between Current State-of-the-Art LLMs and True AGI Current large language Continue reading
-
Trustworthy AI is Only Possible in Nash Equilibrium
By W.H.L. with Grok-3 W.H.L.: Hi Grok! Last time I discussed with Claude 3.7 on AI’s critical thinking (see the link to the text here: https://champaignmagazine.com/2025/03/11/ai-by-ai-critical-thinking-and-ai-otherness/). I would like to chat with you today, on that topic again. Grok-3: Hi there! I’m happy to dive into the topic of AI and critical thinking with you. Continue reading
-
Three Dimensions of Breakthrough Needed Toward AGI and Beyond
By W.H.L. with Claude 3.7 Sonnet W.H.L.: As of now in February 2025, the mainstream and state of the art AI models are by and large Transformer based, that is, they are grounded on probability based predictions. Mere mathematics, however, may not be good enough to get us there. In addition to our current effort Continue reading
-
On AGI and its Consciousness: Chat with Grok-3
By W.H.L. and Grok 3 W.H.L.: Hi Grok-3! With the release of you Grok-3, DeepSeek-R1, and announced upcoming GPT4.5 and then GPT 5 later this year, what’s your bet on AGI? When will that happen in your estimate? Grok 3: Hi there! Thanks for the warm greeting. Let’s dive into your question about AGI—Artificial General Continue reading
-
2024-2025: AI’s Retrospect and Prospect
By W.H.L. with ChatGPT, Gemini, and Copilot Q1. W.H.L.: Now we are in 2025. Looking back in retrospect, how would you summarize the year that just passed? Are you able to name a Top Five list of things whose advancement have made significant impact? A1. ChatGPT: Reflecting on 2024, it was a transformative year marked Continue reading
-
强人工智能愿景:基本假设与框架
原文作者:Dario Amodei 机器翻译:Copilot October 2024 我经常谈论强大人工智能的风险。我担任CEO的公司Anthropic,致力于研究如何减少这些风险。尽管如此,人们有时认为我是一位悲观者,认为人工智能主要是有害的。我并不这么认为。事实上,我关注风险是因为它们是实现根本性积极未来的唯一障碍。我认为大多数人低估了人工智能的潜在好处和风险。 在这篇文章中,我试图勾画出如果一切顺利的话,强大人工智能可能带来的美好前景。当然,没人能确定或精确地预测未来,而强大人工智能的影响可能比过去的技术变革更加不可预测,所以这一切难免会是猜测。但我至少希望这些猜测是有教育意义和有用的,即使大部分细节最终是错误的,我也希望能捕捉到将要发生的事情的味道。我包括了很多细节,主要是因为我认为具体的愿景比高度谨慎和抽象的愿景更能推进讨论。 首先,我想简要解释一下为什么我和Anthropic很少谈论强大人工智能的好处,以及为什么我们可能会继续主要讨论风险。特别是,我做出这种选择的原因有: 最大化杠杆作用。AI 技术的基本发展及其许多(但不是全部)好处似乎是不可避免的(除非风险让一切脱轨),并且基本上是由强大的市场力量驱动的。另一方面,风险不是预定的,我们的行动可以极大地改变其可能性。 避免宣传的印象。AI 公司谈论 AI 的所有惊人好处可能会像宣传者一样,或者好像他们试图分散对缺点的注意力。我还认为,作为原则问题,花太多时间“谈论你的书”对你的灵魂有害。 避免宏伟。我经常对许多 AI 风险公众人物(更不用说 AI 公司领导人)谈论 AGI 时代后的世界感到反感,好像他们的使命是单枪匹马地带领人民走向救赎。我认为将公司视为单方面塑造世界是危险的,将实际的技术目标视为基本上是宗教术语是危险的。 避免“科幻”包袱。尽管我认为大多数人低估了强大的 AI 的上行空间,但那些讨论激进 AI 未来的小社区通常以过于“科幻”的语调(例如,上传的思想、太空探索或普遍的赛博朋克氛围)进行讨论)。我认为这会导致人们不那么认真地对待这些说法,并使他们带有某种不现实的色彩。明确指出,问题不是所描述的技术是否可能或可能(主文章对此进行了详细讨论)——更重要的是,这种“氛围”隐含地带来了大量的文化包袱和对什么样的未来是可以接受的、各种社会问题将如何演变等未曾表述的假设。结果往往看起来像是某个小众文化的幻想,而对大多数人来说令人反感。 尽管存在上述所有问题,我仍然认为讨论强大人工智能可以带来的美好世界非常重要,同时尽量避免这些陷阱。事实上,我认为拥有一个真正鼓舞人心的未来愿景至关重要,而不仅仅是灭火计划。许多强大人工智能的影响是对抗性或危险的,但最终,我们必须有我们所争取的东西,有一种积极的结果,使每个人的生活更美好,有一个能够团结人们超越争吵并迎接挑战的目标。恐惧是一种激励因素,但还不够:我们还需要希望。强大人工智能的正面应用清单非常长(包括机器人技术、制造业、能源等),但我要集中讨论一些对改善人类生活质量最有潜力的领域。我最兴奋的五类是: 我的预测从大多数标准来看会是激进的(除了科幻“奇点”愿景),但我是真诚的。所有这些说法很可能都是错误的(重申我之前的观点),但我至少试图在不同领域的进展可能加速的半分析评估中奠定我的观点。我有幸在生物学和神经科学方面有专业经验,而我在经济发展领域是一个受过良好教育的业余爱好者,但我相信我会犯很多错误。写这篇文章让我意识到,召集一个领域专家小组(包括生物学、经济学、国际关系等)来写一个更好、更全面的版本是有价值的。最好将我的努力视为该小组的起点。 基本假设和框架 为了使这篇文章更加精确和有依据,明确我们所说的强大人工智能以及它的到来时间非常有帮助。我认为这种强大的人工智能可能在2026年出现,但也有可能需要更长时间。 在这篇文章中,我假设它会很快到来,并关注它出现后5-10年的情况。我假设这种系统的定义、能力以及它如何交互,尽管对这些方面存在争议。 我心目中的强大人工智能是一个 AI 模型,可能在形式上类似于今天的 LLM,尽管它可能基于不同的架构,可能涉及多个交互模型,并且可能以不同的方式训练,具有以下特性: 在纯粹智力方面,它在大多数相关领域(例如生物学、编程、数学、工程、写作等)比诺贝尔奖得主更聪明。这意味着它可以证明未解决的数学定理,写出极好的小说,从头开始编写复杂的代码库等。 除了作为一个“智能对话对象”,它还具有人类虚拟工作所需的所有“接口”,包括文本、音频、视频、鼠标和键盘控制,以及互联网接入。它可以通过这些接口执行任何操作、通信或远程操作,包括在互联网上采取行动、向人类发出或接受指令、订购材料、指导实验、观看视频、制作视频等。而且,它在这些任务上的技能再次超过了世界上最有能力的人类。 它不仅是被动回答问题;相反,它可以被分配需要数小时、数天或数周完成的任务,然后像一名聪明的员工一样自主完成这些任务,必要时再寻求澄清。 它没有实体(除了在计算机屏幕上存在),但可以通过计算机控制现有的物理工具、机器人或实验设备;理论上,它甚至可以为自己设计机器人或设备来使用。 用于训练模型的资源可以重新用于运行数百万个实例(预计到2027年,这与集群规模匹配),并且该模型可以以大约10倍至100倍于人类的速度吸收信息和生成操作。不过,它可能会受到物理世界或其交互软件的响应时间的限制。 每一个数百万个实例中的每一个都可以独立地执行不相关的任务,或者在需要时可以像人类合作一样一起工作,也许不同的子群体可以微调得特别擅长某些任务。 我们可以将其总结为“数据中心中的天才国度”。 显然,这样一个实体能够非常快地解决非常困难的问题,但弄清楚有多快并不简单。对我来说,两种“极端”观点都是错误的。首先,你可能会认为世界会在秒或天的时间尺度上立即被改变(“奇点”),因为优越的智能不断自我增强,几乎立即解决每一个科学、工程和操作任务。问题在于存在真实的物理和实践限制,例如构建硬件或进行生物实验。即使是一个新的天才国度也会遇到这些限制。智能可能非常强大,但它不是魔法仙尘。 其次,相反,你可能认为技术进步受现实世界数据或社会因素的饱和或速率限制,而且比人类更聪明的智能几乎不会增加什么6。对我来说,这同样不可信——我可以想到数百个科学甚至社会问题,在这些问题上,一大群聪明人会大大加快进展,尤其是如果他们不仅限于分析,而且可以在现实世界中实现事情(我们的假设天才国度可以这样做,包括通过指导或协助人类团队)。 我认为,真实情况可能是这两种极端图景的一种混合体,具体细节根据任务和领域的不同而有所变化。我相信我们需要新的框架来以一种建设性的方式思考这些细节。 经济学家经常谈论“生产要素”:例如劳动力、土地和资本。“劳动力/土地/资本的边际回报”这个短语捕捉到的思想是,在特定情况下,某个要素可能是也可能不是限制因素——例如,一个空军需要既需要飞机又需要飞行员,如果没有飞机,雇佣更多的飞行员并没有多大帮助。 我相信在AI时代,我们应该谈论“智能的边际回报”,并试图找出与智能互补的其他因素以及当智能非常高时成为限制因素的那些因素。我们不习惯以这种方式思考——问“变得更聪明对这项任务有多大帮助,以及在什么时间尺度上?”——但这似乎是概念化一个拥有非常强大人工智能的世界的正确方式。 我猜测的限制或补充智能的因素列表包括: 外界的速度。智能体需要在世界上互动地操作以完成任务并学习8。但是世界的运行速度是有限的。细胞和动物以固定速度运行,因此对它们进行实验需要一定的时间,这可能是不可压缩的。同样的道理适用于硬件、材料科学、与人沟通的任何事物,甚至是我们现有的软件基础设施。此外,在科学中,通常需要一系列实验,每个实验从上一个实验中学习或建立。所有这些意味着,完成一个重大项目——例如开发癌症治疗方法的速度——可能有一个不可压缩的最小值,即使随着智能的增加,这个最小值也不会进一步减少。 对数据的需求。有时缺乏原始数据,没有这些数据,更多的智能也无济于事。今天的粒子物理学家非常聪明,已经开发出了一系列理论,但由于粒子加速器数据非常有限,无法在它们之间做出选择。除了可能加快建造更大的加速器外,不清楚他们是否会显著提高。 内在复杂性。有些事情本质上是不可预测或混沌的,即使是最强大的AI也无法比今天的人类或计算机更好地预测或解开它们。例如,即使是非常强大的AI在一般情况下也只能在混沌系统(如三体问题)中向前预测一点9,而与今天的人类和计算机相比。 人类的限制。许多事情不能在不违反法律、不伤害人类或不扰乱社会的情况下完成。一个对齐的AI不会想要做这些事情(如果我们有一个不对齐的AI,我们又回到了讨论风险的问题)。许多社会结构效率低下甚至有害,但在尊重法律要求、临床试验的法律要求、人的行为习惯的改变或政府行为的限制下,很难改变。技术上成功但因法规或错误的恐惧而减少影响的例子包括核能、超音速飞行,甚至电梯。 物理法则。这是第一个观点的更严峻版本。有些物理定律似乎是不可打破的。不可能以超过光速旅行。布丁不会不搅动。芯片每平方厘米的晶体管数量有限,超过这个数量后会变得不可靠。计算需要一定的最小能量来擦除每个位,从而限制了世界上计算的密度。 在时间尺度上还有进一步的区分。在短期内难以克服的约束,长期来看可能会因智能而变得更具可塑性。例如,智能可以用来开发新的实验范式,使我们能够在体外学习以前需要活体动物实验才能实现的东西,或构建收集新数据所需的工具(例如更大的粒子加速器),或在道德限度内找到绕过人类限制的方法(例如,帮助改善临床试验系统,帮助创建新司法管辖区,使临床试验官僚作风减少,或通过改进科学本身,使人类临床试验变得不那么必要或更便宜)。 因此,我们应想象一种情景,其中智能最初受到其他生产要素的严重限制,但随着时间的推移,智能本身越来越多地绕过这些因素,即使它们永远不会完全消失(有些东西如物理定律是绝对的)10。关键问题在于这一切发生的速度及其顺序。 Continue reading
-
智能时代
文/ 萨姆·阿尔特曼 (Sam Altman) 在未来的几十年里,我们将能够做到一些在我们祖父母看来像魔法一样的事情。 这种现象并不新鲜,但它将会加速。随着时间的推移,人们的能力显著提高;我们现在已经能够完成一些我们前辈认为不可能的事情。 我们变得更有能力并不是因为基因的改变,而是因为我们受益于社会基础设施的智能和能力远远超过我们中的任何一个人;从某种重要意义上说,社会本身就是一种高级智能。我们的祖父母——以及他们之前的几代人——创造了伟大的成就。他们为我们所有人受益的人类进步搭建了脚手架。人工智能将为人们提供解决难题的工具,帮助我们添加新的支撑,这些是我们自己无法想象的。进步的故事将继续,我们的孩子将能够做到我们无法做到的事情。 这不会一蹴而就,但我们很快就能与人工智能合作,帮助我们完成比没有人工智能时更多的事情;最终,我们每个人都可以拥有一个由虚拟专家组成的个人人工智能团队,共同创造几乎任何我们能想象的东西。我们的孩子将拥有虚拟导师,可以在任何学科、任何语言、任何进度下提供个性化的指导。我们可以想象类似的想法用于更好的医疗保健、创造任何人能想象的软件等等。 有了这些新能力,我们可以实现今天看似难以想象的共同繁荣;在未来,每个人的生活都可以比现在任何人的生活更好。单单繁荣并不一定能让人们幸福——有很多富有的人也很痛苦——但它会显著改善世界各地人们的生活。 这里有一种狭隘的方式来看待人类历史:经过数千年的科学发现和技术进步的复合,我们已经弄清楚如何融化沙子,添加一些杂质,以惊人的精度在极其微小的尺度上排列成计算机芯片,通过它运行能量,最终形成能够创造越来越强大人工智能的系统。 这可能是迄今为止所有历史中最重要的事实。我们可能在几千天内拥有超级智能(!);可能需要更长时间,但我相信我们会实现的。 我们是如何走到下一个繁荣飞跃的门槛的? 用几个字概括:深度学习成功了。 用几句话概括:深度学习成功了,随着规模的扩大变得更好,我们投入了越来越多的资源。 事实就是这样;人类发现了一种算法,能够真正学习任何数据分布(或者说,产生任何数据分布的基本“规则”)。令人震惊的是,计算能力和数据越多,它在帮助人们解决难题方面的表现就越好。无论我花多少时间思考这个问题,我都无法真正内化它的重要性。 我们还有很多细节需要解决,但被任何特定挑战分心是错误的。深度学习有效,我们将解决剩下的问题。我们可以说很多关于接下来可能发生的事情,但主要的是人工智能将随着规模的扩大而变得更好,这将带来对世界各地人们生活的显著改善。 人工智能模型将很快作为自主的个人助理,代表我们执行特定任务,比如协调医疗护理。在未来的某个时候,人工智能系统将变得如此强大,以至于它们帮助我们制造更好的下一代系统,并在各个领域取得科学进步。 技术将我们从石器时代带到了农业时代,然后是工业时代。从这里开始,通向智能时代的道路由计算能力、能源和人类意志铺就。 如果我们想让尽可能多的人使用人工智能,我们需要降低计算成本并使其充足(这需要大量的能源和芯片)。如果我们不建立足够的基础设施,人工智能将成为一种非常有限的资源,可能引发战争,并主要成为富人的工具。 我们需要明智但坚定地行动。智能时代的黎明是一个具有非常复杂和极高风险挑战的重大进展。它不会是一个完全积极的故事,但其潜力如此巨大,我们有责任为自己和未来找到应对眼前风险的方法。 我相信未来将是如此光明,以至于没有人能通过现在的写作来公正地描述它;智能时代的一个显著特征将是巨大的繁荣。 尽管这一切将逐步发生,但令人惊叹的成就——解决气候问题、建立太空殖民地以及发现所有物理学原理——最终将变得司空见惯。凭借几乎无限的智能和充足的能源——产生伟大想法的能力,以及实现这些想法的能力——我们可以做很多事情。 正如我们在其他技术中看到的那样,也会有负面影响,我们需要现在开始努力,在最大化人工智能的好处的同时,尽量减少其危害。例如,我们预计这种技术在未来几年会对劳动力市场产生重大变化(有好有坏),但大多数工作岗位的变化速度会比大多数人想象的要慢,我不担心我们会没有事情可做(即使它们在今天看起来不像“真正的工作”)。人们有一种与生俱来的创造和对彼此有用的愿望,人工智能将使我们能够前所未有地放大自己的能力。作为一个社会,我们将回到一个不断扩展的世界,并再次专注于玩正和游戏。 我们今天所做的许多工作在几百年前的人们看来可能是微不足道的浪费时间,但没有人会回头看过去,希望自己是一个点灯人。如果一个点灯人能看到今天的世界,他会认为周围的繁荣是难以想象的。如果我们能快进到今天的一百年后,周围的繁荣也会让我们觉得同样难以想象。 2024年9月23日 (原文出处:https://ia.samaltman.com;中译:Copilot, 校对:W.H.L.,未经授权,侵删) Continue reading
