T-Mobile大会Altman和黄仁勋交流纪要

全产业 2024-09-28 00:11:24
Sam Altman 1、OpenAI 新发布的推理模型 o1 preview 相当于 GPT-2 时刻,但是升级曲线会很陡峭,意味着很快就会达到它的 GPT-4 时刻。 2、推理模型这种新范式的一个最大特点就是升级速度极快。因此,现在模型无法解决的问题,过几个月它们就能解决。而最重要的是,我们将看到一些全新的模型使用方式。 3、OpenAI提出AI 的五个发展阶段。o1达到了第二阶段。从第一阶段(Chatbot)过渡到第二阶(Reasoner)段花费了一段时间,第二阶段能相对较快地推动第三阶段 AI 智能体的发展。 4、看好未来 AI 在医疗保健领域、教育领域和科学研究领域上的贡献。 黄仁勋 Sam最近介绍的一件事是,这些AI的推理能力将会更加智能,但需要更多的计算。因此,今天进入ChatGPT的每一个提示词都是一个通行证,未来将是数百个通行证。这将是推理。它将会做得强化学习。这将是试图找出如何为你创造更好的答案、理由和更好的答案。这就是为什么在Blackwell平台上,我们将推理性能提高了50倍。通过将推理性能提高50倍,该推理引擎将可能需要几分钟来回答特定提示,做到可以在几秒钟内做出响应。因此,这将是一个伟大的新世界。 以下是Sam Altman部分正文=================== T-Mobile:很高兴见到你。 Sam Altman:我也很高兴见到你。 T-Mobile:好的。在我们讨论与 T-Mobile 的合作之前,我得先恭喜你们推出了 O1 模型的预览版。或许你可以向观众介绍一下新模型的内容,因为这真的非常棒。 Sam Altman:是的,我们对此充满期待。我们已经投入了很长时间的研究。GPT 系列模型在类似“系统 1”型思维上表现出色,虽然这个词不太精准。但我们知道,我们真正想要的是能够进行复杂推理的 AI 系统。如果你能让 AI 解决复杂的问题,那就会带来巨大的价值。GPT-4 模型中已经有所展现,但 O1 真的是第一个能进行高级推理的系统。如果你给它一个复杂的编程挑战、数学难题或科学问题,它能提供非常出色的结果。我们相信,随着时间的推移,这将与 GPT 系列一样重要,并解锁一大批新的、非常有价值的应用场景。 T-Mobile:你公开表示,我们现在看到的只是预览阶段,模型还将迅速迭代升级。那么在接下来的几个月里,这一切将如何发展? Sam Altman:我认为这种新型推理模型现在正处于类似于 GPT-2 的阶段。在接下来的几年里,你将看到它达到和 GPT-4 同等的级别。但即使在未来几个月内,随着我们从“O1 预览版”过渡到“O1 正式版”,产品的表现将会有很大的提升。我们在发布博客中也分享了一些相关数据,这是一个巨大的进步。这种新范式的一个最大特点就是升级速度极快。因此,现在模型无法解决的问题,过几个月它们就能解决。而最重要的是,我们将看到一些全新的模型使用方式。 当我们推出 GPT-3.5 时,它在 API 中已经存在了一段时间。真正推动其大规模使用的是 ChatGPT 时刻。即使如此,人们也需要一段时间来掌握如何使用 ChatGPT。我们也花费了一段时间来开发其他功能,添加用户想要的功能。我认为,我们在 O1 的研发早期阶段,将会有全新的使用方式,这些不仅仅是聊天界面。我们需要一段时间来构建这些新方式,其他人也需要时间来适应。用户也需要一段时间来学习如何使用它。这与 GPT 模型有很大的不同。 我们提出了 AI 的五个发展阶段。第一个阶段是聊天机器人。第二个阶段,也就是我们现在刚刚达到的,是推理系统。第三阶段是 AI 智能体。第四阶段是创新者,具有发现新科学信息的能力。第五阶段是完整的组织。从第一阶段过渡到第二阶段花费了一段时间,但我认为,第二阶段能相对较快地推动第三阶段 AI 智能体的发展。而我们期待这项技术最终能实现的智能体体验,我认为将会产生极大的影响。 T-Mobile:当你和我第一次见面时,我们都认识到行业内需要做大量工作,才能找到利用这些新技术创造价值的方法。公司内部必须深入思考如何应用这些技术,考虑数据的现状、业务流程,以展示这些可能是我们一生中最具变革性的技术,如何真正转化为大规模的商业价值。为什么你想与 T-Mobile 合作来帮助实现这一目标呢? Sam Altman:对,我相信,当你在讨论潜在的重大合作伙伴关系时,你可以在最初几分钟内感受到你是否真的想这样做。我在与你会面时确实有这种感觉。我认为我们对这项新技术能为客户和人们带来什么有共同的信念,也就是提供更好的体验和生活。T-Mobile 是一家充满创新精神的公司,愿意与我们一起深入探索,这让我感到非常振奋。我们讨论的具体使用场景是关于如何真正地改善客户体验,以及这能为彻底重塑客户支持的工作方式带来什么。 我曾在你们位于华盛顿的办公室,记得离开时非常兴奋。“我们一定要做这个,我非常期待,让我们开始吧,把最优秀的人手派到这上面。” T-Mobile:对,这就是我们正在做的。所以你们专门成立了一支团队来做这个。我们也有一支专门的团队在做这个。我们正在研究如何释放技术的潜力,通过深入分析现有数据池,不仅仅是让 AI 为我们的客服提供信息,就像我们和别的合作伙伴做的那样,而是希望 AI 能够实时深入理解客户的下一步最佳操作。“下一步最佳操作”这个短语已经存在了一段时间了,但我们现在尝试做的事情与以往完全不同。你能谈谈这个吗? Sam Altman:是的,我们对这一代新模型感到非常兴奋的一点是,它们能够为单个用户或客户提供个性化体验,并且能够整合大量数据、使用各种工具并访问多个系统,带来非常神奇的体验。当我们思考 Intent CX 的潜力时,个性化与集成相结合,我们可以大胆畅想客户的下一步最佳操作会是什么样子。 传统的机器学习模型或 AI 模型,我们会尝试预设一些可能的客户意图。客户可能会有哪些有限的意图种类?然后试图将这些意图与可能适用的有限数量的处理方案进行匹配。而这些新模型则更加人性化。它们能够真正理解客户的意图,这就是我们称其为 Intent CX 的原因。它们根据大量的数据选择处理方案,优化客户与 T-Mobile 的成功之旅。 T-Mobile:是的,我认为这将是大家不愿回到过去的事情。没有客户愿意再回到过去的那种体验。这将带来更好的体验。在我们的目标中,我们希望看到呼叫量减少 75%。这不仅意味着通过更快、更好的 AI 来拦截这些呼叫,还意味着预防问题的发生。我们可以利用 OpenAI 的能力,深入理解这些故障链条是如何形成的。 Sam Altman:完全同意。我认为这些模型非常适合处理这样的任务。你们拥有大量数据,这些模型非常擅长从大量数据中提取有用的信息。 T-Mobile:我们可以谈谈数据安全问题吗? Sam Altman:是的。 T-Mobile:我知道人们会有一个疑问,就是这个系统会如何运作?客户是否已经授权我们进行这些操作?在这方面,我们做的事情与我们已经在做的并没有太大区别,也就是使用 T-Mobile 的数据来改善客户的 T-Mobile 体验。但现在 OpenAI 也深度参与进来了。你能谈谈数据安全吗?这些数据如何不会从 T-Mobile 泄露,并且不会被用来训练更广泛的模型? Sam Altman:我认为大家对 OpenAI 有一个误解,那就是我们不会用 API 客户的数据来训练我们的模型。也就是说,那是你的数据,其他客户的数据也属于他们自己。我们可以用这些数据为你定制模型,或者你可以进行上下文学习,甚至不需要使用这些数据来进一步训练模型,但这些数据绝不会用于改进基础的 OpenAI 模型。 T-Mobile:为什么呢?换句话说,稍微换个话题,OpenAI 为何能如此领先?你们在这一领域做了什么不同的事情,使你们能够以如此快的速度开发这些模型,并且现在与我们合作,探讨如何在大规模上解锁这些模型的潜力,以改善客户体验并提升商业结果? Sam Altman:首先,谢谢你的夸奖,这非常令人感动。我们的工作建立在前人的大量研究基础之上。人工智能是一个有着悠久历史的领域,众多人才在此领域贡献了他们的卓越智慧。更重要的是,如果你回顾历史,比如半导体的发现,制造芯片和网络,建设大型数据中心,我们做的只是在这一切之上的一小部分贡献。 但我们尽最大努力做得最好,并试图保持研究方向的聚焦。我认为其他研究项目的一个常见问题就是他们缺乏足够的决心和专注度。一旦某种方法被证明有效,复制起来就变得极其容易。因此,我认为能够成功的两种方式就是:第一,快速的模仿,复制 OpenAI 或其他成功者的做法。我并不是贬低模仿的意思,许多公司在看到什么有效后,打磨和执行上做得非常出色。但如果你试图推动前沿技术,那就会非常困难。坚定信念和专注,我认为在一个非常复杂的环境中,这两点是最好的前进方式。 我们就是这样做的。我们坚信深度学习的力量,并对此下了很大的赌注。我们相信我们可以从现有的状态一路走到通用人工智能(AGI)甚至更远。与此同时,我们会根据前进过程中学到的新知识来调整方向。我们会尽全力去完成每一个任务,并相信随着时间的推移,这将产生积累效应。这种方法对我们来说确实有效。采用这种简洁、专注的方法是我们的策略。 T-Mobile:这次合作代表了 OpenAI 现在的一个模式,即在几个领域加倍投入。我们是你们在行业中解锁这些技术价值的基准合作伙伴,但我知道你们对其他领域也很感兴趣。既然我们还有几分钟时间,能谈谈你们感兴趣的其他领域吗?我知道你们不仅仅是在和我们合作,还在更多垂直领域做了很棒的事情。你们对医疗保健很感兴趣,也对其他一些领域感兴趣,通过类似我们在 Intent CX 中进行的流程变革,帮助全球像我们这样的公司。在其他行业你们也有涉足,你能谈谈目前让你感到兴奋的领域吗? Sam Altman:当然。首先,T-Mobile 是我们最重要的合作伙伴之一。我们希望通过这次合作激励更多的人看到我们可以通过 AI 为客户带来怎样的价值。我认为这将是一个巨大的进步。正如你提到的,医疗保健是一个领域,我对它充满了期待。我认为全世界大部分人并没有获得高质量的医疗服务,而这些模型能够在这方面带来重大改变。 我非常期待看到有人可以创造出前所未有的 AI 医疗顾问,并将其推广到大众中去。这将是一个巨大的进步。教育是另一个领域,已经有一些非常好的成果出现。看到人们已经取得的成就让我感到振奋。我想 O1 可能才刚刚发布五六天,看到人们用它所取得的成果真的很了不起。人们过去用 GPT-4 所做的事情已经相当不错了。但如果你能想象,每个学生都能获得最适合他们的个性化辅导,这将和他们的其他教育经历一起,产生巨大的影响。 我个人非常期待的一个领域,虽然仍然在未来,但我们现在已经可以看到一些端倪,就是 AI 帮助我们加速科学发现。我相信,世界上大多数可持续的经济增长、生活质量的提升,很大程度上来自科学进步和技术进步。如果 AI 能加速这一进程,帮助我们发明新事物、治愈疾病、发现更好的能源,无论是什么,那都将是一次巨大的成功。 T-Mobile:刚才你提到你们是站在千年的技术发展基础上,只是在其基础上做了一点小小的工作。这可能是我听到的最谦虚的话语之一。你们很了不起,你们的工作非常了不起,非常感谢你给我们带来的启发,也感谢这次的合作。我认为这为我们提供了巨大的机会,让我们能够大规模解锁这项技术,改善客户体验并转化为更好的商业模式。非常感谢。我们非常珍视这次的合作。 Sam Altman:谢谢。我也非常珍视这次合作。我相信,我们能够共同探索出许多新的可能性。 以下是黄仁勋部分正文节选=================== 【关于Nvidia与T-Mobile合作,以及在电信领域的Aerial computer】 首先,在2016年,我们推出了一种名为dgx 1的全新类型的计算机,并在60年后重新发明了计算技术和dgx 1的影响,它现在是众所周知的人工智能超级计算机,并为全球的人工智能提供动力。它正在改变计算机行业,革新软件的操作方式和软件的功能。而这一切都始于该系统的发明,处理器、软件层进入其中。当时,没有人知道这个软件层,但它被称为cuDNN,并且它基于这种算法进行深度学习。但是对于这种架构,我们称之为CUDA,它演变成了cutlass。这些基础库彻底改变了人工智能,使其民主化,并将其交给了世界各地的研究人员。 今天我们要宣布一种革命性的新计算机,这种革命性的计算机叫做Arc 1 Aerial计算机(NVIDIA Aerial是一套加速计算平台、软件和服务,用于设计、模拟和操作无线网络。Aerial 包含面向电信公司、云服务提供商 和构建商业 5G 网络的企业的强化 RAN 软件库)。在2016年,我把dgx 1交付给了OpenAI。我本来希望今天能把Arc送给你,但是,我了解到它已经运到你那里了,所以不幸的是,因为我们不在同一个城市,我不能亲自把它送到你那里。因此,它正在前往西雅图的途中,为我们正在建造的实验室提供动力。 真正发生的事情是我们创造了一种新计算机,一种全新类型的计算机,它融合了无线电处理和极其复杂的无线算法,大多数人需要理解无线通信。频谱有限,算法复杂,环境多样,动态电磁辐射不是物理现象,但您仍在尝试为每个人优化服务质量。管理频谱,管理您的能源效率。 我们都认为这是理所当然的。我们手里拿着这些令人难以置信的计算机四处走动,无论我们身在何处,数以百万计的人都连接到以每秒数百兆的速度发送的大量数据,并且是实时的。我们使用的信号越多,给每个人所需信号的算力就越难。因此,这一切都是为了从每个频率单位中获得越来越多的性能。 我们将不得不创造一种全新类型的计算机,我们创造的计算机称为Arc 1,将无线电处理和人工智能处理融合到一个平台上,因此,我们能够做两件事情。我们可以应用所有用于机器人技术的深度强化学习算法。我们可以教这些AI模型如何在我们向您展示的数十万个虚拟城市中优化信号质量。然后,当我们最终将其放入虚拟的真实城市中时,真实的城市就成为了数十万的场景,因此它已经学会了如何通过这些超级计算机中的域随机化和模拟来优化许多不同的场景。现在,下一个版本,在所有这些不同城市和不同环境中的下一个版本,它之前已经进行了优化。我们将使用与机器人类似的算法。所以机器人必须应对,机器人必须应对非常复杂的环境,强化学习就是这样做的。AlphaGo使用强化学习,未来的许多推理系统AI推理系统将使用强化学习。 软件定义网络显然是一件美妙的事情。然而,无线电网络的计算非常密集,需要进行信号处理来进行错误纠正,这非常困难,大规模的MIMO也非常困难。所以第一个挑战是,你如何进入一个软件定义的环境,在这个环境中,摩尔定律真正发挥作用?CPU无法跟上ASIC的工作量。所以答案当然是使用cuda加速计算,我们花了五年时间创建了aerial库,这使我们能够使用cuda来加速5G无线电并为6 g无线电做准备。 第二件事是,当然,一旦我们这样做了,那么计算堆栈也可以支持人工智能。现在我们已经将信号处理和AI融合在一个计算平台事业部中。你们的无线电将是非凡的5G无线电,并为未来的6 G做好准备,以及一个人工智能 (AI) 计算的平台来部署到主机上运行AI。而AI当然可以用来提高网络本身的效率,当然也可以托管全新的AI服务,就像我们在视频中展示的那些。 =========================== 【关于B系列的推理性能】 Sam最近介绍的一件事是,这些AI的推理能力将会更加智能,但需要更多的计算。因此,今天进入ChatGPT的每一个提示词都是一个通行证,未来将是数百个通行证。这将是推理。它将会做得强化学习。这将是试图找出如何为你创造更好的答案、理由和更好的答案。这就是为什么在Blackwell平台上,我们将推理性能提高了50倍。通过将推理性能提高50倍,该推理引擎将可能需要几分钟来回答特定提示,做到可以在几秒钟内做出响应。因此,这将是一个伟大的新世界。 【关于AI电力消耗】 我们必须使用AI来减少能源消耗。我们现在知道我们可以进行气候预测,天气预报,能源效率比使用超级经典超级计算机高10000倍。摩尔定律确实贯穿了这一过程。我们必须使用一种新的方法来弄清楚如何进行这些计算,我们在T-Mobile移动设备上一起进行的数据处理工作。如果不是为了加速计算,我们将如何减少能耗和时间,以及20倍的成本?因此,我们加速的一切,我们教AI模型做的一切,都将以更节能的方式进行。 所以我们要教,我们要教AI不要去计算,无论是通过多物理场、热力学、流体动力学、对流与传导、冰科学、海洋科学等等。我们要教它预测它。它并不完全理解因果关系,但它预测得非常好。我们只是想知道明天的天气会是什么样子。这就是一个例子。
0 阅读:0

全产业

简介:感谢大家的关注