老俞夜话 | 人工智能与人类的共生未来

发布时间:2025-10-27 22:19  浏览量:1

本文来源于2025年9月26日晚“老俞夜话”

视频号搜索“俞敏洪洪哥”观看完整直播回放

大家晚上好!昨天讲80年代的流行音乐,以及我们如何经历了祖国从封闭走向开放、从束缚走向自由的80年代。今天的话题跟昨天完全不一样——人工智能,这是既影响了我们的当下,又影响了未来的话题。

最近我读了不少有关人工智能的书。张笑宇的《AI的文明史·前史》,讲了AI的发展历程以及AI对人类文明带来的影响;清华大学心理学系刘嘉老师的《通用人工智能》,写了通用人工智能到底未来会给人类带来什么影响;万维钢老师的《人比AI凶》,观点是不管人工智能多厉害,但在很多方面,人工智能都替代不了人类,比如人有热爱、人有意识,而且这个意识完全以自我为中心,以自我一辈子的故事而构成,这些是人工智能没有的,因为人工智能只有数据训练的集成、呈现。我最新读完的则是李飞飞的《我看见的世界》,李飞飞是一个了不起的中国女性,她在美国上中学、大学,工作后进入了人工智能领域,最后在人工智能大模型的发展中起到非常重要的作用。这四本书是我至今为止读到过的,有关人工智能大模型的不错的书,所以今天和大家分享一下我的学习结果。

很多人没有意识到,人工智能很可能对我们产生巨大的、颠覆性的影响,可以说第三次工业革命是互联网信息技术的发展,而第四次工业革命则是人工智能的兴起。它极有可能颠覆我们现在所从事的大部分工作,把人类引以为傲的工作能力推翻掉,也可能导致我们的自尊必须寻找另外的方向。比如你开车开得特别好,你可能会觉得自己是个老师傅;你当医生特别好,你会觉得自己是个好医生,这些职业成就都会给我们带来很大的自尊,但在人工智能面前,这些自尊可能会不堪一击。在人工智能未来引起的巨大社会变革、个人职业变革、个人自尊冲击的前提下,人类到底应该怎样生存、生活?这四本书或多或少都在给大家提出可能的答案。

在聊人工智能的话题时,我们先了解一下几个人工智能的类型。第一个是多模态(Multimodal),指的是一个系统能够同时处理多种信息,比如文本、图像、语音和视频等。从人类的感知角度来看,我们处理这些信息是无缝衔接的,比如看视频时我们同时处理图像、文字和声音。但在机器和人工智能的状态下,能否像人类一样综合处理这些信息,比如将画面转化为文字,将声音转化为文字,或者根据文字生成图像,这就是多模态研究的焦点。目前,局部已经能够做到了,但还没有完全实现100%的多模态处理。

第二个是生成式AI,它的特点是能够自主生成新的内容,而不是从现有的数据中调取。例如,如果你输入一段文字,要求人工智能根据这段文字生成一个视频,它能够凭空生成一段全新的视频,而不是从现有的视频库中调取。传统的AI只是从数据库中调取已有的内容,比如你要求播放赛里木湖的视频,它只是从数据库中找到相关的视频片段。但生成式AI可以根据你输入的文字描述,比如赛里木湖的美丽、真实和纯粹,生成一段全新的、真实的赛里木湖视频。这种能力被称为生成式AI,英文是Generative AI,意味着它能够自己创造出新的内容。

面向未来,最重要的是通用人工智能(Artificial General Intelligence,简称AGI)。AGI的核心目标是让人工智能具备人类甚至超越人类的通用认知能力。这种认知能力极为复杂,涵盖自主学习,理解学习内容,推理、解决问题以及提出解决方案等等,而且不管是视频、图片、文字、语音,AGI都能整合在一起,形成综合性的理解能力。AGI还强调能力的整体性,比如AlphaGo下围棋打败了李世石,那算不算通用人工智能?不算。为什么?因为目前人工智能在特定领域超越人类已经毫无悬念,从下象棋到下围棋,再到未来的医学、绘画等领域,人工智能超越人类水平几乎是必然的。但如果要人工智能在整体上和人类相比较,AGI目前还达不到,但我一些人工智能领域的朋友们都认为,可能就在半年之内,AGI最后成熟的模型就能出来,这个模型出来后,几乎能让所有的模型都升一级。

了解了这三种人工智能的概念之后,我们还要知道一些术语。第一个术语:机器学习(Machine Learnig)。人工智能的发展实际上是一个机器不断学习进步的过程,早从图灵机时代开始,它就在走弯路、攒经验,到了今天,深度学习、大模型、多模态的本质依然也是机器学习,只不过背后的理论和硬件不同。机器学习的核心点就是用数据驱动AI,包括输入的图像,输入的语音,输入的文字,输入的医学诊断报告……都是数据,通过学习数据来驱动AI,而不是根据编写的规则来驱动,这就叫机器学习。

打个简单的比方,古人以前必须按照儒家整套行为准则来行事,一旦违反就意味着你在中国文化中不可兼容。比如在“父父子子、君君臣臣”的时代,如果你违反了规矩,你就死无葬身之地。过去人工智能所做的事情就相当于给AI编写了一整套规则,这就导致AI后来的发展空间非常窄,就像明清的时候,我们沿着儒家被僵化的思想往前走,就会走入被束缚的死胡同一样。

后来机器学习开始基于神经网络和深度学习“撕破”了这些规矩,不再预设规则,而是让机器在海量数据中自行学习,这就像思想得到了解放一样。在一个思想解放的时代,你的行为规矩是根据你内心的需求进行组合的,这种组合直接导致了表面没有规矩,但每个人都过着自由自在的生活,并且每个人都达到了一个最佳状态。如今Transformer再把图像、视频、文字、语音结合到一起,这种多模态大模型就像自由市场,表面没条条框框,却能把各种信息随心组合,给出最顺手的答案——这就是机器学习带来的“自由发挥”。

第二个术语:深度学习(Deep Learning)。它是一种基于多层次神经网络的系统。简单来说,就是一种有多个隐藏层的神经网络。这些隐藏层一层一层地处理数据,就像大脑中的神经元一样。这种结构是模仿人类大脑的神经元连接设计的,能够处理现实世界的复杂信息,比如同时处理图像、文字、动态画面等信息。就像我们的五官面对一个现实世界,可以同时看到文字、图片、动态,也可以听见声音,闻到味道。深度学习系统可以处理图像、语音、文本等多种数据,形成一个复杂的处理系统。现在大家常用的ChatGPT、豆包、文心一言、DeepSeek等,都是基于深度学习技术开发的。

深度学习的基础是神经网络系统(Neural Network)。神经网络的发展经历了很多波折,从最初的提出,到多次的迭代、起伏,有过绝望和失望,但最终取得了成功。最初,神经网络的目的是模拟人类大脑的神经元连接结构,将其转化为数学模型。这个模型包括输入层(接收数据信息)、隐藏层(处理数据)和输出层(生成结果,如文本、图片等)。我们现在在豆包里输入一个问题或者一张图片,最终得到的文字解释就是通过这个系统处理的。

神经网络的基本结构是神经元。通过各种权重和加权处理,以及反向传播等技术,使系统能够不断优化,给出更准确的结果,这也是为什么我们输入同一个问题后,不同平台给出来的答案是不一样的,因为各个平台所基于的数据不同,比如国内平台所基于的有些数据可能会被屏蔽掉,或者有些数据更适合中国国情。不过,虽然同样的问题输入到ChatGPT、豆包或 DeepSeek,答案会有差异,但背后的逻辑是一样的,都是基于神经网络的深度学习,通过机器学习来实现的。

接下来我分享一下人工智能的发展历程。人工智能的发展经历了几个时期,第一个是萌芽时期(1900年—1959年),其中最重要的人物是艾伦·麦席森·图灵(Alan Mathison Turing)。1936年,图灵发明了图灵机,它可以模拟任何计算过程,通过一系列简单操作进行计算,为现代计算机科学奠定了理论框架。图灵机不仅为现代计算机的诞生奠定了基础,也为未来人工智能的发展奠定了理论框架。1950年,图灵发表了《计算器与智能》一文,提出了图灵测试。图灵测试很简单:当一台机器和一个人在对话时,或者当测试者作为第三者去问机器和人同样的问题时,如果机器回答的问题超过30%以上被认为是由人回答的,这台机器就通过了图灵测试。到现在为止,图灵测试还在进行之中,而且现在的评价越来越高,最高的已经达到了差不多70%。但最初在1950年的时候,一个机器回答的问题能够被人误以为30%是人本身在回答,这已经是一个了不起的成就。从1950年到现在,多模态、大数据模型的发展,可以看到人类的进步是一代又一代人努力的结果。

图灵这个人也很值得大家了解。有一部电影叫《模仿游戏》,我看过之后非常有感慨,跟后来的《奥本海默》电影有异曲同工之妙。图灵是现代计算机和现代人工智能的奠基人,其主要贡献有三个,第一,在计算机与人工智能领域中,图灵通过图灵机和图灵测试为计算机和人工智能奠定了基础;第二,图灵通过机器学习、模仿和密码解读,帮助英国破译了无数德国的密码,为战争的胜利做出了巨大贡献;第三,图灵是个同性恋。当时图灵因为同性恋倾向被英国政府以“严重猥亵罪”判刑,这个判决对他的生活和事业造成了毁灭性的影响。1952年他被判有罪,1954年就服用了含有氰化物的苹果,去世时年仅41岁。直到2013年,图灵才获得了英国女王伊丽莎白二世的赦免。这个事情反映了当时社会对不同性取向的人的不宽容,放在今天的社会,图灵的取向根本不是个问题,但在四五十年代却是一个严重的问题。后来图灵的生平就被拍成《模仿游戏》,大家感兴趣可以看看。

人工智能发展中的第一个里程碑是图灵,第二个里程碑则是神经网络雏形的形成。1943年,沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)首次提出了神经网络的概念,但这个概念并没有引起广泛关注,因为他们提出的是一种单层神经网络模型,而人类大脑的神经网络要复杂得多,所以当时的神经网络概念更多只是被视为一个研究方向。到了1969年,马文·明斯基(Marvin Minsky)和西摩·帕普特(Seymour Papert)合著了一本《感知机》(Perceptrons),单层神经网络(感知机)结构过于简单,存在巨大的局限性,无法解决一些复杂问题,因此不可能推动人工智能的发展。这是人工智能的第二个发展阶段,依然没有什么太大的成就,但《感知机》这本书为后来的多层次神经网络的形成、反向传播算法的发展,以及深度学习的兴起奠定了基础。所以每一代人的探索可能都会陷入困境,甚至陷入绝境,但他们的工作或多或少都为后来的发展奠定了基础。

真正人工智能理论的提出是在1956年。当时在达特茅斯会议上,约翰·麦卡锡(John McCarthy)等人召集了一次原本计划为期两周的讨论,旨在探讨人工智能的发展,这个会议是一个自由、没有主题的会议,但最终延长到了两个月左右。尽管会议没有得出实质性的进展,但在会上有一件事情被确定了:所有与机器学习相关的研究,以及机器未来取代人类思考过程的研究,被正式命名为“人工智能”(Artificial Intelligence)。所以“Artificial Intelligence”这个词是1956年正式提出来的。其实在达特茅斯会议之前,克劳德·香农(Claude Shannon)已经提出了机器学习的概念,他利用信息论的理论,将信息论落实到具体的机器上,让机器通过导向性的学习实现自动学习,通过不断犯错来变得更加聪明。虽然香农不算人工智能的直接创造者,他的工作将信息论与工程学结合起来,为人工智能的发展奠定了基础,为未来的发展指明了方向。

(1956年达特茅斯会议‌的核心参与者。从左往右:奥利弗·塞尔弗里奇、‌纳撒尼尔·罗切斯特、雷·所罗门诺夫、马文·明斯基、彼得·米尔纳、约翰·麦卡锡、‌克劳德·香农。图片来源于网络)

真正人工智能的飞跃性发展是到了1986年。1986年,杰弗里·辛顿(Geoffrey Hinton)在《并行分布式处理》(Parallel Distributed Processing)一书中提出了多层次神经网络和反向传播算法的原理。反向传播算法(Backpropagation Algorithm)是一种通过反向计算来调整神经网络权重和偏置的方法,是一种自我迭代的过程。因为神经网络中每个神经元所对应的权重,通过反向传播算法进行调整和优化后,能让模型的预测结果越来越接近真实答案,最终实现更准确的学习任务,并为使用者提供更可靠的结果。这比早期的单向单层次神经网络,以及多层次但没有进行权重和偏置调整的神经网络,要强大得多。

辛顿和他的团队做了几件事情。首先,他们提出了反向传播算法。其次,李飞飞在2006年左右成立了一个名为ImageNet的项目,就是图像网络,她希望能够搜集全世界的图片,并且加以标注,从而形成一个庞大的图片库,以此推动视觉世界的图片识别技术。李飞飞和她的团队最初通过团队成员收集图片,但很快就发现这个方法效率低下,所以他们采用了众筹模式,让全世界的人根据所设定的标签,自愿把这些图片输入到图片库中。他们最终发动了5万到6万人参与,形成了ImageNet图片库。然而,当时的图片识别技术并不理想,正确率只有50%~60%。在这种情况下,2012年李飞飞在一个人工智能大会上展示了ImageNet,并拿出来当作一个公共资源,邀请各个团队开发能够准确识别1500万张图片的系统。辛顿和他的团队就利用卷积神经网络(Convolutional Neural Network,CNN)开发了一个名为AlexNet的系统平台,这个平台通过卷积操作提取图片特征,显著提高了图片识别的准确率,从60%左右提升到了85%以上,这个突破被认为是图像识别领域的一次革命,引发了大家对深度学习的关注。

从某种意义上说,深度学习的热潮始于2012年,由李飞飞和杰弗里·辛顿分别创建的两个系统——ImageNet和AlexNet——所引发,所以才有了2014到2017年期间,谷歌推出的基于注意力机制的Transformer模型。Transformer模型的诞生标志着多模态时代的开启,它能够综合处理视频、音频、文字和图片,并且给出像人类一样的综合性的处理结果。在这个时期,语言模型也从单向的线性处理模型转变为综合性模型,进一步推动了人工智能的发展。

回顾人工智能发展过程的时候,会深刻感受到有两个要素特别重要:第一,人的重要性。所有的改进、发明、革命、创造都是由某个个人或团队推动的,当然这个个人或者团队不可能凭空出现,他们也并不是孤胆英雄,大家都是在前人的基础上不断发展出来的;第二,人类的科技发展一定要有环境支持。之所以前面所说的这些发展基本都出现在美国、欧洲等西方国家,是因为他们从过去到现在一直对科技领域有非常好的支持环境和稳定状态,不受任何外界环境或者其他方面的干涉,这种状态一直延续到今天,这也是为什么硅谷至今仍然是全球科技投资最活跃的地区之一的主要原因。

整个科技发展是不断渐进的过程,渐进的过程中有一个革命性的突破,这个突破常常是出人意料的。比如五年前,我跟人工智能的专家们一起探讨时,他们依然不认为神经网络和深度学习是人工智能的主要突破点,他们当时依然更倾向于限量型人工智能,即通过在某个领域专注研究,并整合该领域内的所有数据,结合专家系统进行方向性研究,从而突破人类的极限。然而后来的神经网络和深度学习,迅速部分替代了这种研究方向。在AlphaGo和ChatGPT推出之前,大模型在全球范围内依然是被质疑的。

人工智能之所以出现大步的发展,也主要得益于两个领域:一是神经网络重新兴起及其带来的深度学习和机器学习;二是硬件算力的支撑。因为深度学习需要大量的算力,这种算力如果没有硬件支撑是做不到的,而这个硬件支撑就来自于英伟达黄仁勋的GPU。黄仁勋坚持了30年,他当初只是为了满足顶级游戏玩家对算力的需求,所以推动了GPU算力硬件的发展,没想到这套东西最后会对世界人工智能的发展起到重大作用。因为当计算机面向人工智能的算力要求不断增加的时候,英伟达的算力芯片就变成了核心需求,比如中国的DeepSeek就储存了非常多英伟达的芯片。所以实际上是人工智能在神经网络系统中的多层次布局,与强大的硬件算力相结合,带来了综合性的结果和效应。

人工智能现在的发展远远超出了我们的想象。在两三年前,我跟国内一些人工智能专家一起探讨,他们说人工智能要在文字编辑、感知能力和图像识别等方面综合起来达到人类水平,至少需要十到十五年,但后来两年不到的时间里,这个事情就发生了。现在又有声音说,几年之后,我们现在所从事的工作70%到80%都有可能被人工智能取代,这并不是危言耸听,也不是天方夜谭。所以我们每个人要思考的是,当人工智能取代了你正在做的事情,你到底要做什么?或者从另一个角度来说,当人工智能取代了现在大部分人所做的工作,且国民经济生产总值保持稳定——因为人工智能的成本远远低于人类工作的成本,到时候国家甚至可能会在你不工作的情况下每个月给你发几千块钱,那时候,你作为一个人活在这个世界上的尊严到底是什么?你个人还能在这个世界做什么事情?

这是每个人都要思考的话题,因为未来AGI一旦出现,并且能够实际应用,它会取代人类三个层面的东西。第一,感知层面。眼耳鼻舌声,甚至包括意。我们能够感知这个世界存在的方方面面,并且把它整合在一起,形成综合性思路的能力,这就是感知层面,视觉、听觉、触觉、味觉等等。当我们感知到这个世界存在的时候,马上进入第二个层面,认知层面。像人类一样对眼前看到的实际情况进行抽象、归纳、推理、总结的能力,比如通过苹果落到地上能推理出万有引力,通过我在吃一颗胃药能推断出我可能肠胃有问题,这些都是认知层面的事情。第三,行动层面。产生认知以后就会产生行动,比如你看到天要下雨,你就会拿把伞出去。

我觉得有些事情,人工智能部分意义上是无法取代的。第一,教育方面,老师的教学内容能够取代,但老师陪伴孩子成长是没法取代的,人工智能的陪伴是没有温度的;第二,吃的体验,人工智能也没法替代,就算未来有食品胶囊,你吃下去可以代替一天、两天甚至三天的能量,但依然替代不了你到大街上撸一串羊肉串,喝一杯啤酒所带来的快乐;第三,玩的体验,这件事情也没法代替,你不能说让人工智能帮我去喜马拉雅山看一看,去转转冈仁波齐,帮我去赛里木湖骑行一圈吧?所以我们要有意无意地做未来人工智能不可取代的事情。

对于我们来说,在面向未来的过程中,我们该如何面对、利用人工智能技术?我自己有一些感受。第一,在短短一年之内,我提问的能力比我过去30年还要强,因为使用人工智能最基础也是最核心的一个要素就是会提问,无论是豆包、DeepSeek,还是文心一言,这些大模型都能用非常通俗的语言、图片跟你交流。多模态未来可能会形成一个无边界的交互系统,能够处理视频、图片、网络、文字等信息,并且生成新的内容。未来可能会把通用人工智能(AGI)和生成式人工智能(Generative AI)结合到一起,形成一种把现实和虚拟结合起来的能力。所以关键在于,当你想利用这些技术的时候,你有没有能力给它们提出要求。

第二,当人工智能能代替你的工作的时候,你应该做什么?普通人可能还没太感觉到人工智能对我们的冲击,因为我们现在还在天天为日常生活而奔忙。面向未来,人工智能的出现一定会代替很多工作,这时候我们应该做什么?我原来跟大家讲过一个例子,我有一次到斯坦福大学演讲,我写了一篇7000字的中文演讲稿,后来花了一天一夜翻译成了英文,而且还让我女儿帮我检查了半天。但我前段时间跟陈行甲老师去联合国做了一个演讲,我也写了一篇3000字的文字稿,但我就让人工智能用了不到1分钟的时间把它翻译成英文,我再花了几分钟的时间改了一些表达习惯,前后不到十分钟的时间,我就得到了这篇英文稿件,直接去联合国朗读、演讲了。

我发现,我到新疆北疆行、内蒙古行时所写的文案,人工智能是完全写不出来的,因为这些文案蕴含了我个人的感悟、意识、热爱、独特见解,而且我把历史、文化、地理、人文、美食和感情结合在一起形成了个人独特的感受,这是人工智能永远做不到的。人工智能没有历史,也没有历史感,它只能基于收集到的信息进行处理和理解,不论是多模态还是大模型,它们输出的内容永远只能作为参考。我们作为人类的存在,是因为我们有自我,有自己的感觉,有自己的判断,有自己的独特性,从这个意义上说,我们要做的事情就比较清晰了,当未来人工智能要取代我们的工作时,我们要思考的是,凭我们现在的能力,哪些是人工智能不能取代的。

第三,在人工智能能够代替我们做很多工作的前提下,未来我们可能一个星期只需要工作一天,甚至连八小时都不需要,而且由于效率增加和成本的降低,社会财富可能还会不断增加,这就会让我们的人生留下一大片空白的时间。在这样的情况下,我们作为人,到底能为自己的自尊、创造和未来世界做什么?这个问题可能来得比我们想象的要快,我们也必须要预料到,当未来的通用人工智能在感知层面、认知层面到行动层面都形成了整体的状态,甚至超越了人类的认知、感知及行动,人类在这个世界上到底应该是怎样的地位和状态?

这几天我一直在读李飞飞老师的《我看见的世界》,这本书2023年出版了英文版,2024年出版了中文版。这本书里大概有1/5的篇章在讲人工智能对人类和社会产生的影响,以及如何让人工智能服务于人类和社会,而不是让人工智能主导人类和社会,以至于最后产生不可控的影响。比如人工智能如何服务医学,如何服务少数族裔,如何消除种族偏见,如何能为这个世界做好事……这是这本书后半部分特别重要的内容。而她的发心来自于她的母亲,她的母亲一辈子身体都不太好,心脏也不太好,动不动就要到医院抢救,在医院的时候医生跟她说,由于人类护士和医生会有来不及照看病人的时候,这导致每年至少有十万本不应该去世的病人最后去世。加上她母亲说的一句话,人工智能到底能为普通老百姓做什么?让她终于意识到,人工智能必须和人类的幸福生活相结合,所以她把人工智能跟现代医学进行了结合,她现在也是当今世界相关领域的主要专家。

在我的印象中,李飞飞就是一个科学家,科学家通常都会比较理性,但她的这本书却带着人性光辉的色彩,读完以后很让人感动。这本书有两条主线:一条主线是她是如何打工、如何生存、如何发展、如何坚守自己对科学的热爱,里面充满了她的情感——她从小在成都长大,她跟父母的关系,她如何喜欢数学、物理学领域,在美国又遇到怎样的困难,最后是怎么成长,怎么遇到老师、贵人鼓励她一路前行;另一条线则是当她进入科学领域后,如何在普林斯顿大学拿本科奖学金,后来在加州理工学院读博士,以及后来到斯坦福大学教书的时候,她是怎样参与了人工智能的发展,尤其是图像识别技术和人工智能结合上的发展,以及当她有了很大的知名度以后,她又做了哪些关于人工智能和人类、社会的思考。

(李飞飞 图片来源于网络)

现在的科技日新月异,李飞飞老师虽然没在书中提到通用人工智能(AGI),但在写完这本书以后,她做了很多相关的事情:她创立了AI4ALL,是一个面向全世界少数族裔和女性的人工智能学习网络系统;她成立了World Labs,致力于结合现有人工智能技术,推动图像识别技术向空间智能领域迈进。World Labs最主要的任务之一就是根据一张图生成一个3D的世界,甚至能生成动画片等等。

现在的科技发展速度之快,连人工智能领域的专家也难以精准预见未来的发展方向,所以未来这个世界到底会发生什么,我们不知道。但我们知道的是,任何科技的发展都不能剥夺我们的生存权,任何社会的发展也必须要让人变得更加有尊严,甚至面向未来要让人变得更加幸福和美好。从这个意义上来说,人工智能就是为人类服务的,所以我从来不担心人工智能能代替我或者代替人类世界人与人之间相处才能形成的温暖,就像AlphaGo能够打败全世界所有的围棋高手,但它依然不影响人与人之间学围棋、比赛。所以大家也不用担心人工智能会把人类消灭掉或者替代掉,因为它永远不可能替代我们读出一本书的乐趣,读出一首诗的乐观,它永远不能替代我们朗读“面朝大海,春暖花开”时的热泪盈眶。人是有温度的,人工智能不管能完成多大的任务,它都是没有温度的。我们欢迎人工智能的来到,也欢迎人工智能代替我们去劳动,但不影响我们作为人在这个世界上的尊严、幸福和未来。

今天关于人工智能的话题就讲到这里了。欢迎大家下载东方甄选APP,我们能提供好物,还能提供好的课程。陈海贤老师已经在东方甄选APP上开课了,未来同期会开设十几门课,包括英语学习的、心理学的、人工智能的、历史的等等,只要下载东方甄选APP就能听。

我们今天就聊到这里了,各位朋友晚安!