2023 年 6 月 13 日
《未来5年一场颠覆性革命必将到来》基辛格100岁基辛格对人类未来发出的警告:未来5年,颠覆性革命要来了!人类还没准备好 美国早读 2023-05-28 21:03 发表于北京  5月27日,是基辛格100岁生日。基辛格在国务卿任期间至少上了15次《时代》封面,被认为是 “世界上不可或缺的人”。他的一生横穿了二战、冷战历史,可以说是近代史上的一面镜子。 他最新的访谈和新书——《人工智能时代与人类未来》中对对人类的未来发出了最新警告,互联网思想特别为你划下重点:  “人类的命运取决于美国和中国能否和平相处” “人工智能这项具有颠覆性潜力的技术可能在五年内成为影响全球安全的关键因素,我们需要就技术对彼此的影响进行交流,朝着军备控制迈出一小步” “纵观军事历史,由于地理和精确度的限制,过去一直做不到消灭所有对手。(而今)这些限制不存在了。每个敌手都100%暴露在攻击下。” “人工智能将在五年内成为安全领域的关键因素。其颠覆性潜力堪比活字印刷术,而正是后者传播思想引发了16、17世纪一系列毁灭性战争。” “我们生活在一个破坏性空前的世界中。” “如果你完全靠通过实力达成目的,你很可能会毁灭世界。” “没有哪个大国可以忽视人工智能的安全维度。” “在人工智能军备控制方面的清醒努力与国家安全并不冲突,它是一种尝试,为的是确保在人类未来的框架下寻求实现安全。” “一个社会的数字能力越强,这个社会就变得越脆弱。” “战争一直是一个充满不确定性和偶然性的领域,但人工智能进入这个领域将为其带来新的变数。” “如果一个国家领导人的合成形象被对手操纵,以制造不和或发布误导性的指令,公众(甚至其他政府和官员)会及时识破这种骗局吗?” “在灾难真正发生之前,我们需要克服,或者至少是遏制这种自动化的驱向。” “当代领导人可以通过将常规能力、核能力、网络能力和人工智能能力广泛而动态地结合在一起,来实现控制武器装备的六大任务。” “对抗和敌对国家的领导人必须准备定期开展相互对话。” “必须对核战略的未解难题给予新的关注,并认识到其本质正是人类在战略、技术和道德方面遭遇的巨大挑战之一。” “网络与人工智能技术的领先大国应该努力界定其理论和限制(即使其所有方面均未被公开),并找出自身理论与竞争大国之间的关联点。” “拥核国家应承诺对其指挥控制系统和早期预警系统进行内部检查。” “世界各国,特别是技术强国,应制定强有力和可接受的方法,在紧张局势加剧和极端情况下尽量延长决策时间。” “主要的人工智能大国应该考虑如何限制军事化人工智能的继续扩散,或者依靠外交手段与武力威胁,开展系统性的防扩散工作。” “要在最具破坏性的能力上实现相互制约,绝不能等到悲剧发生再去亡羊补牢。” “由于大多数人工智能技术具有军民两用特性,我们有责任在这场技术研发竞赛中保持领先。但这也同样迫使我们去理解它的局限性。等到危机来临才开始讨论这些问题就为时已晚了。一旦在军事冲突中使用,人工智能技术的响应速度之快,几乎注定它将以比外交手段更快的速度产生结果。” “我们正处于一个初级阶段,未来机器可能带来全球瘟疫或其他大流行病,给人类造成毁灭的不仅有核问题,任何领域都可能。” “人类需要重新定义与 AI 这种新物种之间的关系,而且我们人类对于这一切还没有准备好。” “启蒙时代是塑造当代世界的诸多思想和行动的来源。” “生成性人工智能提出了一个自启蒙运动开始以来从未经历过的哲学和实践挑战。” “启蒙运动试图使传统的真理让位于解放后的人的分析理性。而互联网的目的是通过积累和操纵不断扩大的数据,获取知识。人类的认知失去了个体特征。个体变成了数据,而数据变成了统治者。” “人们有两种认识世界的传统方式:信仰和理性;如今又添上了第三种——人工智能。” “我们必须动用自己最根本的素养和资源,比如理性、信仰、传统和技术,来调整我们与现实的关系,从而让现实仍是人类的现实。” “随着由人工智能提供和量身定制的教育被引入,普通人的能力既会有所提高,也会面临挑战。” “长此以往,人们可能会更偏爱自己的数字助手,而不是人类。” “数字信息的唾手可得已经改变了一代人的教育和文化体验。” “对机器的依赖将决定并因此改变现实的结构,产生一个我们还不了解的新未来,我们必须为探索和领导这个未来做好准备。” 为了厘清我们在这个世界上的地位,我们的侧重点可能需要从“以人类理性为中心”转移到“以人类尊严和自主性为中心”。 “目前,我们拥有一项新颖而壮观的成就——人工智能,它是人类思想的荣耀。我们还没有为它进化出一个目的地。” “当我们成为技术智人时,我们迫切需要定义我们物种的目的。现在,我们有责任提供真正的答案。” 基辛格在100岁生日这天, 对人类的未来发出了最新警告 “当代既受人敬重又遭人痛恨的政治家自然也包括美国国务卿,而其中没有哪个人比得上基辛格。” 这句对美国前国务卿基辛格的辛辣评价来自著名历史学家尼尔·弗格森《基辛格:理想主义者》一书。  人们总是热衷于讨论基辛格传奇的人生经历。一方面,基辛格在国务卿任期间至少上了15次《时代》封面,被认为是 “世界上不可或缺的人”。他的一生横穿了二战、冷战历史,可以说是近代史上的一面镜子; 但另一方面,他也是各种阴谋论热衷的主角:释放病毒解决人口过剩问题,光明会中最权威的幕后操纵者之一,种族灭绝、大规模屠杀、暗杀、谋杀等罪状更是一应俱全。 5月27日,是基辛格100岁生日。当人们问到他长寿的秘诀时,他说,主要是遗传基因好。此前几天,他还接受了《经济学人》长达8个多小时的采访,思路之清晰让人惊叹: “人类的命运取决于美国和中国能否和平相处,但两国已走上相互冲突的道路” “人工智能这项具有颠覆性潜力的技术可能在五年内成为影响全球安全的关键因素,我们需要就技术对彼此的影响进行交流,朝着军备控制迈出一小步” 作为一个曾对当今世界秩序产生深刻影响的政治家,其洞见迅速引发全球关注。 在自己的生命历程整整走过一个世纪之际,继《论中国》《世界秩序》之后,基辛格再次推出了新书——《人工智能时代与人类未来》,对以上观点进行了深刻论述。   不过要想弄懂基辛格为何对人类前途发出如此告诫,我们首先还是需要回看过去100年,他的人生之路,去一一检视那些烙印在他身上的诸多标签,尽管其中不少甚至有些自相矛盾:“德裔犹太人”vs“美国国务卿”,“战争发动者”vs“诺贝尔和平奖得主”,“丈夫”vs“情人”,“知识分子”vs“政客”,“崇高的理想主义者”vs“冷酷的现实主义者”…… 1 冷酷的现实现实主义者 我终生都在从一个美国人的视角反思如何缔造和平。 ——基辛格 《论中国》 批评基辛格的人几乎众口一词,说他是个现实主义者,真的吗? 美国的外交战略在20世纪前半段经历过从孤立主义到理想主义的反复震荡,这两种看似矛盾的外交战略,都源于其清教立国精神,有着深层的理想主义底色。这并不足以让美国成为完整的超级大国,除非它能够学会老欧洲的均势政治。出身欧洲的基辛格,没有清教当中的那种道德洁癖,对均势政治极为熟稔;因其生活经历,他又对美国的价值观有着深刻认同。在基辛格的手上,理想主义与现实主义获得了一种有机的融合,带来了美国在20世纪后半段重要的外交转型。理解基辛格,是理解美国外交的重要入口。 从艾森豪威尔政府、肯尼迪政府、约翰逊政府,再加上之后的尼克松政府,在长达20多年的时间里,基辛格对于美国外交政策、国际关系的影响力与日俱增。 这产生了一个巨大的悖论,一方面,当时的基辛格,所展现给世人的是极度直接的现实主义智囊面目,他不惮于坦言“有限核战争”,建言用“全面战争”来迫使苏联在美国核心利益问题上作出让步,这使他连续遭到了苏联官方、美国知识分子界的连声谴责;另一方面,他不放弃任何机会来争取和平,虽然他在尼克松胜选总统以前,并没有获得总统授权来表达美国对于国际事务的态度,但是基辛格却频频以白宫政策顾问等边缘身份,表述实际上是他个人对于地缘政治等敏感问题的观点。 1973年9月22日至1977年1月20日,基辛格出任国务卿——以非美裔身份担任美国国务卿的第一人,行政权仅次于总统、副总统。 他是美国迄今历任国务卿中权力最大的一位,被不在少数的批评者认为是没有原则的现实主义者。与中国打破外交坚冰,在美国保守右翼和“自由主义”左翼的许多人看来,等同于出卖台湾;而代表美国政府与越南达成停战协议,这让基辛格获得了诺贝尔和平奖,但同样也遭到了批评。 而在基辛格通过与中国、越南谈判来缓解地区形势的同时,美国政府卷入了智利等拉美国家的军事政变,造成民主选举的政府被颠覆,许多知识分子在混乱中惨遭屠杀或离奇失踪,基辛格本人对于这方面劣迹也并未表示过任何悔意。 所以,从这个意义上讲,虽然中国人将基辛格定义为老朋友,热情接待,寄望甚高(希望他在推动中美关系友好发展的过程中发挥作用),但基辛格本人为了美国利益,向特朗普建言“联俄制中”也就不会生发任何心理负担。 2 100岁,对人类前途的警告 我们生活在一个破坏性空前的世界中。 ——基辛格 《人工智能时代与人类未来》 卸任美国国务卿后,他一直对政界保持着极大的影响力。近年来,基辛格屡屡对中美关系提出各种层面的忠告。 着眼未来,基辛格认为,中美第二个需要对话的领域是人工智能。他说:“我们正处于一个初级阶段,未来机器可能带来全球瘟疫或其他大流行病,给人类造成毁灭的不仅有核问题,任何领域都可能。” 他表示,即使是人工智能专家也不知道它的力量究竟有多大(从这次访问来看,给基辛格浓重、沙哑的德国口音进行录音转写仍然超出了人工智能的能力)。但基辛格认为,人工智能将在五年内成为安全领域的关键因素。其颠覆性潜力堪比活字印刷术,而正是后者传播思想引发了16、17世纪一系列毁灭性战争。 “我们生活在一个破坏性空前的世界中,”基辛格警告道。尽管原则上人类要介入机器学习的反馈循环,但人工智能还是可能成为全自动的、不可阻挡的武器。“纵观军事历史,由于地理和精确度的限制,过去一直做不到消灭所有对手。(而今)这些限制不存在了。每个敌手都 100%暴露在攻击下。” 人工智能不能被废除。因此,中美两国需要在一定程度上对其潜力进行军事利用,将其转化为一股威慑力量。但反过来它们也可以限制人工智能构成的威胁,就像通过军备控制谈判限制核威胁一样。他说:“我认为我们必须就技术对彼此的冲击展开交流,必须开始朝军备控制一点点迈进,双方都向另一方展示有关(人工智能)能力的可控材料。”他认为,谈判本身就有助于建立互信,使两个超级大国有信心保持克制。要诀在于领导人有足够的定力和智慧,能理解为什么不能把人工智能推向极致。“如果你完全靠通过实力达成目的,你很可能会毁灭世界。” 百岁基辛格重磅警告: 人工智能将改变全球安全与世界秩序 2023年,亨利·基辛格已经100岁高龄,但是他头脑依然很清醒,思路依然很清晰。他还是一如既往的参加国际问题的讨论,并且还能给出令人佩服的预测。 《经济学人》在4月底与基辛格进行了长达8个小时的对话。在这次对话中,基辛格表示出了对中美两国围绕科技和经济领先地位日益激烈竞争的担忧,他还担心人工智能即将极大程度地加剧中美对立。基辛格认为,人工智能将在五年内成为安全领域的关键因素,其颠覆性潜力堪比活字印刷术。 “我们生活在一个破坏性空前的世界中”,基辛格警告道。尽管原则上人类要介入机器学习的反馈循环,但人工智能还是可能成为全自动的、不可阻挡的武器。 基辛格一直非常关注人工智能的发展,他曾经说过“搞技术的人关心的是应用,我关心的是影响”。最近,基辛格和谷歌前首席执行官埃里克·施密特、麻省理工学院苏世民学院院长丹尼尔·胡腾洛赫尔还共同完成一本书《人工智能时代与人类未来》,基辛格在这本书中提出,人工智能将重塑全球安全和世界秩序,并对人工智能发展对个体和人类自我身份认同的冲击进行了反思。   自有记载的人类历史起,安全始终是一个有组织的社会追求的最低目标。 在每一个时代,寻求安全的社会都试图将技术进步转化为日益有效的方法,用以监视威胁,练兵备战,施影响于国界之外,战时则用于加强军事力量以取得胜利。对最早期的有组织社会来说,冶金、防御工事、战马蓄养和造船等方面的进步往往具有决定性的意义。到了近代早期,火器枪炮、海军舰船、航海工具和技术方面的创新也发挥了类似的作用。 随着力量的增强,主要大国之间会相互衡量,以评估哪一方会在冲突中获胜,取得这样的胜利会带来什么风险和损失,开战有什么正当的理由,以及另一个大国及其军事力量介入冲突会对结果产生什么影响。不同国家的战力、目标和战略至少在理论上被设定为一种平衡,或者说是一种力量的均衡。 人工智能时代的网络战争 在过去的一个世纪里,对手段和目的的战略调整已然出现了脱节。用于追求安全的技术层出不穷,破坏性也越来越大,而运用这些技术实现既定目标的战略却变得越来越难以捉摸。在当今时代,网络和人工智能的出现又为这些战略计算增加了超乎寻常的复杂性和抽象性。 在冷战结束后的今天,主要大国和其他国家都利用网络能力增强了本国的武器库,这些网络能力的效用主要源自其不透明性和可否认性,在某些情况下,也源自对其在散播虚假信息、收集情报、蓄意破坏和传统冲突的模糊边界上的运用——这构成了种种尚无公认理论教条的战略。与此同时,每一次进步都伴随着新的弱点被揭露。 人工智能时代可能使现代战略之谜更趋复杂化,这并非人类本意,也许还完全超出人类的理解。即使各国不广泛部署所谓的致命自主武器(即经过训练和授权可以自主选择目标,并在没有进一步人类授权的情况下进行攻击的自动或半自动人工智能武器),人工智能仍有可能增强常规武器、核武器和网络能力,从而使对手之间的安全关系更加难以预测和维护,冲突更加难以限制。 没有哪个大国可以忽视人工智能的安全维度。一场争夺人工智能战略优势的竞赛已经开始,尤其是在美国和中国之间,当然还有俄罗斯。随着对他国正在获得某些人工智能能力的认知或猜疑日益蔓延,将会有更多国家寻求获得这些能力。而一旦被引入,这能力就会快速扩散。虽然创造一种复杂的人工智能需要大量的算力,但对其进行增殖扩散或使用它通常并不需要。 解决这些复杂问题的办法既不是陷入绝望,也不是缴械投降。核技术、网络技术和人工智能技术已经存在,其中每一项技术都将不可避免地在战略中发挥作用。我们已不可能退回到这些技术“未被发明”的时代。如果美国及其盟友因这些能力可能产生的影响而畏缩不前,结果不会是一个更和平的世界。相反,那将是一个不太平衡的世界,身处其中的各国会竞相发展和使用最强大的战略能力,而不考虑民主责任和国际平衡。 今后几十年,我们需要实现一种力量平衡,这种平衡既要考虑到网络冲突和大规模虚假信息传播等无形因素,也要考虑到由人工智能辅助的战争的独特属性。残酷的现实迫使人们认识到,即使是在彼此竞争中,人工智能领域的对手们也应致力于限制极具破坏性、不稳定性和不可预测性的人工智能能力的开发和使用。在人工智能军备控制方面的清醒努力与国家安全并不冲突,它是一种尝试,为的是确保在人类未来的框架下寻求实现安全。 一个社会的数字能力越强, 这个社会就变得越脆弱 纵观历史,一个国家的政治影响力往往与其军事力量和战略能力大致匹配,这是一种即使主要通过施加隐性威胁也会对其他社会造成破坏的能力。然而,基于这种力量权衡的均势不是静态的或自我维持的。相反,它首先依赖于各方就这一力量的构成要素及其使用的合法界限达成共识。其次,维持均势需要体系内所有成员,尤其是对手,就各个国家的相对能力、意图和侵略的后果进行一致的评估。最后,保持均势需要一个实际的、公认的平衡。当体系中的一方以一种与其他成员并不成比例的方式增加自身力量时,体系将通过组织对抗力量或者通过适应新的现实来设法做出调整。当均势的权衡变得不确定时,或者当各国对各自相对实力的权衡结果完全不同时,由误算引发冲突的风险就会达到最大。 在当今时代,这些权衡的抽象性更进一步。带来这种转变的原因之一是所谓的网络武器,这类武器涉及军用和民用两个领域,因此其作为武器的地位是模糊的。在某些情况下,网络武器在行使和增强军事力量方面的效用主要源于其使用者未披露其存在或未承认其全部能力。传统上,冲突各方都不难认识到发生了交战,或者认识到交战各方是谁。对手间会计算对方的战力,并评估他们部署武器的速度。可是这些在传统战场上颠扑不破的道理却不能直接套用到网络领域。 常规武器和核武器存在于物理空间中,在那里,它们的部署可以被察觉,它们的能力至少可以被粗略计算出来。相比之下,网络武器的效用很大一部分来自其不透明性;若被公之于众,它们的威力自然有所减损。这些武器利用之前未曾披露的软件漏洞,在未经授权用户许可或知情的情况下侵入网络或系统。在“分布式拒绝服务”(DDoS)攻击(如对通信系统的攻击)的突发事件中,攻击者可能会使用一大堆看似有效的信息请求来压垮系统,使系统无法正常使用。在这种情况下,攻击的真实来源可能被掩盖,使人难以或无法(至少在当时)确定攻击者。即使是最著名的网络工业破坏事件之一——震网(Stuxnet)病毒破坏了伊朗核项目中的制造控制计算机,也没有任何政府对此事做过正式承认。 常规武器和核武器可以相对精确地瞄准目标,道德和法律要求它们瞄准的对象只能是军事力量和设施。而网络武器可以广泛地影响计算和通信系统,往往可对民用系统造成特别有力的打击。网络武器也可以被其他行为体基于其他目的而进行吸纳、修改和重新部署。这使得网络武器在某些方面类似于生物和化学武器,其影响可以非预期和未知的方式传播。在许多情况下,网络武器影响的是大范围的人类社会,而不仅仅是战场上的特定目标。 网络武器的这些用途,使得网络军备控制难以被概念化或被推行。核军备控制的谈判人员可以公开披露或描述一类核弹头,而不必否认该武器的功能。网络军备控制谈判人员(目前尚不存在)则需要解决以下悖论:一旦对网络武器的威力进行讨论,可能就会导致这种威力的丧失(允许对手修补漏洞)或扩散(对手得以复制代码或侵入方法)。 我们所处的数字时代的一个核心悖论是:一个社会的数字能力越强,这个社会就变得越脆弱。计算机、通信系统、金融市场、大学、医院、航空公司和公共交通系统,甚至民主政治的机制,所涉及的系统在不同程度上都容易受到网络操纵或攻击。随着发达经济体将数字指挥和控制系统整合到发电厂和电网中,将政府项目转移到大型服务器和云系统中,并将数据转誊到电子账簿中,它们在网络攻击面前的脆弱性也成倍增加。这些行为提供了更丰富的目标集合,因此仅仅一次成功的攻击就可能造成实质性的破坏。与此相对,如果发生数字破坏的情况,低技术国家、恐怖组织甚至个人攻击者可能会认为他们承受的损失相对要小得多。 人工智能将为战争带来新的变数 各国正在悄无声息地,有时是试探性地,但又确凿无疑地发展和部署那些对各种军事能力的战略行动均有所促进的人工智能,这对安全政策可能产生革命性影响。 战争一直是一个充满不确定性和偶然性的领域,但人工智能进入这个领域将为其带来新的变数。 人工智能和机器学习将通过扩大现有武器类别的打击能力来改变行为者的战略和战术选择。人工智能不仅能使常规武器瞄得更精准,还能使它们以新的、非常规的方式进行瞄准,比如(至少在理论上)瞄准某个特定的个人或物体,而不是某个地点。通过研究大量信息,人工智能网络武器可以学习如何渗透防御,而不需要人类帮它们发现可以利用的软件漏洞。同样,人工智能也可以用于防御,在漏洞被利用之前定位并修复它们。但由于攻击者可以选择目标而防御者不能,人工智能即使未必让进攻方战无不胜,也可令其占得先机。 如果一个国家面对的对手已经训练人工智能来驾驶飞机、独立做出瞄准的决策并开火,那么采用这种技术将在战术、战略或诉诸升级战争规模(甚至是核战)的意愿方面产生什么变化? 人工智能开辟了信息空间能力的新视野,包括虚假信息领域。生成式人工智能可以创造大量似是而非的虚假信息。人工智能推波助澜的信息战和心理战,包括使用伪造的人物、图片、视频和演讲,无时无刻不在暴露出当今社会令人不安的新弱点,尤其是在自由社会。广泛转发的示威活动配上了看似真实的图片和视频,里面的公众人物发表着他们从未真正说过的言论。从理论上讲,人工智能可以决定将这些由人工智能合成的内容以最有效的方式传递给人们,使其符合人们的偏见和期望。 如果一个国家领导人的合成形象被对手操纵,以制造不和或发布误导性的指令,公众(甚至其他政府和官员)会及时识破这种骗局吗? 基辛格: ChatGPT预示着一场智能革命, 而人类还没准备好 2023年,ChatGPT引爆了全球对人工智能的广泛关注。科技界、知识界和产业界,围绕着AI(人工智能)的发展前景、影响冲击等发生激烈争论。而ChatGPT本身正引发一系列深刻的连锁反应,席卷至各个行业、企业、国家乃至个人。 著名外交家、美国前国务卿亨利·基辛格和谷歌前首席执行官埃里克·施密特、麻省理工学院苏世民学院院长丹尼尔·胡腾洛赫尔今年联名在华尔街日报发表文章《ChatGPT预示着一场智能革命》。文章中提出“一项新技术正试图改变人类认知过程,这是自印刷术发明以来从未经历过的震动。这项新技术被称为生成人工智能。OpenAI研究实验室开发的ChatGPT现在能够与人类交流。随着它的能力变得更广泛,它们将重新定义人类知识,加速我们现实构造的变化,并重组政治和社会。” 基辛格已经步入100岁高龄,但是他头脑依然很清醒,思路依然很清晰。一直非常关注人工智能的发展,他曾经说过“搞技术的人关心的是应用,我关心的是影响”。在这边文章中他强烈呼吁“人类需要重新定义与 AI 这种新物种之间的关系,而且我们人类对于这一切还没有准备好。” 近期由基辛格、施密特和胡腾洛赫尔共同完成的新书《人工智能时代与人类未来》出版,从政治、经济、科技等维度探讨人工智能及其改变人类社会的方式,也提出了提出人类在未来几年所必须面对的问题以及解答工具。  人工智能可能导致启蒙运动的终结  1450 年,德国美因茨市的金匠约翰内斯·谷登堡用借来的钱研制了一台试验性的印刷机。他的努力难言成功,因为他的生意一度陷入困境,债权人还起诉了他。但在1455 年,欧洲的第一本印刷读物《四十二行圣经》问世了。最终,他的印刷机引发了一场革命,在西方乃至全球生活的各个领域都产生了强烈反响。 印刷机的发明使对经验知识的追求取代了礼仪教义,启蒙时代逐渐取代宗教时代。个人思想和科学知识取代信仰,成为人类意识的主要标准。信息通过图书馆的扩张得到存储和系统化。启蒙时代是塑造当代世界的诸多思想和行动的来源。 生成性人工智能提出了一个自启蒙运动开始以来从未经历过的哲学和实践挑战。印刷机使学者们能够迅速复制彼此的发现并分享它们。信息的空前整合和传播产生了科学方法。原本密不透风的东西变成了加速查询的起点。以宗教信仰为基础的中世纪对世界的解释逐渐被削弱。宇宙的深处可以被探索,直到达到人类理解的新极限。 启蒙运动试图使传统的真理让位于解放后的人的分析理性。而互联网的目的是通过积累和操纵不断扩大的数据,获取知识。人类的认知失去了个体特征。个体变成了数据,而数据变成了统治者。 一个人工智能可以评估我们生活中的诸般事物,预测接下来会发生什么,并决定该做什么的时代,即一个现实可以被预测、近似和模拟的时代,人类理性的角色将会改变。我们对个人和社会的目标感也会随之改变。在某些领域,人工智能可能会增强人类的理性。在其他领域,人工智能则可能会让人类产生一种置身事外的感觉。 各个社会都有两个选择:一个是各自为战;另一个则是带着合作意向开始对话,举全人类的进步之力来界定人工智能的角色,同时明晰我们自己的角色。前一种路径是弃权式的默认,而后一种则需要领导人和哲学家、科学家和人文主义者,以及其他各种团体的清醒参与。 最终,个人和社会将不得不决定,生活的哪些方面应该留给人类智能,哪些方面则应交由人工智能或人类与人工智能的合作。人类与人工智能的合作并不是一种对等关系。归根结底,人工智能既由人类构建,也由人类指挥。但随着我们逐渐习惯和依赖人工智能,对其加以限制可能会导致更高昂的成本、更困难的心理挑战,甚至更复杂的技术。我们的使命将是了解人工智能给人类经验带来的变化、它对人类身份的挑战,以及这些发展变化的哪些方面需要由其他的人类义务来加以调节或制衡。人类未来将如何呈现,这取决于人类在人工智能时代的角色界定。 人工智能革命发生之迅猛,将超过大多数人的预期。除非我们发展出新的概念来解释、演绎和组织其所带来的转变,否则无论是对人工智能还是对其所产生的影响,我们都无法驾驭。在道德上、哲学上、心理上、实践上,可以说在各个方面,我们均发现自己正处于一个新时代的悬崖边,身后已无路可退。我们必须动用自己最根本的素养和资源,比如理性、信仰、传统和技术,来调整我们与现实的关系,从而让现实仍是人类的现实。 人工智能将引发教育革命 人工智能时代的到来将改变我们与他人,以及我们与自己的关系。正如今天的“数字原生代”和之前的几代人之间存在代沟一样,“人工智能原生代”和他们的前辈之间也会出现差异。 未来,孩子们可能在比Alexas和谷歌Homes更先进的人工智能助手的陪伴下长大,这个助手集保姆、导师、顾问、朋友等多种角色于一身。这样的助手几乎可以教孩子任何语言,也可以训练孩子学习任何科目,并根据每个学生的表现和学习风格来因材施教,使他们获得最佳的学习效果。当孩子感到无聊时,人工智能可以充当玩伴;当孩子的父母不在时,人工智能又可以成为监护者。随着由人工智能提供和量身定制的教育被引入,普通人的能力既会有所提高,也会面临挑战。 人类和人工智能之间的界限将会惊人地模糊。如果孩子在年幼之时就用到了数字助手,他们就会对此习以为常。同时,数字助手将与它们的主人一起成长发展,并随着他们的成熟,将他们的喜好和偏见逐渐内在化。数字助手的任务是通过个性化最大限度地提高人类同伴的便利感或满足感,它们给出的建议和信息可能会被人类用户视为必不可少,即使人类用户无法准确解释为什么它们要好于其他任何替代资源。 长此以往,人们可能会更偏爱自己的数字助手,而不是人类。因为人类不懂得投其所好,而且更“令人讨厌”。结果,我们对彼此的依赖、对人际关系的依赖,可能都会被削弱。到那时,那些童年时代妙不可言的特质和无可替代的教训将变成什么样子呢?一种并不能感知或体验人类情感却给予无处不在陪伴的机器,将如何影响孩子对世界的感知及其社会化?它将如何塑造想象力?它将如何改变游戏的本质?它将如何改变交友或融入社会的过程? 可以这么说,数字信息的唾手可得已经改变了一代人的教育和文化体验。现在,世界正在开展另一项“伟大实验”,在这个实验中,孩子们将在机器的陪伴下成长,这些机器将在许多方面充当以前世代人类教师那样的角色,却没有人类的感觉、洞察力和情感。最终,实验参与者可能会问,他们的经历是否以他们未曾预料或不能接受的方式被改变了呢? 父母也许会因为担心这种接触会对孩子产生不确定的影响而排斥这种技术。就像上一代的父母限制孩子看电视的时间,现在的父母限制孩子使用数码设备的时间一样,未来的父母可能会限制人工智能陪伴孩子的时间。但那些希望推动孩子取得成功的人,或者没有意愿或能力让孩子得到人类父母养育或人类导师教导而只能依赖人工智能的人,或者只是想满足孩子结交人工智能朋友愿望的人,可能会赞成让孩子与人工智能为伴。因此,这些尚处在学习与发展阶段、易受影响的孩子,可能通过与人工智能的对话形成他们对世界的印象。 具有讽刺意味的是,尽管数字化让越来越多的信息变得可用,但它却压缩了深入、专注思考所需的空间。今天几乎持续不断的媒体流增加了思考的成本,从而减少了思考的频率。算法为了回应人类对刺激的渴望而力推那些夺人眼球的事物,而能够夺人眼球的,往往也是戏剧性的、出人意料的和有感染力的。一个人能否在这种环境中找到思考的空间是一个问题,而如今占主导地位的交流形式不利于促进有节制的理性,这是另一个问题。 人类要对未来做好准备 机器学习系统已经超越了任何一个人的知识。在有限的情况下,它们已经超过了人类的知识,超越了我们所认为的可知边界。这已经在取得这种突破的领域引发了一场革命。人工智能已经改变了生物学中确定蛋白质结构的核心问题和高级数学家做证明的问题,以及其他许多问题。 随着模型从人类生成的文本转向更具包容性的输入,机器可能会改变现实本身的结构。量子理论认为,观察创造了现实。在测量之前,没有任何状态是固定的,也没有任何东西可以说是存在的。如果这是真的,如果机器的观察也能固定现实,并且鉴于人工智能系统的观察具有超人的速度,定义现实的演变速度似乎会加快。对机器的依赖将决定并因此改变现实的结构,产生一个我们还不了解的新未来,我们必须为探索和领导这个未来做好准备。 传统的理性和信仰将在人工智能时代继续存在,但其性质和范围必将因为引入一种新的、强有力的、机器运作的逻辑形式而受到深刻影响。人类身份可能会继续停留在“生命智能”的顶峰,但人类理性将不再被视为致力于理解现实的智能的全部。为了厘清我们在这个世界上的地位,我们的侧重点可能需要从“以人类理性为中心”转移到“以人类尊严和自主性为中心”。 人工智能可能在探索和管理现实世界和数字世界方面发挥主导作用。 在特定领域,人类可能会对人工智能言听计从,更喜欢人工智能的数据处理过程,而非人类思维的局限性。这种遵从,可能使许多人甚至大多数人退回到一个个人的、过滤的、定制的世界。在这种情境下,人工智能的力量加上它的普遍性、隐蔽性和不透明性,将引发人们对自由社会甚至自由意志前景的怀疑。 在许多领域,人工智能和人类将成为探索事业中的平等伙伴。因此,人类的身份将反映出与新关系的和解,无论是与人工智能还是与现实。不同的社会将为人类领导权开辟不同的领域。同时,它们将形成必要的社会结构和习惯,以理解人工智能并与其有效互动。为了与人工智能融洽相处,社会需要建立相应知识和心理基础设施,并运用其独特才智,尽可能地造福人类。技术将迫使政治和社会生活的许多方面(实际上是大多数方面)做出调整。 一些社会和制度可能会逐步适应,然而,另一些却可能会发现,它们的基本假设与它们感知现实和自身的方式相冲突。由于人工智能促进了教育和信息获取,同时也增加了信息被夸大和操纵的可能性,这些冲突可能会愈演愈烈。个人的消息会更灵通、准备会更充分、观点会有更大影响力,他们可能据此对政府提出更多要求。 对此,可以给出一些原则。首先,为了确保人类的自主权,政府的核心决策应该脱离已被人工智能浸染的结构,并仅限于人类的管理和监督。我们社会固有的原则规定了对争端的和平解决。在这个过程中,秩序与正当性是互为关联的:没有正当性的秩序只是力量而已。 确保人类对政府基本构成部分的监督和决定性参与,对于维持其正当性至关重要。例如,在司法行政过程中,提供解释和道德推理是其正当性的关键要素,这使参与者能够评估裁决的公平性,并在其结论不符合社会所坚持的道德原则时对其提出疑问。由此可见,在人工智能时代,当涉及重大问题时,决策者都应该是具备相应资质、能够为所做选择给出理由的非匿名人类。 每个社会必须首先确定人工智能在各个领域允许和不允许使用的全部范围。对某些强大的人工智能,如通用人工智能的使用权,需要严格把关,以防止被滥用。因为通用人工智能的构建成本可能相当高昂,只有少数组织能够负担得起,所以其使用可能会受到限制。某些限制可能违反一个社会关于自由企业和民主进程的理念。对于其他方面的限制,如限制在生物武器生产中使用人工智能,应该很容易达成一致,但需要国际合作。 机器的发展速度将远远超过我们的基因,造成国内的混乱和国际的分歧。我们必须做出相应的反应,特别是在国家和全球范围内的哲学和概念主义。正如伊曼纽尔-康德在三个世纪前所预言的那样,全球协调将需要通过感知或灾难来出现。 欧盟已经勾勒出监管人工智能的计划纲要,目标是加强对企业和政府使用数据和人工智能方式的管理,并促进欧洲人工智能公司的创建和发展。该监管框架包括对人工智能的各种用途进行风险评估,并限制甚至禁止政府使用某些被视为具有高风险的技术,如人脸识别(尽管人脸识别有一些有益用途,如寻找失踪人口和打击人口贩运)。毫无疑问,这些初步概念会面临广泛的争议和修改,但这也是一个社会决定限制人工智能范围,并相信此举能够使其推动生活方式进步和未来发展的先例。 ChatGPT对很多问题给出的答案之所以令人回味,是因为它们提出的问题多于结论。目前,我们拥有一项新颖而壮观的成就——人工智能,它是人类思想的荣耀。我们还没有为它进化出一个目的地。当我们成为技术智人时,我们迫切需要定义我们物种的目的。现在,我们有责任提供真正的答案。 《给孩子的人类文明史》全套书12册,原价399元, 限时特惠仅需188元!   免费资源 | (原文+拼音《人工智能时代与人类未来》  作者:亨利·基辛格 埃里克·施密特 丹尼尔·胡滕洛赫尔 出版社:中信出版社 出版时间:2023年06月  亨利·基辛格 哈佛大学博士、教授,美国前国务卿,外交家、国际问题专家。主要著作《论中国》《世界秩序》等。 埃里克·施密特 谷歌前CEO、执行董事长,Alphabet公司(谷歌母公司)前执行董事长。2001—2011年,在他的协助下,谷歌成长为科技行业的全球领航者。 丹尼尔·胡滕洛赫尔 麻省理工学院苏世民计算机学院院长,曾担任康奈尔理工学院的创始院长和副教务长,这是一所由康奈尔大学创建的以数字技术为导向的研究生院。 喜欢此内容的人还喜欢 “火星男孩”预言中国将有大批圣人出现?而且中国还承担着特定使命! 这才是美国华裔家庭最真实的生活,很多年轻人想回国。
By Li, Hua | |