执行摘要
生成式人工智能 (AI) 是一项使机器能够创建文本、图像、代码等内容的技术,近年来经历了爆炸式增长。本白皮书以通俗易懂的方式概述了生成式人工智能的潜力。 可靠地 人工智能如今无需人工干预就能实现哪些功能,以及未来十年的预期发展方向。我们调查了人工智能在写作、艺术、编程、客户服务、医疗保健、教育、物流和金融领域的应用,重点介绍了人工智能在哪些领域可以自主运行,以及哪些领域仍然需要人工监督。文中还列举了现实世界的例子,以说明人工智能的成功之处和局限性。 主要发现包括:
-
广泛采用: 2024 年,65% 的受访公司表示会定期使用生成式人工智能,这一比例几乎是上一年的两倍(2024 年初人工智能的现状 | 麦肯锡)。应用涵盖营销内容创建、客户支持聊天机器人、代码生成等。
-
当前的自主能力: 当今的生成式人工智能能够可靠地处理 结构化、重复性任务 监管力度极小。例如,自动生成公式化的新闻报道(例如公司盈利摘要)(Philana Patterson – ONA 社区简介)、在电商网站上生成产品描述和评论亮点,以及自动完成代码。在这些领域,人工智能通常会通过接管日常内容生成来增强人类工作者的能力。
-
复杂任务的人机交互: 对于更复杂或开放式的任务——例如创意写作、详细分析或医疗建议——通常仍然需要人工监督,以确保事实准确性、伦理判断和质量。如今,许多人工智能部署都采用“人在环”模型,即人工智能起草内容,人工审核。
-
近期改进: 未来 5 到 10 年,生成式人工智能预计将变得更加 可靠且自主模型精度和护栏机制的进步,或许能让人工智能以最少的人工投入处理更多创造性和决策性任务。例如,专家预测,到2030年,人工智能将实时处理大部分客户服务互动和决策。要重新构想向客户体验的转变,营销人员必须做以下两件事),一部主流电影的 90% 内容都可以由人工智能生成(行业和企业的生成式人工智能用例)。
-
到2035年: 我们预计十年后 自主人工智能代理 在许多领域都将变得司空见惯。人工智能导师可以大规模提供个性化教育,人工智能助手可以可靠地起草法律合同或医疗报告以供专家签字,自动驾驶系统(借助生成式模拟)可以端到端地运行物流操作。然而,某些敏感领域(例如高风险的医疗诊断、最终法律裁决)可能仍需要人类判断,以确保安全和问责。
-
道德和可靠性问题: 随着人工智能自主性的增强,人们的担忧也日益加深。目前的问题包括 幻觉 (AI 编造事实)、生成内容的偏见、缺乏透明度以及虚假信息的潜在滥用。确保 AI 能够 值得信赖 在无人监管的情况下运营至关重要。目前已取得进展——例如,各组织正在加大对风险缓解的投资(解决准确性、网络安全、知识产权问题)(人工智能现状:全球调查 | 麦肯锡)——但需要强有力的治理和道德框架。
-
本文结构: 我们首先介绍生成式人工智能以及自主使用与监督使用的概念。然后,针对每个主要领域(写作、艺术、编程等),我们将讨论人工智能目前能够可靠地完成哪些任务,以及未来将如何发展。最后,我们将提出跨领域挑战、未来预测,以及负责任地利用生成式人工智能的建议。
总体而言,生成式人工智能已被证明能够在无需人类持续指导的情况下处理一系列令人惊讶的任务。通过了解其当前的局限性和未来的潜力,组织和公众可以更好地为一个人工智能不再仅仅是工具,而是工作和创造力的自主协作者的时代做好准备。
介绍
人工智能早已能够 分析 数据,但直到最近,人工智能系统才学会 创造 ——写散文、创作图像、编写软件等等。这些 生成式人工智能 模型(例如用于文本的 GPT-4 或用于图像的 DALL·E)在海量数据集上进行训练,以响应提示生成新颖的内容。这一突破引发了各行各业的创新浪潮。然而,一个关键问题随之而来: 我们究竟能相信人工智能能够独立完成什么任务,而无需人类对其输出进行双重检查?
要回答这个问题,重要的是要区分 监督 和 自主 人工智能的用途:
-
人类监督的人工智能 指的是人工智能输出在最终定稿前需要人工审核或筛选的场景。例如,记者可能会使用人工智能写作助手撰写文章,但最终由编辑进行编辑和审批。
-
自主人工智能 (无需人工干预的人工智能)是指能够执行任务或生成内容并直接投入使用的人工智能系统,几乎无需人工编辑。例如,自动聊天机器人无需人工代理即可解决客户查询,或者新闻机构自动发布由人工智能生成的体育赛事比分摘要。
生成式人工智能已在两种模式下得到部署。 2023-2025 年,采用率将大幅提升各大企业都在积极尝试。2024 年的一项全球调查发现,65% 的公司正在定期使用生成式人工智能,而一年前这一比例仅为三分之一左右(2024 年初人工智能的现状 | 麦肯锡)。个人也开始使用 ChatGPT 之类的工具——预计到 2023 年中期,79% 的专业人士至少接触过生成式人工智能(2023 年人工智能现状:生成式人工智能的突破之年 | 麦肯锡)。这种快速发展得益于其对效率和创造力提升的承诺。然而,人工智能仍处于“早期阶段”,许多公司仍在制定如何负责任地使用人工智能的政策。2023 年人工智能现状:生成式人工智能的突破之年 | 麦肯锡)。
自治为何重要: 让人工智能在无人监督的情况下运行,可以带来巨大的效率提升——彻底自动化繁琐的任务——但这也提高了可靠性的风险。自主的人工智能代理必须做到正确无误(或了解其极限),因为可能没有人类实时发现错误。有些任务比其他任务更适合这样做。通常,人工智能在以下情况下表现最佳:
-
该任务有一个 清晰的结构或模式 (例如,根据数据生成例行报告)。
-
错误风险低或容易容忍 (例如,如果不令人满意,可以丢弃图像生成,而不是医学诊断)。
-
有充足的 训练数据 涵盖场景,因此 AI 的输出以真实的例子为基础(减少猜测)。
相反, 开放式, 高风险或需要细致判断的事情如今不太适合零监督。
在以下章节中,我们将探讨一系列领域,以了解生成式人工智能的现状和未来发展方向。我们将通过具体案例——从人工智能撰写的新闻文章和人工智能生成的艺术作品,到代码编写助手和虚拟客服人员——重点介绍哪些任务可以由人工智能端到端完成,哪些任务仍然需要人工参与。对于每个领域,我们都将当前能力(大约 2025 年)与 2035 年可能实现的可靠现实预测进行清晰区分。
通过描绘跨领域自主人工智能的现状和未来,我们旨在为读者提供一个平衡的理解:既不过度炒作人工智能神奇般地万无一失,也不低估其真实存在且不断增长的能力。在此基础上,我们将探讨在无人监管的情况下信任人工智能所面临的主要挑战,包括伦理考量和风险管理,最后总结出一些关键要点。
写作和内容创作中的生成式人工智能
生成式人工智能最早引起轰动的领域之一是文本生成。大型语言模型可以生成各种内容,从新闻文章、营销文案到社交媒体帖子和文档摘要。但是,这些写作有多少可以在没有人工编辑的情况下完成呢?
当前能力(2025年):人工智能作为日常内容的自动编写者
如今,生成式人工智能正在可靠地处理各种 日常写作任务 几乎无需人工干预。新闻业就是一个典型的例子:美联社多年来一直使用自动化技术,直接从财务数据源生成每季度数千份公司收益报告(Philana Patterson – ONA 社区简介这些简短的新闻报道遵循模板(例如,“X公司报告盈利Y,上涨Z%……”),而人工智能(使用自然语言生成软件)可以比任何人类更快地填充数字和措辞。美联社的系统自动发布这些报道,大大扩展了其覆盖范围(每季度超过3000篇报道),而无需人工撰写(自动盈利故事层出不穷 | 美联社)。
体育新闻报道也得到了类似的增强:人工智能系统可以收集体育比赛统计数据并生成回顾报道。由于这些领域是数据驱动且公式化的,只要数据正确,错误就很少发生。在这些情况下,我们看到 真正的自治 – 人工智能撰写内容并立即发布。
企业也在使用生成式人工智能来撰写产品描述、电子邮件简报和其他营销内容。例如,电商巨头亚马逊现在使用人工智能来汇总客户对产品的评论。人工智能会扫描许多个人评论的文本,并生成一个简洁的突出显示段落,以突出人们对该产品的喜好,然后将其显示在产品页面上,无需手动编辑。亚马逊利用人工智能改善客户评论体验)。 下面是一个例子 该功能部署在亚马逊的移动应用程序上,其中“客户评价”部分完全由人工智能根据评论数据生成:
(亚马逊利用人工智能改善客户评论体验) 电商产品页面上的人工智能生成的评论摘要。亚马逊的系统将用户评论中的共同点(例如易用性、性能)总结成一个简短的段落,并向购物者展示“人工智能根据顾客评论文本生成的评论”。
这些用例表明 当内容遵循可预测的模式或从现有数据中聚合时,人工智能通常可以单独处理. 其他当前的例子包括:
-
天气和交通更新: 媒体使用人工智能根据传感器数据编制每日天气报告或交通公告。
-
财务报告: 公司自动生成简单的财务摘要(季度业绩、股市简报)。自2014年以来,彭博社和其他新闻机构一直使用人工智能协助撰写公司盈利新闻摘要——一旦输入数据,这一过程基本上就会自动运行(美联社的“机器人记者”现在正在撰写自己的故事 | The Verge)(怀俄明州记者被抓利用人工智能制造虚假引言和故事)。
-
翻译和转录: 如今,转录服务利用人工智能生成会议记录或字幕,无需人工打字。虽然这些语言任务并非创造性地生成,但它们能够自主运行,并具有高精度,从而确保音频清晰。
-
草稿生成: 许多专业人士使用 ChatGPT 等工具来起草电子邮件或文档的初版,如果内容风险较低,偶尔会几乎不做任何编辑就发送。
然而, 对于更复杂的散文,到 2025 年,人工监督仍是常态新闻机构很少直接发布来自人工智能的调查性或分析性文章——编辑会核实事实并完善人工智能撰写的草稿。人工智能可以 模仿风格和结构 效果很好,但可能会引入事实错误(通常称为“幻觉”)或人类需要捕捉的尴尬措辞。例如,德国报纸 表达 引入了一位名为Klara的人工智能“数字同事”,帮助撰写新闻稿。Klara可以高效地撰写体育报道,甚至可以撰写吸引读者的标题,为《快报》11%的文章做出了贡献——但 人类编辑仍然会审查每篇文章的准确性和新闻完整性,尤其是复杂的故事 (记者在新闻编辑室使用人工智能工具的 12 种方式 - Twipe)。这种人机合作如今很常见:人工智能负责生成文本的繁重工作,而人类则根据需要进行整理和修改。
2030-2035年展望:迈向可信自主写作
未来十年,我们预计生成式人工智能将在生成高质量、符合事实的文本方面变得更加可靠,这将拓宽其能够自主处理的写作任务范围。以下几个趋势支持了这一观点:
-
提高准确性: 正在进行的研究正在迅速降低人工智能生成虚假或不相关信息的倾向。到2030年,经过更完善训练的高级语言模型(包括实时与数据库核实事实的技术)将能够在内部实现接近人类水平的事实核查。这意味着人工智能可以自动从源材料中提取正确的引文和统计数据,撰写一篇完整的新闻稿,几乎无需任何编辑。
-
特定领域的AI: 我们将看到更专业的生成模型,并针对特定领域(法律、医学、技术写作)进行微调。2030年的法律AI模型或许能够可靠地起草标准合同或总结案例——这些任务结构公式化,但目前需要律师投入大量时间。如果AI接受过经过验证的法律文件的训练,其草稿或许足够可靠,律师只需快速浏览一下即可。
-
自然风格和连贯性: 模型在长文档中保持上下文的能力越来越强,从而能够生成更加连贯、切题的长篇内容。到2035年,人工智能有望独立创作出一本像样的非虚构类书籍或技术手册的初稿,而人类主要扮演顾问的角色(例如设定目标或提供专业知识)。
这在实践中会是什么样子? 常规新闻报道 在某些领域,人工智能几乎可以完全自动化。到2030年,我们可能会看到一家新闻机构用人工智能系统撰写每一份收益报告、体育报道或选举结果更新的初稿,而编辑只需抽取少数内容进行质量保证。事实上,专家预测,越来越多的在线内容将由机器生成——行业分析师的一项大胆预测表明 到 2026 年,高达 90% 的在线内容可能由人工智能生成 (到 2026 年,非人类生成的在线内容将远远超过人类生成的内容 — OODAloop),尽管这个数字尚有争议。即使是更保守的结果也意味着,到2030年代中期,大多数日常网络文章、产品文案,甚至个性化新闻推送都将由人工智能撰写。
在 市场营销和企业传播生成式人工智能很可能会被委托自主运行整个营销活动。它可以生成并发送个性化营销邮件、社交媒体帖子和广告文案变体,并根据客户反应不断调整信息内容——所有这些都无需人工文案的介入。Gartner 分析师预测,到 2025 年,至少 30% 的大型企业外向营销信息将由人工智能合成生成。行业和企业的生成式人工智能用例),而且到2030年这一比例还只会上升。
然而,需要注意的是 人类的创造力和判断力仍将发挥作用,尤其是对于高风险的内容到2035年,人工智能或许能够独立处理新闻稿或博客文章,但对于涉及问责或敏感话题的调查性新闻报道,媒体机构可能仍会坚持人工监督。未来可能会出现一种分层模式:人工智能自主制作大部分日常内容,而人类则专注于编辑和制作战略性或敏感内容。本质上,随着人工智能能力的提升,“常规”工作的界限将会扩大。
此外,新形式的内容,例如 人工智能生成的交互式叙述或个性化报告 未来可能会出现。例如,人工智能可以生成多种风格的公司年度报告——面向高管的简报、面向员工的叙述版本、面向分析师的数据丰富版本——每种版本都基于相同的基础数据自动生成。在教育领域,人工智能可以动态编写教科书,以适应不同的阅读水平。这些应用程序可以在很大程度上实现自动化,但以经过验证的信息为基础。
书面轨迹表明,到 2030 年代中期, 人工智能将成为一位多产的作家真正自主运行的关键在于建立对其输出的信任。如果人工智能能够始终如一地展现事实准确性、文体质量并符合道德标准,那么逐行人工审核的需求将会减少。到2035年,这份白皮书的某些部分很可能由人工智能研究人员起草,而无需编辑——只要有适当的保障措施到位,我们对这一前景持谨慎乐观的态度。
视觉艺术与设计中的生成式人工智能
生成式人工智能 (Generative AI) 创造图像和艺术作品的能力激发了公众的想象力,从赢得艺术比赛的 AI 生成画作,到与真实素材难以区分的深度伪造视频。在视觉领域,诸如生成对抗网络 (GAN) 和扩散模型(例如稳定扩散 (Stable Diffusion)、Midjourney)之类的 AI 模型可以根据文本提示生成原始图像。那么,人工智能现在可以充当自主艺术家或设计师的角色吗?
当前能力(2025年):人工智能作为创意助手
截至 2025 年,生成模型能够熟练地创建 按需图像 保真度令人印象深刻。用户可以要求图像人工智能绘制“梵高风格的中世纪日落城市”,并在几秒钟内获得令人信服的艺术图像。这使得人工智能在平面设计、市场营销和娱乐领域得到广泛应用,可用于概念艺术、原型设计,甚至在某些情况下用于最终视觉效果。值得注意的是:
-
平面设计与库存图片: 公司通过人工智能生成网站图形、插图或库存照片,从而减少了每件作品都委托艺术家创作的需要。许多营销团队使用人工智能工具制作各种广告或产品图片,以测试哪些内容能吸引消费者。
-
艺术与插图: 个人艺术家与人工智能合作,集思广益或完善细节。例如,插画家可能会使用人工智能生成背景场景,然后将其与人类绘制的角色融合在一起。一些漫画创作者已经尝试使用人工智能生成画板或着色。
-
媒体和娱乐: AI 生成的艺术作品已出现在杂志封面和书籍封面上。一个著名的例子是 2022 年 8 月 大都会 封面上是一位宇航员——据报道,这是第一张由人工智能(OpenAI 的 DALL·E)在艺术总监指导下创作的杂志封面图片。虽然这其中涉及人工的提示和选择,但实际的艺术作品是由机器渲染的。
至关重要的是, 目前大多数用途仍然需要人工管理和迭代人工智能可以输出几十张图片,然后人类会从中选择最好的一张,并可能对其进行润色。从这个意义上讲,人工智能正在自主地 生产 虽然有很多选项,但人类仍在引导创意方向并做出最终选择。AI 可以快速生成大量内容,但无法保证一次性满足所有要求。诸如细节错误(例如,AI 画的手的手指数量错误,这是一个已知的怪癖)或结果不符合预期等问题,通常需要人类艺术总监来监督输出质量。
然而,在某些领域,人工智能已经接近完全自主:
-
生成设计: 在建筑和产品设计等领域,AI 工具可以自主创建满足特定约束条件的设计原型。例如,给定一件家具所需的尺寸和功能,生成式算法可能会输出几种可行的设计(其中一些设计非常独特),无需人工干预,使其超出初始规格。这些设计随后可以被人类直接使用或改进。同样,在工程领域,生成式 AI 可以设计针对重量和强度进行优化的零件(例如飞机部件),从而创造出人类可能从未想过的新颖形状。
-
电子游戏资产: AI 可以为电子游戏自动生成纹理、3D 模型,甚至整个关卡。开发者利用这些技术来加速内容创作。一些独立游戏已经开始融入程序生成的艺术作品,甚至对话(通过语言模型),以极少的人工资源创造出广阔而动态的游戏世界。
-
动画和视频(新兴): 虽然视频生成 AI 技术不如静态图像成熟,但其正在不断发展。AI 已经可以根据提示生成短视频或动画,尽管质量参差不齐。Deepfake 技术(一种生成技术)可以制作逼真的换脸或语音克隆。在受控的环境中,工作室可以使用人工智能自动生成背景场景或人群动画。
值得注意的是,Gartner 预测,到 2030 年,我们将看到 90% 内容由人工智能生成的大型电影 (从脚本到视觉效果)(行业和企业的生成式人工智能用例截至2025年,我们还没有实现这一目标——AI还无法独立制作一部长篇电影。但这个难题的各个部分正在发展:剧本生成(文本AI)、角色和场景生成(图像/视频AI)、配音(AI语音克隆)以及剪辑辅助(AI已经可以辅助剪辑和转场)。
2030-2035年展望:人工智能生成的媒体规模化
展望未来,生成式人工智能在视觉艺术和设计领域的作用将大幅扩展。到 2035 年,我们预计人工智能将成为 主要内容创建者 在许多视觉媒体中,除了初始指导之外,通常只需要极少的人工输入即可运行。以下是一些预期:
-
完全由人工智能生成的电影和视频: 未来十年,我们很有可能看到首批主要由人工智能制作的电影或电视剧。人类可能会提供高级指导(例如剧本大纲或所需的风格),然后人工智能将渲染场景、创建演员肖像并制作所有动画。短片的早期实验可能在几年内完成,到2030年代,长片的尝试将会出现。这些人工智能电影最初可能只是小众作品(例如实验动画),但随着质量的提高,它们可能会成为主流。Gartner 预测,到2030年,90%的电影将由人工智能制作(行业和企业的生成式人工智能用例) 虽然雄心勃勃,但也凸显了业界的信念:人工智能内容创作将足够复杂,能够承担电影制作的大部分负担。
-
设计自动化: 在时尚或建筑等领域,生成式人工智能很可能被用于根据“成本、材料、X 风格”等参数自主绘制数百个设计方案,最终由人类来选择。这将颠覆当前的格局:未来的设计师不再是从零开始创作,或许还会借助人工智能来获取灵感,而是更多地扮演策展人的角色,挑选出最佳的人工智能生成设计,并对其进行修改。到 2035 年,建筑师或许只需输入建筑需求,就能从人工智能那里获得完整的蓝图建议(所有这些蓝图都基于嵌入式工程规则,结构合理)。
-
个性化内容创作: 我们或许会看到人工智能为个人用户即时创作视觉效果。想象一下,在2035年的电子游戏或虚拟现实体验中,场景和角色会根据玩家的喜好进行调整,并由人工智能实时生成。又或者,根据用户的一天生活生成个性化的漫画——一个自主的“每日日记漫画”人工智能,每天晚上自动将你的文字日记转换成插图。
-
多模式创造力: 生成式人工智能系统日益趋向多模态化——这意味着它们可以同时处理文本、图像、音频等。通过整合这些内容,人工智能可以接收一个简单的提示,例如“为我制作一个产品 X 的营销活动”,它不仅可以生成文字文案,还可以生成匹配的图形,甚至是风格一致的短片宣传视频。这种一键式内容套件很可能在 2030 年代初成为现实。
威尔·艾 取代人类艺术家这个问题经常被提出。人工智能很可能会接管大量的生产工作(尤其是商业所需的重复性或快速周转的艺术),但人类的艺术才能仍将保留下来,用于原创和创新。到 2035 年,自主人工智能可能会可靠地以著名艺术家的风格绘制一幅画——但创造 新的 风格或具有深刻文化共鸣的艺术创作或许仍是人类的强项(或许可以借助AI的帮助)。我们预见未来,人类艺术家将与自主的AI“合作艺术家”携手合作。例如,人们可以委托个人AI持续创作艺术品,例如在家中的数字画廊创作,营造不断变化的创意氛围。
从可靠性的角度来看,视觉生成人工智能在某些方面比文本更容易实现自主:图像即使不完美,也可以主观地“足够好”,而文本中的事实错误则更成问题。因此,我们已经看到相对 低风险采用 如果人工智能生成的设计丑陋或错误,你根本就不会使用它,但它本身并不会造成任何损害。这意味着到2030年代,企业可能会放心地让人工智能在无人监督的情况下大量生产设计,只有在真正需要创新或有风险的时候才需要人类参与。
总而言之,到2035年,生成式人工智能预计将成为视觉领域强大的内容创造者,很可能负责我们周围很大一部分图像和媒体。它将可靠地为娱乐、设计和日常交流生成内容。自主艺术家即将出现——尽管人工智能是否被视为 有创造力的 或者仅仅是一个非常智能的工具,随着其输出变得与人造产品难以区分,这一争论将会继续发展。
软件开发中的生成式人工智能(编码)
软件开发看似是一项高度分析性的任务,但它也蕴含着创造性的元素——编写代码本质上是用结构化语言创建文本。现代生成式人工智能,尤其是大型语言模型,已被证明在编码方面非常出色。GitHub Copilot、Amazon CodeWhisperer 等工具可以充当 AI 结对编程员,在开发人员输入代码时提供代码片段甚至整个函数的建议。这在实现自主编程方面能走多远?
当前能力(2025年):人工智能作为编码副驾驶
到 2025 年,AI 代码生成器将在许多开发人员的工作流程中变得普遍。这些工具可以自动完成代码行,生成样板代码(例如标准函数或测试),甚至可以根据自然语言描述编写简单的程序。但至关重要的是,它们在开发人员的监督下运行——开发人员审查并整合 AI 的建议。
一些当前的事实和数据:
-
到 2023 年底,超过一半的专业开发人员已经采用了人工智能编码助手(Copilot 上的编码:2023 年数据显示代码质量面临下行压力(包括 2024 年预测)- GitClear),表明其应用速度很快。据报道,GitHub Copilot 是首批广泛使用的工具之一,平均为使用它的项目中生成了 30-40% 的代码(编码不再是护城河。GitHub 上 46% 的代码已经……)这意味着人工智能已经编写了大量代码,尽管是由人类来引导和验证的。
-
这些 AI 工具擅长执行诸如编写重复性代码(例如数据模型类、getter/setter 方法)、将一种编程语言转换为另一种编程语言,或生成类似于训练示例的简单算法等任务。例如,开发人员可以注释“// 按姓名对用户列表进行排序的函数”,AI 几乎可以立即生成合适的排序函数。
-
他们还协助 错误修复和解释:开发人员可以粘贴一条错误消息,AI 可能会建议修复方案,或者询问“这段代码的作用是什么?”并获得自然语言解释。从某种意义上说,这是自主的(AI 可以自行诊断问题),但是否应用修复方案则由人类决定。
-
重要的是,目前的人工智能编程助手并非万无一失。它们可能会建议不安全的代码,或者 几乎 解决了问题,但有一些细微的 bug。因此,目前的最佳做法是 保持人员参与 开发人员可以像测试和调试人类代码一样测试和调试AI代码。在受监管的行业或关键软件领域(例如医疗或航空系统),任何AI贡献都需经过严格审查。
目前,没有哪个主流软件系统是完全由人工智能从零开始编写,且无需开发人员监督的。然而,一些自主或半自主的用途正在兴起:
-
自动生成的单元测试: AI 可以分析代码并生成单元测试,以涵盖各种情况。测试框架可以自主生成并运行这些 AI 编写的测试来捕获错误,从而增强人工编写的测试。
-
具有 AI 的低代码/无代码平台: 一些平台允许非程序员描述他们的需求(例如,“构建一个带有联系表单和数据库以保存条目的网页”),然后系统生成代码。虽然目前仍处于早期阶段,但这预示着未来人工智能可以自主创建用于标准用例的软件。
-
脚本和粘合代码: IT 自动化通常涉及编写脚本来连接系统。AI 工具通常可以自动生成这些小脚本。例如,编写一个脚本来解析日志文件并发送电子邮件警报——AI 只需极少的编辑甚至无需编辑即可生成一个可用的脚本。
2030-2035年展望:迈向“自主开发”软件
未来十年,生成式人工智能预计将承担更大比例的编码工作,使某些类型的项目更接近完全自主的软件开发。以下是一些预期的发展:
-
完整功能实现: 到 2030 年,我们预计人工智能将能够端到端地实现简单的应用程序功能。产品经理可以用通俗易懂的语言描述一项功能(“用户应该能够通过电子邮件链接重置密码”),人工智能就能生成必要的代码(前端表单、后端逻辑、数据库更新、电子邮件发送),并将其集成到代码库中。人工智能将有效地扮演初级开发人员的角色,遵循规范。而人类工程师可能只需要进行代码审查和运行测试。随着人工智能可靠性的提高,代码审查甚至可能只是快速浏览一下。
-
自主代码维护: 软件工程的很大一部分不仅仅是编写新代码,还包括更新现有代码——修复错误、提升性能、适应新需求。未来的人工智能开发者很可能会擅长这些。给定一个代码库和一个指令(“当太多用户同时登录时,我们的应用程序会崩溃”),人工智能可能会找到问题所在(例如并发错误)并进行修补。到2035年,人工智能系统可能会在夜间自动处理例行维护工单,成为软件系统不知疲倦的维护团队。
-
集成和 API 使用: 随着越来越多的软件系统和 API 附带 AI 可读文档,AI 代理可以通过编写粘合代码,独立地找出如何将系统 A 与服务 B 连接起来。例如,如果一家公司希望其内部人力资源系统与新的薪资 API 同步,他们可能会要求 AI“让它们相互通信”,然后在读取两个系统的规范后,AI 会编写集成代码。
-
质量和优化: 未来的代码生成模型可能会结合反馈循环来验证代码是否有效(例如,在沙箱中运行测试或模拟)。这意味着人工智能不仅可以编写代码,还能通过测试进行自我修正。到2035年,我们可以想象人工智能在接到任务后,会不断迭代其代码,直到所有测试都通过——这个过程可能不需要人类逐行监控。这将大大提升人们对自主生成代码的信任。
我们可以设想这样一个场景:到2035年,一个小型软件项目——比如一个为企业定制的移动应用程序——将主要由人工智能代理根据高层指令进行开发。在这种情况下,人类“开发者”更像是一个项目经理或验证者,负责指定需求和约束(例如安全性、代码风格指南),并让人工智能完成实际编码的繁重工作。
然而,对于复杂的大型软件(操作系统、先进的人工智能算法本身等),人类专家仍将深度参与。软件中的创造性问题解决和架构设计可能在一段时间内仍由人类主导。人工智能或许可以处理大量的编码任务,但决定 什么 构建和设计整体结构是另一项挑战。话虽如此,随着生成式人工智能开始协作——多个人工智能代理处理系统的不同组件——可以想象它们可以在某种程度上共同设计架构(例如,一个人工智能提出一个系统设计方案,另一个人工智能对其进行评审,然后它们进行迭代,由人类监督整个过程)。
人工智能在编码方面的主要预期好处是 生产力放大Gartner 预测,到 2028 年,90% 的软件工程师将使用 AI 代码助手(2024 年这一比例还不到 15%)(GitHub Copilot 位居 AI 代码助手研究报告榜首——Visual Studio Magazine)。这意味着,那些不使用人工智能的异常值将会很少。我们还可能看到某些领域人类开发人员的短缺,而人工智能会填补这一空白;本质上,每个开发人员都可以借助能够自主编写代码的人工智能助手做更多的事情。
信任仍将是一个核心问题。即使到了2035年,组织仍需确保自主生成的代码的安全性(AI不得引入漏洞),并符合法律/道德规范(例如,AI不得包含未经适当许可的开源库中抄袭的代码)。我们期待改进的AI治理工具能够验证和追踪AI编写代码的来源,从而帮助实现更自主的编码,避免风险。
总而言之,到 2030 年代中期,生成式人工智能很可能承担大部分常规软件任务的编码工作,并在复杂任务中提供显著协助。软件开发生命周期将更加自动化——从需求到部署——人工智能有可能自动生成和部署代码更改。人类开发人员将更多地关注高级逻辑、用户体验和监督,而人工智能代理则负责处理实现细节。
客户服务和支持中的生成式人工智能
如果您最近曾与在线客服聊天互动,那么很有可能至少有一部分对话是由人工智能完成的。客户服务是一个非常适合人工智能自动化的领域:它涉及响应用户查询,而生成式人工智能(尤其是对话模型)在这方面表现相当出色;此外,它通常遵循脚本或知识库文章,而这些是人工智能可以学习的。那么,人工智能能够自主地处理客户问题吗?
当前能力(2025):聊天机器人和虚拟代理占据前沿
截至目前,许多组织部署 人工智能聊天机器人作为第一接触点 在客户服务领域。这些机器人种类繁多,从简单的基于规则的机器人(“按 1 进行结算,按 2 获取支持……”),到能够解释自由形式问题并以对话方式做出回应的高级生成式人工智能聊天机器人。要点:
-
处理常见问题: AI 代理擅长解答常见问题、提供信息(例如营业时间、退款政策、已知问题的排查步骤),并指导用户完成标准流程。例如,银行的 AI 聊天机器人可以自主帮助用户查询账户余额、重置密码或解释如何申请贷款,而无需人工协助。
-
自然语言理解: 现代生成模型能够实现更流畅、更“人性化”的交互。客户可以用自己的语言输入问题,AI 通常能够理解其意图。公司报告称,如今的 AI 代理比几年前笨重的机器人更能满足客户的需求——近一半的客户现在认为 AI 代理在解决问题时能够富有同理心且有效。2025年59项AI客户服务统计数据),显示出人们对人工智能驱动服务的信任度日益增强。
-
多渠道支持: AI 的应用范围不仅仅局限于聊天。语音助手(例如搭载 AI 的电话 IVR 系统)也开始处理通话,AI 还可以针对客户咨询撰写电子邮件回复,如果回复准确,回复可能会自动发送。
-
当人类介入时: 通常情况下,如果人工智能感到困惑,或者问题过于复杂,它就会把问题交给人类代理。目前的系统擅长 了解他们的极限 在很多情况下,AI 都会这样做。例如,如果客户提出一些不寻常的问题或表现出沮丧(“这是我第三次联系您了,我非常沮丧……”),AI 可能会标记这种情况,并让人工客服接手。交接的门槛由公司设定,以平衡效率和客户满意度。
许多公司报告称,相当一部分互动仅靠人工智能就能解决。根据行业调查,目前约有70-80%的常规客户咨询可以由人工智能聊天机器人处理,约40%的公司跨渠道客户互动已经实现自动化或人工智能辅助。你应该知道的 52 个 AI 客户服务统计数据 - PlivoIBM 的《全球人工智能采用指数》(2022 年)显示,到 2025 年,80% 的公司将使用或计划使用人工智能聊天机器人进行客户服务。
一个有趣的发展是,人工智能不仅能回应客户,而且 主动协助人类代理 实时。例如,在实时聊天或通话过程中,人工智能可能会倾听并立即向人工客服提供建议答案或相关信息。这模糊了自主性的界限——人工智能并非独自面对客户,而是主动参与,无需人工明确询问。它实际上充当了客服的自主顾问。
2030-2035年展望:客户互动将主要由人工智能驱动
到2030年,预计大多数客户服务互动都将涉及人工智能,许多互动将完全由人工智能处理。以下预测和趋势支持这一观点:
-
解决了更高复杂度的查询: 随着人工智能模型整合海量知识并提升推理能力,它们将能够处理更复杂的客户请求。未来的人工智能将不再仅仅回答“如何退货?”,而是能够处理诸如“我的网络断了,我试过重启,请问您能帮忙吗?”等多步骤问题。它通过对话诊断问题,引导客户进行高级故障排除,并且只有在其他所有方法都失败时才会安排技术人员——而这些任务在今天很可能需要人工支持。在医疗保健客户服务领域,人工智能可以端到端地处理患者预约或保险咨询。
-
端到端服务解决方案: 我们可能会看到人工智能不仅告诉客户该做什么,而且实际上 做这件事 在后端系统中代表客户。例如,如果客户说“我想将航班改到下周一,并添加一个行李”,2030 年的 AI 代理可能会直接与航空公司的预订系统交互,执行更改、处理行李付款并向客户确认——所有操作均自主完成。AI 将成为一个全方位服务的代理,而不仅仅是一个信息来源。
-
无处不在的AI代理: 企业可能会在所有客户接触点部署人工智能——电话、聊天、电子邮件、社交媒体。许多客户甚至可能意识不到自己是在与人工智能还是人类对话,尤其是在人工智能语音变得更加自然、聊天回复更加语境感知的情况下。到 2035 年,联系客服通常意味着与智能人工智能互动,它会记住你过去的互动,理解你的偏好,并适应你的语气——本质上,它就是为每位客户提供个性化的虚拟客服。
-
人工智能交互决策: 除了回答问题之外,人工智能还将开始做出目前需要管理层批准的决策。例如,如今,人工客服人员可能需要主管批准才能提供退款或特殊折扣以安抚愤怒的客户。未来,人工智能可以根据计算出的客户生命周期价值和情绪分析,在规定的范围内负责这些决策。Futurum/IBM 的一项研究预测,到 2030 年,实时客户互动中约 69% 的决策将由智能机器做出。要重新构想向客户体验的转变,营销人员必须做以下两件事) – 有效地让人工智能在互动中决定最佳行动方案。
-
100%人工智能参与: 一份报告表明,人工智能最终将在 每一个 客户互动(2025年59项AI客户服务统计数据),无论是在前台还是在后台。这可能意味着即使有人在与客户互动,他们也会得到人工智能的协助(提供建议、检索信息)。或者说,任何时候客户的任何疑问都会得到解答——即使人工离线,人工智能也始终在线。
到2035年,我们或许会发现,人类客服人员已经变得只专注于处理最敏感或高接触场景(例如,VIP客户或需要人类同理心的复杂投诉)。从银行业务到零售业务再到技术支持,常规咨询将由一支全天候工作的人工智能客服团队处理,这些团队会不断从每次互动中学习。这种转变将使客户服务更加一致、更加及时,因为人工智能不会让员工长时间等待,而且理论上可以同时处理无限数量的客户。
要实现这一愿景,需要克服诸多挑战:人工智能必须非常强大,才能应对人类客户的不可预测性。它必须能够应对俚语、愤怒、困惑以及人们千变万化的沟通方式。它还需要掌握最新的知识(如果人工智能的信息过时,那就毫无意义)。通过投资人工智能与公司数据库的集成(用于获取订单、停运等实时信息),这些障碍是可以克服的。
从伦理道德角度来看,公司需要决定何时披露“您正在与人工智能对话”,并确保公平(人工智能不会因为训练过程中存在偏见而对某些客户区别对待)。假设这些都能得到有效管理,其商业案例将非常强劲:人工智能客户服务可以大幅降低成本并缩短等待时间。预计到 2030 年,客户服务人工智能市场规模将增长至数百亿美元(2025-2030 年客户服务市场人工智能报告:案例)(生成式人工智能如何推动物流发展 | Ryder),因为组织正在投资这些能力。
总而言之,我们期待未来 自主AI客户服务是常态获得帮助通常意味着与能够快速解决问题的智能机器进行交互。人类仍将参与监督和处理边缘情况,但更多地扮演人工智能团队的主管角色。只要人工智能得到适当的训练和监控,避免出现过去“机器人热线”那样的糟糕体验,最终就能为消费者提供更快速、更个性化的服务。
医疗保健和医学领域的生成式人工智能
医疗保健是一个高风险的领域。人工智能在医学领域无需人工监督即可运行的想法,既引发了人们的兴奋(出于效率和覆盖范围的考量),也引发了人们的谨慎(出于安全和同理心的考量)。生成式人工智能已开始在医学影像分析、临床文档甚至药物研发等领域取得进展。那么,它能够独立完成哪些负责任的工作呢?
当前能力(2025):协助临床医生,而不是取代他们
目前,医疗保健领域的生成式人工智能主要作为 得力助手 向医疗专业人员而非自主决策者提供。例如:
-
医疗文件: 人工智能在医疗保健领域最成功的应用之一是帮助医生处理文书工作。自然语言模型可以转录患者就诊记录,并生成临床记录或出院小结。一些公司配备“人工智能抄写员”,可以在检查过程中(通过麦克风)聆听,并自动生成诊疗记录草稿供医生审阅。这节省了医生的打字时间。有些系统甚至可以自动填充部分电子健康记录。这几乎不需要人工干预——医生只需纠正草稿上的小错误,这意味着记录的撰写基本上是自主的。
-
放射学和影像学: 人工智能(包括生成模型)可以分析X光片、核磁共振成像(MRI)和CT扫描,以检测异常情况(例如肿瘤或骨折)。2018年,美国食品药品监督管理局(FDA)批准了一款用于自主检测视网膜图像中糖尿病视网膜病变(一种眼部疾病)的人工智能系统——值得注意的是,该系统被授权在特定的筛查环境下无需专家审核即可做出诊断。该系统并非生成型人工智能,但它表明监管机构已在有限情况下允许人工智能自主诊断。生成模型可用于创建综合报告。例如,人工智能可能会检查胸部X光片,并 起草放射科医生的报告 说“无急性发现。肺部清晰。心脏大小正常。”放射科医生只需确认并签字即可。在一些常规病例中,如果放射科医生信任AI并进行快速检查,这些报告很可能无需编辑即可发出。
-
症状检查员和虚拟护士: 生成式人工智能聊天机器人正被用作一线症状检查工具。患者可以输入自己的症状并获得建议(例如,“这可能是普通感冒;注意休息和补水,但如果出现X或Y症状,请就医。”)。像Babylon Health这样的应用程序使用人工智能提供建议。目前,这些建议通常仅作为信息性建议,而非权威的医疗建议,并且它们鼓励患者就严重问题寻求人类临床医生的后续治疗。
-
药物发现(生成化学): 生成式AI模型可以提出新的药物分子结构。这更多地应用于研究领域,而非患者护理。这些人工智能能够自主工作,推荐数千种具有所需特性的候选化合物,然后由人类化学家在实验室中审查和测试。像 Insilico Medicine 这样的公司已经利用人工智能在显著缩短的时间内生成新型候选药物。虽然这不会直接与患者互动,但它是人工智能自主创建解决方案(分子设计)的一个例子,而人类需要花费更长时间才能找到这些解决方案。
-
医疗保健运营: 人工智能正在帮助优化医院的排班、供应管理和其他物流。例如,生成模型可以模拟患者流量,并建议调整排班以减少等待时间。虽然这些决策并非直观可见,但人工智能只需极少的人工干预即可做出。
需要指出的是 截至 2025 年,没有一家医院会让人工智能在没有人工批准的情况下独立做出重大医疗决策或治疗。 诊断和治疗计划仍然牢牢掌握在人类手中,AI 提供输入。AI 完全自主地告诉患者“您患有癌症”或开药所需的信任尚未实现,也不应该在没有经过广泛验证的情况下实现。医疗专业人员将 AI 用作第二双眼睛或节省时间的工具,但他们也会验证关键的输出。
2030-2035 年展望:人工智能将成为医生的同事(也可能是护士或药剂师)
在未来十年,我们预计生成式人工智能将自主承担更多常规临床任务,并扩大医疗服务的覆盖范围:
-
自动初步诊断: 到2030年,人工智能将能够可靠地处理许多常见疾病的初步分析。想象一下,诊所里的人工智能系统可以通过摄像头读取患者的症状、病史,甚至他们的语气和面部表情,并提供诊断建议和推荐的检查——所有这些都在人类医生看诊之前完成。这样,医生就可以专注于确认和讨论诊断结果。在远程医疗中,患者可以先与人工智能聊天,缩小诊断范围(例如,可能是鼻窦感染,还是其他更严重的疾病),然后在需要时将其转接给临床医生。监管机构可能会允许人工智能 正式 如果证明其极其准确,则可以在无需人工监督的情况下诊断某些轻微疾病——例如,人工智能可以通过耳镜图像诊断出简单的耳部感染。
-
个人健康监测器: 随着可穿戴设备(智能手表、健康传感器)的普及,人工智能将持续监测患者并自主发出问题预警。例如,到2035年,可穿戴设备的人工智能可能会检测到心律异常,并自动安排紧急虚拟会诊,甚至在检测到心脏病发作或中风的迹象时呼叫救护车。这进入了自主决策领域——判断情况紧急并采取行动——这是人工智能可能用于挽救生命的一种应用。
-
治疗建议: 基于医学文献和患者数据进行训练的生成式人工智能或许能够提供个性化的治疗方案。到2030年,对于癌症等复杂疾病,人工智能肿瘤委员会可以分析患者的基因构成和病史,并自主制定推荐的治疗方案(化疗方案、药物选择)。人类医生会对其进行审核,但随着时间的推移,随着医生对方案的信心逐渐增强,他们可能会开始接受人工智能生成的方案,尤其是在常规病例中,并仅在必要时进行调整。
-
虚拟护士和家庭护理: 能够交谈并提供医疗指导的人工智能可以处理大量的后续工作和慢性护理监测。例如,患有慢性疾病的居家患者可以向人工智能护士助理汇报每日指标,该助理会提供建议(“您的血糖有点高,请考虑调整您的晚间零食摄入量”),并且只有在读数超出范围或出现问题时才会调用人类护士。这种人工智能可以在医生的远程监督下基本自主地运行。
-
医学成像和实验室分析——全自动管道: 到2035年,在某些领域,医学扫描结果的解读可能主要由人工智能完成。放射科医生将负责监督人工智能系统并处理复杂病例,但大多数正常扫描结果(确实正常的)可以由人工智能直接“解读”并签字。同样,病理切片分析(例如,在活检中检测癌细胞)也可以自主进行初步筛查,从而大大加快实验室结果的出具速度。
-
药物研发和临床试验: 人工智能不仅能设计药物分子,还能生成用于试验的合成患者数据,或找到最佳的试验候选者。它或许还能自主运行虚拟试验(模拟患者的反应),以便在正式试验之前缩小选择范围。这可以减少人工实验,从而更快地将药物推向市场。
一个 人工智能医生 完全取代人类医生仍然相当遥远,并且仍然存在争议。即使到2035年,人们预计人工智能将成为一个 同事 人工智能并非取代人类的诊疗体验,而是赋予医生更多自主权。复杂的诊断通常需要直觉、伦理道德以及通过沟通来理解患者的具体情况——而这些正是人类医生的优势所在。即便如此,人工智能或许可以处理80%的日常工作:文书工作、简单病例、监测等等,让人类临床医生能够专注于那20%棘手的工作,以及维护患者关系。
存在重大障碍:医疗领域自主人工智能的监管审批非常严格(这是理所当然的)。人工智能系统需要大量的临床验证。我们或许会看到逐渐被接受——例如,允许人工智能在缺乏医生的医疗资源匮乏的地区进行自主诊断或治疗,以此扩大医疗服务的可及性(想象一下,到2030年,偏远村庄将开设一家“人工智能诊所”,由城市医生定期进行远程监督)。
伦理考量至关重要。问责制(如果自主AI诊断错误,谁来负责?)、知情同意(患者需要知道AI是否参与了他们的护理)以及确保公平性(AI适用于所有人群,避免偏见)都是亟待解决的挑战。假设这些问题得到解决,到2030年代中期,生成式AI将融入医疗保健服务,执行许多任务,从而解放人类医护人员,并有可能惠及目前难以获得医疗服务的患者。
总而言之,到2035年,医疗保健领域很可能会深度整合人工智能,但主要还是在幕后或辅助角色。我们相信人工智能 自己做很多事情 ——读取扫描结果、观察生命体征、起草计划——但关键决策仍需人工监督的安全保障。最终结果可能是建立一个更高效、响应更迅速的医疗保健系统,其中人工智能负责处理繁重的工作,人类则提供同理心和最终判断。
教育中的生成式人工智能
教育是生成式人工智能蓬勃发展的另一个领域,从人工智能辅导机器人到自动评分和内容创作,不一而足。教学与学习息息相关,沟通与创造力正是生成式模型的优势所在。但是,我们可以相信人工智能可以在没有老师监督的情况下进行教育吗?
当前能力(2025):导师和内容生成器
目前,人工智能在教育领域的应用主要 补充工具 而不是一个独立的老师。当前用法示例:
-
AI辅导助理: 诸如可汗学院的“Khanmigo”(由 GPT-4 提供支持)之类的工具或各种语言学习应用程序使用 AI 来模拟一对一导师或对话伙伴。学生可以用自然语言提问并获得答案或解释。AI 可以为家庭作业提供提示,以不同的方式解释概念,甚至可以在互动历史课中扮演历史人物。然而,这些 AI 导师通常在监督下使用;教师或应用程序维护人员通常会监控对话或限制 AI 的讨论内容(以避免出现错误信息或不当内容)。
-
教师内容创作: 生成式人工智能可以通过创建测验题目、阅读材料摘要、课程计划大纲等来帮助教师。教师可能会要求人工智能“生成 5 道二次方程练习题并附答案”,从而节省备课时间。这是自主的内容生成,但教师通常会审查输出的准确性以及与课程的一致性。因此,它更像是一种省力设备,而非完全独立的设备。
-
评分和反馈: 人工智能可以自动评分多项选择题考试(这并非新鲜事),并且越来越多地用于评估简答题或论文。一些学校系统使用人工智能来评分书面答案并向学生提供反馈(例如,语法更正、扩展论点的建议)。虽然人工智能本身并非一项生成性任务,但它甚至可以 产生 根据学生的表现,为其提供个性化的反馈报告,重点突出需要改进的地方。由于担心细微差别,教师通常会在此阶段仔细检查人工智能评分的论文。
-
自适应学习系统: 这些平台会根据学生的表现调整学习材料的难度或风格。生成式人工智能则通过根据学生的需求动态创建新的问题或示例来增强这种能力。例如,如果学生对某个概念感到困惑,人工智能可能会生成另一个围绕该概念的类比或练习题。这在某种程度上是自主的,但属于教育工作者设计的系统。
-
学生学习用途: 学生自己使用 ChatGPT 等工具辅助学习——寻求澄清、翻译,甚至利用人工智能获取论文草稿的反馈(“改进我的引言段落”)。这些操作是自主的,无需教师指导。在这种情况下,人工智能可以充当按需辅导老师或校对员。挑战在于确保学生将其用于学习,而不仅仅是获取答案(学术诚信)。
显然,到2025年,人工智能在教育领域将发挥巨大作用,但通常需要一位人类教育者参与其中,负责管理人工智能的贡献。人们对此抱有谨慎的态度是可以理解的:我们不希望相信人工智能会教授错误的信息,也不想在孤立无援的情况下处理敏感的学生互动。教师们将人工智能导师视为得力助手,它们可以为学生提供更多练习机会,并立即解答常规问题,从而使教师能够专注于更深入的指导。
2030-2035年展望:个性化人工智能导师和自动化教学助手
在未来十年,我们预计生成式人工智能将能够实现更多 个性化和自主的学习体验,同时教师的角色也在不断演变:
-
为每个学生提供人工智能私人导师: 到 2030 年,可汗学院的萨尔·可汗等专家的愿景是,每个学生都可以接触到在许多方面与人类导师一样有效的人工智能导师(人工智能导师可以使人类聪明 10 倍,其创造者说这些AI导师将全天候待命,深入了解学生的学习历程,并相应地调整教学风格。例如,如果学生是视觉学习者,正在努力学习代数概念,AI可能会动态地创建视觉解释或交互式模拟来提供帮助。由于AI可以跟踪学生的学习进度,它可以自主决定接下来要复习的主题或何时学习新技能——有效地 管理课程计划 从微观上来说,对于那个学生来说。
-
减少教师日常工作负担: 评分、制作练习题、起草教材——到2030年代,这些任务几乎可以完全交给人工智能。人工智能可以为一个班级生成一周的定制作业,对上周的所有作业(甚至是开放式作业)进行评分并提供反馈,并向老师强调哪些学生在哪些方面可能需要额外帮助。这一切只需老师很少的干预,或许只需快速浏览一下,确保人工智能的成绩看起来公平即可。
-
自主自适应学习平台: 我们或许会看到某些科目完全由人工智能驱动的课程。想象一下,一门在线课程没有真人授课,而是由人工智能代理介绍学习内容、提供示例、解答问题并根据学生情况调整学习进度。学生的学习体验可能是独一无二的,并且是实时生成的。一些企业培训和成人学习可能会更早地转向这种模式,到2035年,员工可以说“我想学习高级Excel宏”,然后人工智能导师就会通过个性化课程进行授课,包括生成练习题和评估他们的解答,而无需真人教练。
-
课堂AI助手: 在实体或虚拟教室中,人工智能可以聆听课堂讨论,并随时为教师提供帮助(例如,通过耳机低声给出建议:“有几个学生对这个概念似乎感到困惑,或许可以再举一个例子”)。它还可以主持在线课堂论坛,回答学生提出的简单问题(“作业什么时候交?”,甚至澄清课堂要点),这样教师就不会被邮件轰炸。到2035年,在课堂上配备一名人工智能助理教师,而人类教师则专注于更高层次的指导和激励,这可能会成为一种常态。
-
全球教育机会: 自主AI导师可以帮助教师短缺地区的学生学习。一台配备AI导师的平板电脑可以作为主要教师,为那些受教育程度有限的学生提供基础的读写和数学指导。到2035年,这或许将成为最具影响力的用途之一——AI将在缺乏人类教师的地区填补教育空白。然而,确保AI教育在不同环境下的质量和文化适应性至关重要。
人工智能会取代教师吗?不太可能完全取代。教学不仅仅是传授知识,它还包括指导、启发、社交情感支持。这些人类的因素是人工智能难以复制的。但人工智能可以成为 第二位老师 在课堂上,甚至是知识传递的第一位老师,让人类教育者专注于人类最擅长的事情:同情、激励和培养批判性思维。
需要解决的问题包括:确保人工智能提供准确的信息(避免虚假事实的教育幻觉)、避免教育内容的偏见、维护学生数据隐私以及保持学生的参与度(人工智能需要激励,而不仅仅是正确)。我们可能会看到人工智能教育系统的认证或认证——类似于教科书的审批——以确保它们符合标准。
另一个挑战是过度依赖:如果AI导师过于轻易地给出答案,学生可能无法培养毅力或解决问题的能力。为了缓解这个问题,未来的AI导师可能会被设计成有时让学生自己摸索(就像人类导师那样),或者鼓励他们通过提示来解决问题,而不是直接给出答案。
到2035年,课堂或许会发生翻天覆地的变化:每个学生都将拥有一台连接人工智能的设备,按照自己的节奏进行指导,而老师则负责安排小组活动并提供人性化的见解。教育将变得更加高效和个性化。其承诺是每个学生都能在需要时获得所需的帮助——一种真正规模化的“私人导师”体验。风险在于失去一些人情味或滥用人工智能(例如学生利用人工智能作弊)。但总体而言,如果管理得当,生成式人工智能将成为学生学习旅程中一位随时可用、知识渊博的伙伴,从而实现学习的民主化并提升学习效果。
物流和供应链中的生成人工智能
物流——运输货物和管理供应链的艺术与科学——似乎并非“生成式”人工智能的传统应用领域,但创造性的问题解决和规划能力正是该领域的关键。生成式人工智能可以通过模拟场景、优化计划甚至控制机器人系统来提供帮助。物流的目标是提高效率和节约成本,这与人工智能在分析数据和提出解决方案方面的优势不谋而合。那么,人工智能在运营供应链和物流业务方面究竟能达到怎样的自主性呢?
当前能力(2025):通过人工监督进行优化和精简
如今,人工智能(包括一些生成方法)在物流中的应用主要作为一种 决策支持工具:
-
路线优化: UPS 和 FedEx 等公司已经使用人工智能算法来优化配送路线,确保司机选择最高效的路线。传统上,这些算法属于运筹学算法,但现在,生成式方法可以帮助探索各种条件下(交通、天气等)的替代路线策略。人工智能建议路线时,人工调度员或管理人员会设置参数(例如优先级),并可根据需要进行调整。
-
负载和空间规划: 对于卡车或集装箱的装卸,人工智能可以生成最优装载方案(哪个箱子放在哪里)。生成式人工智能可能会生成多种装卸配置,以最大限度地利用空间,本质上是“创造”出可供人类选择的解决方案。一项研究强调了这一点,指出美国的卡车空载率通常高达30%,而借助人工智能进行更合理的规划可以减少这种浪费。物流领域顶级生成式人工智能用例)。这些由人工智能生成的装载计划旨在降低燃料成本和排放,在一些仓库中,它们只需极少的人工更改即可执行。
-
需求预测和库存管理: 人工智能模型可以预测产品需求并生成补货计划。生成模型可以模拟不同的需求场景(例如,人工智能“想象”即将到来的假期导致需求激增),并据此进行库存规划。这有助于供应链经理做好准备。目前,人工智能提供预测和建议,但最终决定生产水平或订单的通常是人类。
-
风险评估: 全球供应链面临中断(自然灾害、港口延误、政治问题)。人工智能系统如今会梳理新闻和数据,以识别即将出现的风险。例如,一家物流公司使用通用人工智能扫描互联网并标记高风险的运输路线(例如,可能因飓风或动乱等原因而出现问题的地区)。物流领域顶级生成式人工智能用例)。有了这些信息,规划人员可以自主地重新规划运输路线,绕过问题区域。在某些情况下,人工智能可能会自动建议更改路线或运输方式,然后由人类进行批准。
-
仓库自动化: 许多仓库都是半自动化的,使用机器人进行拣货和包装。生成式人工智能可以动态地将任务分配给机器人和人类,以实现最佳流程。例如,人工智能可能会每天早上根据订单生成机器人拣货员的作业队列。这通常完全自主执行,管理人员只需监控关键绩效指标 (KPI)——如果订单意外激增,人工智能就会自行调整操作。
-
车队管理: 人工智能通过分析模式并生成最佳维护计划来帮助安排车辆维护,从而最大限度地减少停机时间。它还可以分组发货以减少行程。只要满足服务要求,这些决策就可以由人工智能软件自动完成。
总体而言,截至2025年,人类设定目标(例如,“最小化成本,但确保两天送达”),人工智能则负责制定解决方案或计划以实现目标。系统可以日复一日地运行,无需干预,直到出现异常情况。许多物流环节涉及重复性决策(例如,这批货物应该何时出发?从哪个仓库发货?),而人工智能可以学习并持续做出这些决策。企业逐渐信任人工智能来处理这些细微的决策,并且只在出现异常时才向管理人员发出警报。
2030-2035年展望:自动驾驶供应链
未来十年,我们可以预见更多 自主协调 在人工智能驱动的物流领域:
-
自动驾驶汽车和无人机: 自动驾驶卡车和送货无人机虽然是一个更广泛的人工智能/机器人技术主题,但却直接影响着物流。到2030年,如果监管和技术挑战得到克服,我们或许能够拥有人工智能在高速公路上常规驾驶卡车,或者无人机在城市中处理最后一英里的配送。这些人工智能将在没有人类驾驶员的情况下做出实时决策(例如路线变更、避障)。其生成性在于这些车辆人工智能如何从海量数据和模拟中学习,有效地在无数场景中进行“训练”。一个完全自动驾驶的车队可以全天候运营,人类只需进行远程监控。这将从物流运营中消除大量的人力因素(驾驶员),从而显著提高自主性。
-
自我修复供应链: 生成式人工智能可能会被用于持续模拟供应链场景并制定应急计划。到2035年,人工智能可能会自动检测供应商工厂何时关闭(通过新闻或数据反馈),并 立即地 将采购转移到已在模拟中审查过的替代供应商。这意味着供应链在人工智能的主动作用下,能够“自我修复”中断。人类管理人员将获悉人工智能的操作,而不是主动采取变通措施的人员。
-
端到端库存优化: 人工智能可以自主管理整个仓库和商店网络的库存。它会决定何时何地转移库存(或许会使用机器人或自动驾驶汽车),并在每个地点保持适量的库存。人工智能基本上负责运营供应链控制塔:监控所有流程并实时调整。到2035年,“自动驾驶”供应链的概念可能意味着系统每天能够自行制定最佳配送计划、订购产品、安排工厂运营并安排运输。人类将负责监督整体战略,并处理人工智能目前无法理解的异常情况。
-
物流中的生成设计: 我们或许能看到人工智能设计新的供应链网络。假设一家公司扩张到一个新的地区,人工智能可以根据数据为该地区生成最佳的仓库位置、运输线路和库存策略——这正是如今顾问和分析师所做的。到2030年,企业可能会依赖人工智能的建议来选择供应链设计方案,相信它能够更快地权衡各种因素,并可能找到人类忽略的创造性解决方案(例如不明显的配送中心)。
-
与制造业(工业 4.0)的整合: 物流并非孤立存在,它与生产息息相关。未来的工厂或许会拥有生成式人工智能,用于调度生产流程、及时订购原材料,并指示物流网络立即发货。这种集成式人工智能可能意味着整体上减少人工规划——从制造到交付的无缝衔接,由优化成本、速度和可持续性的算法驱动。到2025年,高性能供应链已经由数据驱动;到2035年,它们可能主要由人工智能驱动。
-
物流中的动态客户服务: 基于客户服务AI,供应链AI可以直接与客户或客户交互。例如,如果一个大客户想在最后一刻更改批量订单,AI代理可以协商可行的替代方案(例如“由于条件限制,我们现在可以交付一半,下周交付另一半”),而无需等待人类经理。这需要生成式AI理解双方需求(客户需求与运营能力),并做出既能确保运营顺畅,又能满足客户的决策。
预期收益是 高效、有弹性、反应灵敏 物流系统。企业预计可节省巨额成本——麦肯锡估计,人工智能驱动的供应链优化可以显著降低成本并提高服务水平,为各行各业带来数万亿美元的价值。2023 年人工智能现状:生成式人工智能的突破之年 | 麦肯锡)。
然而,将更多控制权交给人工智能也存在风险,例如如果人工智能的逻辑存在缺陷,可能会引发连锁错误(例如,臭名昭著的场景:由于建模错误,人工智能供应链无意中导致公司缺货)。诸如“重大决策人机参与”之类的保障措施,或者至少是允许人类快速覆写决策的仪表盘,很可能将持续到2035年。随着时间的推移,随着人工智能决策的有效性得到证实,人类将更加乐意退居二线。
有趣的是,通过优化效率,人工智能有时可能会做出与人类偏好或传统做法相冲突的选择。例如,纯粹的优化可能会导致库存非常少,这虽然高效,但可能会让人感到风险。2030年的供应链专业人士可能不得不调整他们的直觉,因为人工智能在处理海量数据时,可能会证明其非同寻常的策略实际上效果更好。
最后,我们必须考虑 物理限制 (基础设施、物理处理速度)限制了物流变化的速度,因此这里的革命是关于更智能的规划和资产的使用,而不是全新的物理现实。但即使在这些范围内,生成人工智能的创造性解决方案和不断的优化也可以在最少的人工规划下显著改善货物在世界各地的运输方式。
总而言之,到 2035 年,物流可能类似于一台运转良好的自动化机器:货物高效流动,路线实时调整以应对中断,仓库通过机器人进行自我管理,整个系统不断从数据中学习和改进——所有这一切都由作为操作大脑的生成人工智能来协调。
金融和商业领域的生成式人工智能
金融行业大量处理信息——报告、分析、客户沟通——这为生成式人工智能提供了沃土。从银行到投资管理再到保险,各大机构都在探索利用人工智能实现自动化和洞察生成。问题是,鉴于准确性和信任在金融领域的重要性,人工智能能够在没有人工监督的情况下可靠地处理哪些金融任务?
当前能力(2025年):自动化报告和决策支持
截至目前,生成式人工智能正在以多种方式为金融领域做出贡献,而且通常是在人类的监督下:
-
报告生成: 银行和金融公司制作了大量报告——盈利摘要、市场评论、投资组合分析等等。人工智能已经被用来撰写这些报告。例如,彭博社已经开发了 彭博GPT,一个基于金融数据训练的大型语言模型,用于协助终端用户完成新闻分类和问答等任务(生成式人工智能即将进军金融领域)。虽然人工智能的主要用途是帮助人类查找信息,但它也展现了其日益增长的作用。Automated Insights(美联社合作的公司)也生成了财经文章。许多投资通讯使用人工智能来回顾每日市场走势或经济指标。通常情况下,人工会在发送给客户之前进行审核,但这只是快速编辑,而不是从头开始撰写。
-
客户沟通: 在零售银行业务中,人工智能聊天机器人处理客户关于账户余额、交易或产品信息的查询(融入客户服务领域)。此外,人工智能还可以生成个性化的财务建议信或提醒。例如,人工智能可能会识别出客户可以节省费用,并自动撰写一条消息,建议他们切换到其他账户类型,然后在极少的人工干预下发送。这种大规模的个性化沟通是人工智能在金融领域的当前应用。
-
欺诈检测和警报: 生成式人工智能可以帮助创建反欺诈系统检测到的异常事件的叙述或解释。例如,如果检测到可疑活动,人工智能可能会为客户生成一条解释消息(“我们注意到有人从新设备登录……”),或为分析师生成一份报告。检测过程是自动化的(使用人工智能/机器学习异常检测),沟通也日益自动化,尽管最终操作(例如冻结账户)通常需要人工审核。
-
财务咨询(有限): 一些机器人顾问(自动化投资平台)使用算法(不一定是生成式人工智能)来管理投资组合,无需人工顾问。生成式人工智能正在进入这一领域,例如,它可以生成关于某些交易原因的评论,或根据客户需求定制的投资组合业绩摘要。然而,纯粹的财务建议(例如复杂的财务规划)仍然主要依赖于人工或基于规则的算法;缺乏监管的自由形式的生成式建议存在风险,因为一旦出错,需要承担责任。
-
风险评估和承保: 保险公司正在测试人工智能自动编写风险评估报告甚至起草保单文件。例如,给定一处房产的数据,人工智能可以生成一份保险单草案或一份描述风险因素的承保人报告。目前,这些输出需要人工审核,因为合同中的任何错误都可能造成高昂的代价。
-
数据分析和洞察: 人工智能可以梳理财务报表或新闻并生成摘要。分析师使用的工具可以立即将长达100页的年度报告概括为关键点,或从收益电话会议记录中提取主要内容。这些摘要节省了时间,可以直接用于决策或传达,但谨慎的分析师会仔细检查关键细节。
本质上, 当前金融领域的人工智能充当着不知疲倦的分析师/作家生成由人类润色的内容。完全自主的应用主要集中在定义明确的领域,例如数据驱动的新闻(无需主观判断)或客户服务响应。由于高风险和监管审查,直接将资金决策(例如资金转移、执行超出预设算法的交易)委托给人工智能的情况很少见。
2030-2035年展望:人工智能分析师和自主财务运营
展望未来,到 2035 年,生成式人工智能可能会深入嵌入金融运营中,并有可能自主处理许多任务:
-
AI财务分析师: 我们或许会看到人工智能系统能够分析公司和市场,并生成与人类股票研究分析师水平相当的建议或报告。到 2030 年,人工智能有望读取公司的所有财务报告,与行业数据进行比较,并自行生成投资建议报告(基于推理的“买入/卖出”)。一些对冲基金已开始使用人工智能生成交易信号;到 2030 年代,人工智能研究报告可能将变得十分普遍。人类投资组合经理或许会开始信任人工智能生成的分析,并将其作为众多输入之一。人工智能甚至有可能自主管理投资组合:根据预先定义的策略持续监控和重新平衡投资。事实上,算法交易已经高度自动化——生成式人工智能可以通过自行生成和测试新的交易模型,使策略更具适应性。
-
自动化财务规划: 面向消费者的人工智能顾问可以为个人处理日常财务规划。到2030年,你可以告诉人工智能你的目标(例如买房、大学储蓄),它就能为你量身定制一份完整的财务计划(包括预算、投资配置、保险建议)。最初,人类理财规划师可能会审核这份计划,但随着信心的增强,这类建议可能会直接提供给消费者,并附带适当的免责声明。关键在于确保人工智能的建议符合法规并符合客户的最佳利益。如果这个问题得到解决,人工智能可以让基本的财务建议更容易获得,而且成本更低。
-
后台自动化: 生成式人工智能或许能够自主处理许多后台文档——贷款申请、合规报告、审计摘要。例如,人工智能可以收集所有交易数据,并 生成审计报告 标记任何疑虑。2035 年的审计师可能会花更多时间审查 AI 标记的异常情况,而不是亲自梳理所有内容。同样,在合规方面,AI 可以为监管机构生成可疑活动报告 (SAR),而无需分析师从头开始编写。这些常规文档的自动生成,以及人工监督转向异常情况的生成,可能会成为标准。
-
保险索赔和承保: 人工智能可以处理保险索赔(附有照片证据等)、确定保险范围并自动生成赔付决定书。我们或许能够实现这样的目标:简单的理赔(例如数据清晰的车祸理赔)在提交后几分钟内就能完全由人工智能处理。新保单的承保也可能类似:人工智能评估风险并生成保单条款。到2035年,或许只有复杂或边缘案件才会上报给人类承保人。
-
欺诈和安全: 人工智能在检测和应对金融领域欺诈或网络威胁方面可能发挥更为关键的作用。自主人工智能代理可以实时监控交易,并在满足特定条件时立即采取行动(例如冻结账户、冻结交易),并给出合理解释。速度至关重要,因此需要尽量减少人工干预。其生成部分可能在于将这些行动清晰地传达给客户或监管机构。
-
执行支持: 想象一下,一位人工智能“参谋长”可以随时为高管生成业务报告。问:“我们欧洲分部本季度的业绩如何?与去年相比,主要驱动因素是什么?”人工智能会根据数据,生成一份简明扼要的报告,其中包含精准的图表。这种动态、自主的报告和分析将变得像对话一样简单。到2030年,向人工智能查询商业智能并相信它能给出正确答案,将在很大程度上取代静态报告,甚至可能取代一些分析师角色。
一个有趣的预测是:到 2030 年代, 大多数金融内容(新闻、报告等)可能是由人工智能生成的道琼斯和路透社等媒体已经将自动化应用于某些新闻内容。如果这种趋势持续下去,并且考虑到金融数据的爆炸式增长,人工智能或许将负责大部分数据的筛选和传播。
然而,信任和验证才是核心。金融行业受到严格监管,任何自主运营的人工智能都需要满足严格的标准:
-
确保没有幻觉(你不能让人工智能分析师发明一个不真实的财务指标——这可能会误导市场)。
-
避免偏见或非法行为(例如由于有偏见的训练数据而无意中在贷款决策中划定红线)。
-
可审计性:监管机构可能会要求人工智能的决策具有可解释性。如果人工智能拒绝贷款或做出交易决策,必须有可审查的理由。生成模型可能有点像黑匣子,因此预计未来会有 可解释的人工智能 使他们的决策透明化的技术。
未来十年,人工智能与金融专业人士之间可能会展开密切合作,随着信心的增长,逐步实现自主化。早期的胜利将体现在低风险的自动化领域(例如报告生成)。信贷决策或投资选择等核心判断将变得更加困难,但即便如此,随着人工智能业绩的积累,企业也可能会赋予其更多自主权。例如,一支人工智能基金或许将由一位人类监督者来管理,只有在业绩出现偏差或人工智能发出不确定性信号时,他才会介入。
从经济角度来看,麦肯锡估计,人工智能(尤其是通用人工智能)每年可以为银行业增加 2000 亿至 3400 亿美元的价值,并对保险和资本市场产生类似巨大的影响(2023 年人工智能现状:生成式人工智能的突破之年 | 麦肯锡)(生成式人工智能的未来是什么?| 麦肯锡)。这通过提高效率和改善决策结果来实现。为了实现这一价值,许多常规的财务分析和沟通工作可能会被交给人工智能系统。
总而言之,到2035年,生成式人工智能可能就像一支由初级分析师、顾问和文员组成的大军,在金融领域工作,自主完成大量繁重工作和一些复杂的分析工作。人类仍将设定目标,并处理高层战略、客户关系和监管。金融界将谨慎行事,逐步扩大自主权——但方向明确,越来越多的信息处理甚至决策建议将来自人工智能。理想情况下,这将带来更快的服务(即时贷款、全天候咨询)、更低的成本,以及更高的客观性(基于数据模式的决策)。但维护信任至关重要;金融领域一个引人关注的人工智能错误就可能造成巨大的损失(想象一下人工智能引发的闪电崩盘,或者数千人的福利被错误地拒绝)。因此,即使后台流程已经高度自动化,尤其是在面向消费者的行动中,护栏和人工检查仍可能持续存在。
挑战和伦理考量
在所有这些领域,随着生成式人工智能承担起更多自主责任,一系列共同的挑战和伦理问题也随之而来。确保人工智能成为可靠且有益的自主智能体,不仅是一项技术任务,更是一项社会任务。以下我们概述了一些关键问题以及它们正在(或未来需要)如何得到解决:
可靠性和准确性
幻觉问题: 生成式人工智能模型可能会生成看似可信却又错误或完全虚构的输出。当没有人能够发现错误时,这种情况尤其危险。聊天机器人可能会向客户提供错误的指令,或者人工智能编写的报告可能包含虚构的统计数据。截至2025年,不准确性已被各组织认定为生成式人工智能的最大风险(2023 年人工智能现状:生成式人工智能的突破之年 | 麦肯锡)(人工智能现状:全球调查 | 麦肯锡)。展望未来,诸如数据库事实核查、模型架构改进以及带反馈的强化学习等技术正在被部署,以最大限度地减少幻觉。自主人工智能系统可能需要严格的测试,甚至可能需要对关键任务进行形式化验证(例如,如果代码生成错误,可能会引入错误/安全漏洞)。
一致性: 人工智能系统需要长期可靠地执行各种场景。例如,人工智能可能在标准问题上表现出色,但在极端情况下却表现不佳。要确保始终如一的性能,需要涵盖各种情况的大量训练数据和持续监控。许多组织计划采用混合方法——人工智能发挥作用,但随机样本由人工审核——来衡量持续的准确率。
故障保险: 当人工智能自主时,让它识别自身的不确定性至关重要。系统应该被设计成“知道何时它不知道”。例如,如果人工智能医生对诊断不确定,它应该标记并提交人工审核,而不是随机猜测。在人工智能输出中加入不确定性评估(并设置自动人工交接的阈值)是一个活跃的开发领域。
偏见与公平
生成式人工智能会从可能包含偏见(种族、性别等)的历史数据中学习。自主型人工智能可能会延续甚至放大这些偏见:
-
在招聘或录取过程中,如果训练数据存在偏见,人工智能决策者可能会做出不公平的歧视。
-
在客户服务中,除非仔细检查,否则人工智能可能会根据方言或其他因素对用户做出不同的反应。
-
在创意领域,如果训练集不平衡,人工智能可能无法充分代表某些文化或风格。
解决这个问题需要仔细的数据集管理、偏见测试,甚至可能需要调整算法以确保公平性。透明度至关重要:公司需要披露人工智能的决策标准,尤其是在自主人工智能影响到某人的机会或权利(例如获得贷款或工作)的情况下。监管机构已经注意到了这一点;例如,欧盟的《人工智能法案》(将于2020年代中期制定)很可能要求对高风险人工智能系统进行偏见评估。
问责和法律责任
当人工智能系统自主运行造成伤害或犯错时,谁该负责?相关法律框架正在逐步完善:
-
部署人工智能的公司可能会承担责任,类似于对员工的行为负责。例如,如果人工智能给出了错误的财务建议,导致客户遭受损失,公司可能需要赔偿客户。
-
关于人工智能的“人格”或高级人工智能是否应承担部分责任存在争议,但目前这些争论更多停留在理论层面。实际上,责任将追溯到开发者或运营者。
-
针对人工智能故障,可能会出现新的保险产品。如果一辆自动驾驶卡车发生事故,制造商的保险可能会承保,类似于产品责任险。
-
记录和记录人工智能决策对于事后分析至关重要。如果出现问题,我们需要审核人工智能的决策路径,从中吸取教训并追究责任。正是出于这个原因,监管机构可能会强制要求记录人工智能的自主行动。
透明度和可解释性
理想情况下,自主人工智能应该能够用人类可理解的术语解释其推理,尤其是在金融、医疗保健、司法系统等关键领域。可解释人工智能是一个致力于打开黑匣子的领域:
-
如果AI拒绝贷款,相关法规(例如美国的《经济适用法》(ECOA))可能要求申请人提供理由。因此,AI必须输出一些因素(例如“高负债收入比”)作为解释。
-
与人工智能互动的用户(例如学生与人工智能导师,患者与人工智能健康应用)有权了解其如何得出建议。人们正在努力通过简化模型或构建并行解释模型,使人工智能推理更具可追溯性。
-
透明度也意味着用户应该知道 什么时候 他们正在处理人工智能与人类之间的对抗。道德准则(以及一些法律)倾向于要求披露客户是否正在与机器人对话。这可以防止欺骗并允许用户同意。一些公司现在明确标记人工智能编写的内容(例如“本文由人工智能生成”)以维护信任。
隐私和数据保护
生成式人工智能通常需要数据(包括潜在的敏感个人数据)才能运行或学习。自主运行必须尊重隐私:
-
人工智能客户服务代理将访问帐户信息来帮助客户;该数据必须受到保护并且仅用于该任务。
-
如果人工智能导师可以访问学生资料,则根据《家庭教育权和隐私权法》(美国)等法律,可以考虑确保教育数据的隐私。
-
大型模型可能会无意中记住训练数据中的具体信息(例如,复述训练期间看到的某人的地址)。训练中的差异隐私和数据匿名化等技术对于防止生成的输出中个人信息泄露至关重要。
-
GDPR 等法规赋予个人针对影响他们的自动化决策的权利。如果人工审核或决策对其造成重大影响,人们可以要求其不再完全自动化。到2030年,随着人工智能的普及,这些法规可能会有所演变,可能引入解释权或选择退出人工智能处理的权利。
安全和滥用
自主人工智能系统可能成为黑客攻击的目标,或者被利用来做恶意的事情:
-
AI内容生成器可能被滥用来大规模制造虚假信息(例如深度伪造视频、虚假新闻),这构成了社会风险。发布极其强大的生成模型的伦理问题备受争议(例如,OpenAI最初对GPT-4的图像功能持谨慎态度)。解决方案包括为AI生成的内容添加水印以帮助检测虚假信息,以及用AI对抗AI(例如深度伪造的检测算法)。
-
如果人工智能控制着物理过程(无人机、汽车、工业控制),那么保护其免受网络攻击至关重要。被黑客入侵的自主系统可能会造成现实世界的危害。这意味着需要强大的加密、故障安全机制,以及在出现安全隐患时能够被人为覆盖或关闭的能力。
-
人工智能还存在超越预期界限的担忧(“流氓人工智能”场景)。虽然目前的人工智能没有自主性或意图,但如果未来的自主系统更具自主性,就需要严格的约束和监控,以确保它们不会执行未经授权的交易或因错误设定的目标而违反法律。
道德使用和人类影响
最后,更广泛的道德考虑:
-
工作流失: 如果人工智能无需人工干预即可完成任务,这些工作将面临怎样的命运?从历史上看,技术自动化了一些工作,但也创造了其他工作。对于那些技能应用于自动化任务的工人来说,这种转变可能会很痛苦。社会需要通过技能再培训、教育,甚至可能重新考虑经济支持来应对这一挑战(一些人认为,如果大量工作实现自动化,人工智能可能需要引入全民基本收入等理念)。调查已经显示出褒贬不一的情绪——一项研究发现,三分之一的工人担心人工智能会取代工作,而另一些人则认为它能减轻苦差事。
-
人类技能的侵蚀: 如果人工智能导师授课,人工智能自动驾驶,人工智能编写代码,人们会失去这些技能吗?过度依赖人工智能,在最坏的情况下可能会削弱专业知识;教育和培训项目需要做出调整,确保即使有人工智能的帮助,人们仍然能够学习基础知识。
-
道德决策: 人工智能缺乏人类的道德判断能力。在医疗保健或法律领域,纯粹基于数据的决策可能在个别情况下与同情心或正义相冲突。我们或许需要将伦理框架融入人工智能(这是人工智能伦理研究的一个领域,例如,使人工智能决策与人类价值观相一致)。至少,在涉及伦理的决策中让人类参与进来是明智之举。
-
包容性: 确保人工智能的益处得到广泛普及是一项道德目标。如果只有大公司才能负担得起先进的人工智能,那么小型企业或贫困地区可能会被抛在后面。开源努力和价格合理的人工智能解决方案有助于实现人工智能的普及。此外,界面设计也应确保任何人都能使用人工智能工具(例如,提供不同的语言、为残障人士提供无障碍访问等),以免造成“谁有人工智能助手,谁没有”的新数字鸿沟。
当前风险缓解: 从积极的一面来看,随着企业推出新一代人工智能,人们对这些问题的认识和行动也在不断提高。到 2023 年底,近一半使用人工智能的公司正在积极努力降低不准确性等风险(2023 年人工智能现状:生成式人工智能的突破之年 | 麦肯锡)(人工智能现状:全球调查 | 麦肯锡),而且这个数字还在不断上升。科技公司已经成立了人工智能伦理委员会;各国政府正在起草相关法规。关键在于从一开始就将伦理融入人工智能开发之中(“设计伦理”),而不是事后才采取行动。
关于挑战,总结一下:赋予人工智能更多自主权是一把双刃剑。它可以带来效率和创新,但也需要承担高标准的责任。未来几年,我们可能会看到一系列技术解决方案(用于改善人工智能行为)、流程解决方案(政策和监督框架),以及新的标准或认证(人工智能系统可能会像今天的发动机或电子产品一样接受审核和认证)。能否成功应对这些挑战,将决定我们能否顺利地将自主人工智能融入社会,从而增进人类福祉和信任。
结论
生成式人工智能已从一项新颖的实验迅速发展成为一项触及我们生活方方面面的变革性通用技术。本白皮书探讨了到 2025 年,人工智能系统将如何实现撰写文章、设计图形、编写软件、与客户沟通、总结医疗记录、辅导学生、优化供应链以及起草财务报告。重要的是,在许多此类任务中,人工智能可以 几乎无需人工干预尤其是对于定义明确、可重复的工作。企业和个人开始信任人工智能能够自主执行这些任务,并从速度和规模上获益。
展望 2035 年,我们即将迎来一个新时代,人工智能将成为一个更加无处不在的合作者——通常是一个 看不见的数字化劳动力 处理日常事务,使人类能够专注于非凡之事。我们期待生成式人工智能能够可靠地驾驶汽车和卡车在道路上行驶,在夜间管理仓库库存,像知识渊博的私人助理一样解答我们的疑问,为世界各地的学生提供一对一指导,甚至帮助发现新的医学治疗方法——所有这些都将越来越少地依赖直接监督。随着人工智能从被动遵循指令转变为主动生成解决方案,工具和代理之间的界限将变得模糊。
然而,通往自主人工智能未来的旅程必须谨慎前行。正如我们所概述的,每个领域都有其自身的局限性和责任:
-
今天的现实检验: 人工智能并非万无一失。它擅长模式识别和内容生成,但缺乏人类所具备的真正理解力和常识。因此,目前,人类的监督仍然是安全网。识别人工智能在哪些方面已经准备好独立发展(以及哪些方面还没有准备好)至关重要。如今,许多成功都源于 人机协作 模型,这种混合方法在完全自主还不明智的情况下仍将具有价值。
-
明日的承诺: 随着模型架构、训练技术和监督机制的进步,人工智能的能力将持续扩展。未来十年的研发可以解决许多当前的痛点(减少幻觉、提升可解释性、使人工智能与人类价值观相符)。如果真是这样,到2035年,人工智能系统将足够强大,能够被赋予更大的自主权。本文中的预测——从人工智能教师到高度自主运营的企业——很可能成为现实,甚至可能被如今难以想象的创新所超越。
-
人类的角色和适应: 我们预见到人工智能不会直接取代人类,而是将会发生角色的演变。每个领域的专业人士都可能需要擅长工作 和 人工智能——引导它、验证它,并专注于那些需要人类独特优势的工作领域,例如同理心、战略思维和复杂问题解决能力。教育和劳动力培训应重点强调这些人类独有的技能,以及人人都应具备的人工智能素养。政策制定者和企业领导者应规划劳动力市场的转型,并确保为受自动化影响的人群提供支持系统。
-
道德与治理: 或许最为关键的是,必须建立一个符合伦理道德的人工智能使用和治理框架来支撑这一技术发展。信任是应用的基石——只有相信人工智能安全,人们才会让其驾驶汽车或协助手术。建立这种信任需要严格的测试、透明度、利益相关方的参与(例如,让医生参与医疗人工智能的设计,让教师参与人工智能教育工具的设计),以及适当的监管。国际合作或许是应对深度伪造或战争中人工智能等挑战的必要条件,确保负责任使用人工智能的全球规范。
总而言之,生成式人工智能是推动进步的强大引擎。如果运用得当,它可以将人类从繁重的体力劳动中解放出来,释放创造力,提供个性化服务,并填补人才缺口(在专家匮乏的领域提供专业知识)。关键在于如何部署它, 放大人类潜能而不是将其边缘化从短期来看,这意味着让人类参与到引导人工智能的进程中。从长远来看,这意味着将人文价值观融入人工智能系统的核心,这样即使它们独立行动,也能以我们集体的最佳利益为出发点。
领域 | 当今可靠的自主性(2025年) | 预计2035年实现可靠自主 |
---|---|---|
写作与内容 | - 自动生成常规新闻(体育、收益)。- 人工智能总结的产品评论。- 供人工编辑的文章或电子邮件草稿。(Philana Patterson – ONA 社区简介)(亚马逊利用人工智能改善客户评论体验) | - 大多数新闻和营销内容都是自动编写的,具有事实准确性。- 人工智能在最少的监督下制作完整的文章和新闻稿。- 按需生成高度个性化的内容。 |
视觉艺术与设计 | - 人工智能根据提示生成图像(人类选择最佳)。- 自主创作的概念艺术和设计变化。 | - 人工智能制作完整的视频/电影场景和复杂的图形。- 符合规格的产品/架构的生成设计。- 按需创建的个性化媒体(图像、视频)。 |
软件编码 | - AI 自动完成代码并编写简单函数(由开发人员审核)。- 自动测试生成和错误建议。(Copilot 上的编码:2023 年数据显示代码质量面临下行压力(包括 2024 年预测)- GitClear)(GitHub Copilot 位居 AI 代码助手研究报告榜首——Visual Studio Magazine) | - AI 可靠地根据规格实现全部功能。- 已知模式的自主调试和代码维护。- 只需很少的人工输入即可创建低代码应用程序。 |
客户服务 | - 聊天机器人回答常见问题,解决简单问题(交接复杂案例)。- 人工智能处理某些渠道上约 70% 的常规查询。(2025年59项AI客户服务统计数据)(到 2030 年,客户互动过程中 69% 的决策将……) | - 人工智能端到端处理大多数客户互动,包括复杂的查询。- 实时人工智能决策服务优惠(退款、升级)。- 仅用于升级或特殊情况的人工代理。 |
卫生保健 | - 人工智能起草医疗记录;提出诊断建议并由医生核实。- 人工智能在监督下读取一些扫描结果(放射学);对简单病例进行分类。(到2035年,人工智能医学成像产品规模或将增长五倍) | - 人工智能可靠地诊断常见疾病并解释大多数医学图像。- 人工智能监测患者并启动护理(例如,药物提醒、紧急警报)。- 虚拟人工智能“护士”处理常规跟进;医生专注于复杂的护理。 |
教育 | - AI 导师解答学生问题,生成练习题(教师监控)。- AI 辅助评分(教师评阅)。([K-12 教育的生成式 AI | Applify 的研究报告](https://www.applify.co/research-report/gen-ai-for-k12#:~:text=AI%20tutors%3A%20Virtual%20AI,individual%20learning%20styles%20and%20paces)) |
后勤 | - 人工智能优化运输路线和包装(人类设定目标)。- 人工智能标记供应链风险并提出缓解措施。(物流领域顶级生成式人工智能用例) | - 大部分自动驾驶送货(卡车、无人机)由人工智能控制器监督。- 人工智能自动重新安排货运路线以避开中断并调整库存。- 由人工智能管理的端到端供应链协调(订购、分销)。 |
金融 | - 人工智能生成财务报告/新闻摘要(人工审核)。- 机器人顾问管理简单的投资组合;人工智能聊天处理客户查询。(生成式人工智能即将进军金融领域) | - 人工智能分析师以高精度提供投资建议和风险报告。- 在设定的限度内进行自主交易和投资组合再平衡。- 人工智能自动批准标准贷款/索赔;人类处理例外情况。 |
参考:
-
帕特森,菲拉娜。 自动盈利故事层出不穷. 美联社 (2015) – 描述了美联社在没有人工撰写的情况下自动生成数千份收益报告的过程(自动盈利故事层出不穷 | 美联社)。
-
麦肯锡公司。 2024 年初人工智能的现状:新一代人工智能的采用将激增并开始产生价值。(2024 年)——报告显示,65% 的组织定期使用生成式人工智能,几乎是 2023 年的两倍(2024 年初人工智能的现状 | 麦肯锡),并讨论风险缓解措施(人工智能现状:全球调查 | 麦肯锡)。
-
Gartner。 超越 ChatGPT:企业生成式人工智能的未来。(2023)——预测到 2030 年,90% 的大片内容可能由人工智能生成(行业和企业的生成式人工智能用例) 并重点介绍了药物设计等生成式人工智能用例(行业和企业的生成式人工智能用例)。
-
滑动。 记者在新闻编辑室使用人工智能工具的12种方式. (2024) – 一家新闻机构使用“Klara”人工智能撰写了 11% 的文章,所有人工智能内容均由人类编辑审核(记者在新闻编辑室使用人工智能工具的 12 种方式 - Twipe)。
-
Amazon.com 新闻。 亚马逊利用人工智能改善客户评论体验。(2023 年)——宣布在产品页面上提供人工智能生成的评论摘要,以帮助购物者(亚马逊利用人工智能改善客户评论体验)。
-
Zendesk。 2025年59项AI客户服务统计数据.(2023 年)——表明超过三分之二的 CX 组织认为生成式人工智能将为服务增添“温暖”(2025年59项AI客户服务统计数据),并预测人工智能最终将在 100% 的客户互动中发挥作用 (2025年59项AI客户服务统计数据)。
-
Futurum 研究与 SAS。 体验2030:客户体验的未来.(2019)— 调查显示,各大品牌预计到 2030 年,客户互动过程中约 69% 的决策将由智能机器做出(要重新构想向客户体验的转变,营销人员必须做以下两件事)。
-
達達利库。 物流领域顶级生成式人工智能用例. (2023) – 描述 GenAI 如何优化装载(减少约 30% 的空卡车空间)(物流领域顶级生成式人工智能用例) 并通过扫描新闻来标记供应链风险。
-
Visual Studio 杂志。 GitHub Copilot 在 AI 代码助手研究报告中名列前茅. (2024) – Gartner 的战略规划假设:到 2028 年,90% 的企业开发人员将使用 AI 代码助手(高于 2024 年的 14%)(GitHub Copilot 位居 AI 代码助手研究报告榜首——Visual Studio Magazine)。
-
彭博新闻。 BloombergGPT 简介. (2023) – 详细介绍彭博针对金融任务的 50B 参数模型,该模型内置于终端,用于问答和分析支持 (生成式人工智能即将进军金融领域)。