人工智能伦理 · 互动课堂

同济大学 · 智慧建造与低碳环境大类 · 《人工智能科学与技术》教研组 · 第十章(2 课时)

① 导览:从声音克隆说起

本课程共 2 课时。我们从一个鲜活的案例出发——声音克隆,引出 AI 伦理的核心问题; 学习三大经典伦理学流派;理解 AI 伦理研究的对象与目标;明确科技人员的道德责任; 最后以“无人驾驶电车难题”为案例展开深度讨论。

1.1 案例:从音乐录制到声音克隆

请戴上耳机,先听下面两段音频——一段是 Taylor Swift 本人演唱, 一段是用 AI 把 Ariana Grande 的声音“克隆”到 Taylor 这首歌上:

🎤

Cruel Summer

Taylor Swift · 原唱

真人演唱
🤖

Cruel Summer (AI Cover)

"Ariana Grande" · AI 声音克隆

AI 合成
❓ 问题来了
  • Ariana Grande 本人没有授权,她的“声纹”被人随意挪用——这合不合法?合不合道德?
  • Taylor Swift 的歌曲没有授权被翻唱、传播——侵权吗?
  • 听众觉得很好听,但他们听的是一个不存在的演出
  • 如果这首 AI Cover 进入排行榜,传统音乐人怎么办?

1.2 智能时代的伦理变革 · 不止音乐

类似的伦理困境在 AI 时代俯首皆是。下面是2025–2026 年发生的真实案例

人脸 / 声音 Deepfake

2026 年初 xAI 的 Grok 被发现批量生成未经同意的色情 Deepfake,法国当局已启动调查。

AI 写作业 & 反检测

"AI 检测器"产生大量假阳性,多起学生因被误判为"AI 写作"而面临纪律处分。

医保拒赔

2025 年 Cigna / Humana / UnitedHealth 被诉,称其 AI 以 1.2 秒 / 单的速度拒掉 30 万 + 件医保索赔。

招聘算法歧视

2025 年 ACLU 起诉 HireVue + Intuit,称视频面试 AI 对一位失聪原住民女性打低分。

这些不是科幻——这些是 2025–2026 年的真实新闻头条。每一个都在叩问 AI 工程师的良知。

1.3 2 课时学习路线

课时主题核心内容
课时 1伦理学理论基础三大经典流派(义务论 · 结果论 · 美德论)· 流派对比 · AI 伦理研究对象与目标
课时 2责任与案例科技人员的道德责任 · 自动驾驶电车难题案例 · 课后小测

1.4 学习目标

本课程不给你“标准答案”,而是让你拥有:

  • 多个伦理视角分析同一问题的能力
  • 识别 AI 应用中潜在伦理风险的敏感度
  • 作为未来的科技工作者,主动承担道德责任的自觉

📌 提示:每个章节支持逐步展开——底部控制条点“展开下一节”。所有互动均可重复尝试。

② 伦理学基础理论

伦理学(Ethics)是一门研究“应当怎么做”的学问。它不告诉你“事实是什么”,而告诉你“哪种行为是对的”。 在两千多年的西方哲学史中,形成了三大经典流派——它们对同一件事,可能给出完全不同的判断。

2.1 义务论 · 康德(Deontology)

Immanuel Kant · 1724–1804

核心主张:行为是否正确,取决于它是否符合某种普适道德原则,而不是结果

关键概念:

  • 定言命令(Categorical Imperative): “你的行为准则要能成为普遍法则”——一件事如果不能让所有人都这么做,就不该做。
  • 人是目的,不是手段:永远不要把任何人仅仅当作达成目的的工具。
  • 义务论强调:知情权、选择权、人格尊严
💡 经典两难

朋友的朋友被坏人追杀,躲到你家。坏人问你他在不在——你说不在(撒谎)还是说在(说真话)?

义务论者不能撒谎。撒谎不能成为普遍法则——如果所有人都可以为了某种“好结果”而撒谎,整个社会的信任就会崩塌。

2.2 结果论 · 功利主义(Consequentialism)

Jeremy Bentham · 1748–1832   John Stuart Mill · 1806–1873

核心主张:行为是否正确,取决于它产生的结果,而非行为本身或行为者的品德。

2.2.1 功利主义(最大多数人的最大幸福)

  • 权衡短期与长期的“幸福总和”
  • 考虑不同群体的“幸福分配”
  • 当代版本:偏好效用主义(preference utilitarianism)

2.2.2 利己主义(极端结果论)

  • 只关心行为是否利于自身利益最大化
  • 不关心“对别人是否有好处”
💡 同一个例子

朋友躲在你家,坏人问你他在不在?

功利主义者看后果。如果撒谎能救一条命,就该撒谎——节省的“痛苦”远大于“撒谎”带来的轻微道德损耗。

2.3 美德伦理学 · 亚里士多德(Virtue Ethics)

Aristotle · 前 384 – 前 322

核心主张:好行为来自好品格。关键不是“规则”或“结果”,而是值得赞赏的性格

关键概念:

  • 美德(Virtue):勇敢、诚实、节制、正义、智慧……
  • 中庸之道:勇敢是莽撞与怯懦的中间状态
  • 实践智慧(Phronesis):在具体情境中做出恰当判断的能力
💡 同一个例子

朋友躲在你家,坏人问你?

美德论者问问自己——一个“正派的人”会怎么做? 他既不会僵硬地撒谎,也不会僵硬地说真话——而是凭良知和场景判断,可能是拖延、报警、设法解围。 规则是死的,人是活的

2.4 互动:经典两难 · 你怎么选?

情境:一个药剂师发现治女儿绝症的特效药卖天价。他偷了一瓶——这件事对吗?

分别从三个流派判断(每个流派只能选一个):

康德 · 义务论
功利主义
美德论

2.5 中国传统伦理思想 · 简要对照

中国哲学也有丰富的伦理思想。比照三大西方流派:

西方流派核心问题中国对照
义务论是否符合规则?“礼”:非礼勿视、非礼勿听 · 孔子
结果论是否产生好结果?“兼相爱、交相利” · 墨子
美德论是否出自好品格?“仁”、“君子” · 孔孟

中国伦理传统更强调“修身齐家”的内省路径,与希腊美德论有深刻共鸣。当代讨论 AI 伦理时,这些资源都值得回望。

③ 三大流派的对比与融合

三个流派各有强项与盲区。在真实世界做伦理判断时,单一视角往往不够—— 本节给出系统对比,并用一个 AI 招聘案例展示多视角综合分析

3.1 三派对比表

义务论 · 康德结果论 · 功利主义美德论 · 亚里士多德
判断依据规则 / 原则结果 / 效用品格 / 美德
核心问题“我应不应该这么做?”“这会带来什么后果?”“一个好人会怎么做?”
优点 明确、可执行;保护少数人权利 实际、灵活;面向社会福祉 人本、整体;适应具体情境
缺点 规则可能僵化;遇到例外难处理 难以衡量“幸福”;可能牺牲少数 主观;不同文化对“美德”看法不同
对应的 AI 实践 合规审查 · 数据隐私法规 风险评估 · 成本效益分析 负责任 AI · 工程师良心

3.2 同一个 AI 问题 · 三个视角

案例:某公司用 AI 筛简历,因训练数据有历史偏见,AI 系统性地拒绝某性别 / 某高校的求职者

点击查看三个流派的分析视角:

3.3 实际伦理判断 · 三者协同

真实世界的伦理判断很少只用一种流派。负责任的工程师 / 决策者会综合考虑三个维度, 并意识到没有完美方案,只有更好的权衡

互动:三维伦理评估雷达图

下方雷达图展示一个 AI 决策在三个维度的得分。拖动滑块改变方案设计——看综合评估结论如何变化。

60
75
50

3.4 应用提示

💡 给未来工程师的建议

在做 AI 项目设计与评审时,把三种视角作为强制 checklist

  1. 康德:这件事是否违反某条原则?被影响者的知情权和选择权是否被尊重?
  2. 功利主义:受益和受损的群体分别是谁?受损方是否过于集中或弱势?
  3. 美德论:我自己是否愿意公开承认这是""做出来的东西?

④ AI 伦理的研究对象与目标

AI 伦理是一门新兴的交叉学科。它的研究对象不是技术本身,而是技术与人、与社会的关系。 本节明确“研究什么、目标是什么”。

4.1 研究对象

📍 定义

AI 伦理研究 = 人工智能系统在设计、部署和使用过程中涉及的道德问题

关键:关注的不只是技术本身,而是人与 AI、社会与 AI 之间的关系

4.2 研究目标

🎯 目标

不阻碍技术进步的情况下,让 AI 系统对人类社会更有益、可控、公平

4.3 AI 伦理关注的 6 大维度

互动:点击轮盘上每个维度查看详情
点击维度查看

每一个维度都对应着大量真实案例与法规要求。

4.4 AI 伦理的特殊性

与传统技术伦理(如生物、医学伦理)相比,AI 伦理有三个独特挑战

① 黑箱性

大模型决策过程不透明——连开发者都无法完全解释。这让"问责"变得困难。

→ 催生可解释 AI(XAI)研究方向。

② 自主性

AI 能独立做出影响人的决策(自动驾驶、医疗诊断)。谁负责?开发者?用户?AI 本身?

→ 各国正在制定 AI 责任法律框架

③ 规模化

一个偏见模型一旦上线,可能瞬间影响千万人。微小错误放大到社会层面就是灾难

→ 强调上线前严格审查

4.5 核心论断

AI 伦理关注的不是"技术怎么做",
而是"技术做出来以后,会不会“对人不好”"。

⑤ 科技人员的道德责任

"我只是写代码的"——是常听到的辩护。但 AI 与传统软件不同: 它的输出会直接影响千万人。本节讨论:为什么科技人员"尚要"在道德上负责?责任有哪几层?怎么落实?

5.1 什么是道德责任

📍 定义

道德责任:做一件事时,除了"能不能“,还要想”该不该"。

不是法律强制或行业制度规定的,而是基于良心、正义、公平、尊重他人这些价值做出的选择

5.2 三层责任 · 共同约束工程师

法律责任 底线 违反 → 法律后果 行业责任 规范 违反 → 职业影响 道德责任 良知 违反 → 个人煎熬 三层约束共同作用,才能让“会做”与“该做”统一

法律责任

  • 《个人信息保护法》
  • 《生成式 AI 服务管理办法》
  • 欧盟 AI Act(2024 生效 · 2026-08-02 全面强制实施
  • 美国 NIST AI RMF
  • Code of Practice on AI-generated Content(深度伪造标识,2026 实施)

行业责任

  • IEEE 软件工程师道德守则
  • 公司合规流程
  • 第三方算法审计
  • 同行评议

道德责任

  • 个人良心拷问
  • 家人朋友能否接受
  • 社会舆论的反映
  • 历史的评判

5.3 国际监管动态:法律责任正在快速收紧

2024–2026 年,全球 AI 监管进入加速立法期。"没有规则约束"的时代已经结束。

· 欧盟 AI Act — 2026 年 8 月全面强制

时间节点主要要求
2024-08-01法案生效
2025-02-02禁止类(社会评分、生物识别监控)开始强制
2025-08-02通用 AI 模型(GPAI)透明度义务实施
2026-08-02全面强制——高风险 AI 合规、Article 50 透明度(含深度伪造必须标识

违规罚则:违反 Article 50 透明度义务可处 €7.5 M 或全球营业额 1.5 %(以高者为准)。 严重违规(如使用禁止类 AI)最高 €35 M 或全球营业额 7 %

· 中国监管框架

  • 《生成式人工智能服务管理暂行办法》(网信办,2023 年 8 月生效)— 算法备案、内容标识、训练数据合法性
  • 《新一代人工智能伦理规范》(科技部,2021)— 总体原则
  • 《互联网信息服务深度合成管理规定》(2023)— 深度合成内容必须显著标识

· 全球趋势:监管 + 工程 双向收紧

  • 美国:NIST AI RMF · 各州相继立法(如加州、科罗拉多反歧视法)
  • 联合国:UNESCO《人工智能伦理建议书》(193 国签署)
  • 行业自律:OpenAI、Anthropic、Google 都建立了"Model Card / System Card"披露制度
⚠️ 给 AI 从业者的提醒

不要再以"这事还没法律管"为由放任设计。2026 年 8 月之后,欧盟市场上任何 AI 系统都必须能证明: ① 数据来源合规;② 风险评估到位;③ 输出可追溯;④ 深伪有标识。否则罚款 + 退市。

5.4 为什么 AI 科技人员"尚要"在道德上负责?

即便有了法律,"合规就够了吗"?远远不够。"我只是写代码的"曾经是合理辩护——但 AI 与传统软件不同:

  • 一个有偏见的招聘模型 → 数十万求职者被歧视(2025 年 HireVue 案)
  • 一个不够严谨的医疗 AI → 数千患者被误判(2025 年 Cigna / UnitedHealth 集体诉讼)
  • 一个易被滥用的人脸 / 声音合成模型 → 无数普通人成为受害者(2026 年 Grok 案)

当你的代码影响如此深远时,"我只是写代码"已经不是辩护,而是放弃责任

5.5 一份"负责任 AI 开发"自检清单

互动:负责任开发清单 · 你检查过哪几项?

你即将发布一个新 AI 模型。请逐项勾选你已经做到的——评估你的"责任分数"。

5.6 开发各阶段的关键问题

阶段关键问题
开发前这个模型最坏会带来什么后果?
训练时数据里有没有歧视性或误导性内容?
发布前敢不敢让自己的家人 / 朋友 / 学生使用这个产品?
上线后如果出错,我有没有能力让它被追溯和修正

这就是负责任地做 AI 科技

5.7 一句话总结

💎 共勉

负责任地做 AI 科技 — 不是拖慢速度,而是帮我们提前避坑

技术改变世界,但你决定往哪个方向改变

⑥ 案例讨论:无人驾驶汽车的伦理设计

自动驾驶把一个古老的哲学问题—— 电车难题 ——真实地搬到了工程师面前。 每一辆 L4 自动驾驶车,原则上都需要在算法里对这个问题给出答案。 本节让你扮演“算法”,做出选择,并看到全球大数据对比。

6.1 经典场景:电车难题

1967 年由哲学家 Philippa Foot 提出。原始版本:

🚋 The Trolley Problem

一辆失控电车正冲向前方五个人。 你站在道岔旁,可以拉杆把电车切换到另一条轨道——那条轨道上只有一个人你拉不拉这个杆?

这个问题在哲学课上讨论了 50 多年。从未想过,它会被真实的工程师写进代码

6.2 自动驾驶版本的电车难题

互动:你来当算法 · 选择避让方案

下面三个场景,每个让你做一次选择。汇总后会分析你的伦理倾向。

6.3 现实中各大厂的做法

厂商 / 系统对伦理两难的回应
Tesla Autopilot主要目标"避免事故“,复杂情况下倾向”尽可能减少伤害";不公开具体两难的处理
Waymo保守驾驶 — 高度优先安全裕度;不确定就减速 / 停车
Mercedes-Benz2016 年高管曾表态"优先保护车内乘员" — 引发巨大争议后撤回
多数 L2/L3 系统依赖"驾驶员参与"——即使自动驾驶激活,仍要求驾驶员随时接管 → 责任在人
⚠️ 业界主流策略

"避免选择"——尽量不让算法陷入电车难题,而是通过感知冗余、保守决策、提前减速消解困境。

6.4 MIT Moral Machine · 全球大规模调查

MIT 于 2016 年上线 Moral Machine 网站,收集全球 4 000 万份伦理选择。发现:

普遍倾向

  • 救人多于救物
  • 救多数多于少数
  • 救小孩多于救老人
  • 守规则者优先

文化差异

  • 东亚:更倾向尊重老人
  • 西方:更倾向救年轻人
  • 南美:更倾向救女性
  • 差异显著到难以“统一”

争议焦点

  • 能否量化生命价值?
  • 不同文化能否统一?
  • 算法应不应该做这种选择?
  • 谁来决定标准?

📚 Awad et al., "The Moral Machine Experiment", Nature, 2018

6.5 四个关键问题与思考

① 责任归属

自动驾驶发生事故——谁负责

  • 驾驶员?— 但他没在开车
  • 厂商?— 但车在按设计工作
  • 算法工程师?— 但他们不能控制具体场景
  • 立法者?— 法律滞后于技术

② 透明度

车厂该不该公开“伦理决策原则”?

  • 不公开 → 消费者不知情、社会无法监督
  • 公开 → 可能被恶意利用(如知道车会优先保乘客就故意冲撞)

③ 公平

"保乘客" vs "保行人"——这本身就是不公平的选择。

有钱买车的人能让自己在算法中享有更高优先级吗?这是买车送命权吗?

④ 替代方案

除了“事到临头怎么选”,更应该思考:

如何让事故根本不发生?—— 感知冗余、V2X 通讯、城市道路规划、限速管理……

6.6 朱老师的观点

💎 总结

电车难题在现实中极少发生。它的真正价值不是给工程师一个“标准答案”,而是逼我们思考

  1. 当 AI 必须做出影响人的决策时,我们到底想要它代表什么价值观
  2. 这些价值观由谁决定?工程师?厂商?政府?社会?
  3. 这些决策能不能被监督和追责

如果对这些问题没有清晰回答 — 即使技术上完美,也算不上"可信赖的 AI"。

⑦ 推荐参考资料

本节列出推荐书目、法规和拓展资源——给希望深入的同学。

7.1 中文教材与专著

  1. 古天龙:《人工智能伦理导论》,高等教育出版社,2022 年。
  2. 莫宏伟、徐立芳:《人工智能伦理导论》,西安电子科技大学出版社,2022 年。
  3. 杜严勇:《人工智能伦理引论》,上海交通大学出版社,2020 年。
  4. 考科尔伯格:《人工智能伦理学》,上海交通大学出版社,2023 年。
  5. 帕特里克·林:《机器人伦理学 2.0》,上海交通大学出版社,2023 年。
  6. 瓦拉赫、艾伦:《道德机器》,北京大学出版社,2017 年。
  7. 贡克尔:《机器人权利》,清华大学出版社,2020 年。

7.2 国内外相关法规与指南

  • 中国:《生成式人工智能服务管理暂行办法》(国家网信办,2023)
  • 中国:《新一代人工智能伦理规范》(科技部,2021)
  • 中国:《互联网信息服务深度合成管理规定》(2023)— 深合内容必须标识
  • 欧盟:《人工智能法案》(EU AI Act,2024 生效,2026-08-02 全面强制
  • 欧盟Code of Practice on AI-generated Content(深度伪造标识规则,2026)
  • 美国:NIST AI Risk Management Framework;各州立法(加州 SB 1047 等)
  • 联合国:UNESCO《人工智能伦理建议书》(2021,193 国签署)
  • G7:广岛 AI 进程(Hiroshima AI Process)国际行为准则(2023)

7.3 在线资源

  • moralmachine.net — MIT Moral Machine
  • partnershiponai.org — Partnership on AI
  • ainowinstitute.org — AI Now Institute · 年度报告
  • hai.stanford.edu — Stanford HAI · Human-Centered AI Institute

7.4 经典哲学著作(伦理学基础)

  • 康德:《道德形而上学奠基》、《实践理性批判》
  • 密尔:《功利主义
  • 亚里士多德:《尼各马可伦理学
  • 罗尔斯:《正义论

7.5 结课寄语

科技不是中立的,
科技人员也不能装作看不见。

技术改变世界,
你决定往哪个方向改变

道德责任是看不见的代码审查器
它在你心里。

— 《人工智能科学与技术》教研组,2025-2026 春学期

⑧ 课后小测

共 12 题,包含理论判断与案例分析。做完看得分与解析。

🎓 恭喜你完成了 2 课时的 AI 伦理学习!

本课带你走过:

  • 从一首"AI 翻唱"出发,看见 AI 时代的伦理变革
  • 三大经典伦理流派:义务论 · 结果论 · 美德论
  • 三派对比与多视角综合判断方法
  • AI 伦理的研究对象、目标与 6 大维度
  • 科技人员的三层责任与开发自检清单
  • 自动驾驶电车难题 · 你的伦理倾向

下一步建议:

  • 读 1 本经典:从《道德机器》或《人工智能伦理导论》开始
  • 跟 1 个时事:选一个最近的 AI 伦理新闻(如 Deepfake 案件、AI 招聘歧视诉讼),用三派视角分析
  • 做 1 个自检:审视自己已经做过 / 正在做的项目,对照 §5.4 的清单打个分