① 导览:从声音克隆说起
本课程共 2 课时。我们从一个鲜活的案例出发——声音克隆,引出 AI 伦理的核心问题; 学习三大经典伦理学流派;理解 AI 伦理研究的对象与目标;明确科技人员的道德责任; 最后以“无人驾驶电车难题”为案例展开深度讨论。
1.1 案例:从音乐录制到声音克隆
请戴上耳机,先听下面两段音频——一段是 Taylor Swift 本人演唱, 一段是用 AI 把 Ariana Grande 的声音“克隆”到 Taylor 这首歌上:
- Ariana Grande 本人没有授权,她的“声纹”被人随意挪用——这合不合法?合不合道德?
- Taylor Swift 的歌曲没有授权被翻唱、传播——侵权吗?
- 听众觉得很好听,但他们听的是一个不存在的演出。
- 如果这首 AI Cover 进入排行榜,传统音乐人怎么办?
1.2 智能时代的伦理变革 · 不止音乐
类似的伦理困境在 AI 时代俯首皆是。下面是2025–2026 年发生的真实案例:
2026 年初 xAI 的 Grok 被发现批量生成未经同意的色情 Deepfake,法国当局已启动调查。
"AI 检测器"产生大量假阳性,多起学生因被误判为"AI 写作"而面临纪律处分。
2025 年 Cigna / Humana / UnitedHealth 被诉,称其 AI 以 1.2 秒 / 单的速度拒掉 30 万 + 件医保索赔。
2025 年 ACLU 起诉 HireVue + Intuit,称视频面试 AI 对一位失聪原住民女性打低分。
⚡ 这些不是科幻——这些是 2025–2026 年的真实新闻头条。每一个都在叩问 AI 工程师的良知。
1.3 2 课时学习路线
| 课时 | 主题 | 核心内容 |
|---|---|---|
| 课时 1 | 伦理学理论基础 | 三大经典流派(义务论 · 结果论 · 美德论)· 流派对比 · AI 伦理研究对象与目标 |
| 课时 2 | 责任与案例 | 科技人员的道德责任 · 自动驾驶电车难题案例 · 课后小测 |
1.4 学习目标
本课程不给你“标准答案”,而是让你拥有:
- 从多个伦理视角分析同一问题的能力
- 识别 AI 应用中潜在伦理风险的敏感度
- 作为未来的科技工作者,主动承担道德责任的自觉
📌 提示:每个章节支持逐步展开——底部控制条点“展开下一节”。所有互动均可重复尝试。
② 伦理学基础理论
伦理学(Ethics)是一门研究“应当怎么做”的学问。它不告诉你“事实是什么”,而告诉你“哪种行为是对的”。 在两千多年的西方哲学史中,形成了三大经典流派——它们对同一件事,可能给出完全不同的判断。
2.1 义务论 · 康德(Deontology)
核心主张:行为是否正确,取决于它是否符合某种普适道德原则,而不是结果。
关键概念:
- 定言命令(Categorical Imperative): “你的行为准则要能成为普遍法则”——一件事如果不能让所有人都这么做,就不该做。
- 人是目的,不是手段:永远不要把任何人仅仅当作达成目的的工具。
- 义务论强调:知情权、选择权、人格尊严。
朋友的朋友被坏人追杀,躲到你家。坏人问你他在不在——你说不在(撒谎)还是说在(说真话)?
义务论者:不能撒谎。撒谎不能成为普遍法则——如果所有人都可以为了某种“好结果”而撒谎,整个社会的信任就会崩塌。
2.2 结果论 · 功利主义(Consequentialism)
核心主张:行为是否正确,取决于它产生的结果,而非行为本身或行为者的品德。
2.2.1 功利主义(最大多数人的最大幸福)
- 权衡短期与长期的“幸福总和”
- 考虑不同群体的“幸福分配”
- 当代版本:偏好效用主义(preference utilitarianism)
2.2.2 利己主义(极端结果论)
- 只关心行为是否利于自身利益最大化
- 不关心“对别人是否有好处”
朋友躲在你家,坏人问你他在不在?
功利主义者:看后果。如果撒谎能救一条命,就该撒谎——节省的“痛苦”远大于“撒谎”带来的轻微道德损耗。
2.3 美德伦理学 · 亚里士多德(Virtue Ethics)
核心主张:好行为来自好品格。关键不是“规则”或“结果”,而是值得赞赏的性格。
关键概念:
- 美德(Virtue):勇敢、诚实、节制、正义、智慧……
- 中庸之道:勇敢是莽撞与怯懦的中间状态
- 实践智慧(Phronesis):在具体情境中做出恰当判断的能力
朋友躲在你家,坏人问你?
美德论者:问问自己——一个“正派的人”会怎么做? 他既不会僵硬地撒谎,也不会僵硬地说真话——而是凭良知和场景判断,可能是拖延、报警、设法解围。 规则是死的,人是活的。
2.4 互动:经典两难 · 你怎么选?
分别从三个流派判断(每个流派只能选一个):
2.5 中国传统伦理思想 · 简要对照
中国哲学也有丰富的伦理思想。比照三大西方流派:
| 西方流派 | 核心问题 | 中国对照 |
|---|---|---|
| 义务论 | 是否符合规则? | “礼”:非礼勿视、非礼勿听 · 孔子 |
| 结果论 | 是否产生好结果? | “兼相爱、交相利” · 墨子 |
| 美德论 | 是否出自好品格? | “仁”、“君子” · 孔孟 |
中国伦理传统更强调“修身齐家”的内省路径,与希腊美德论有深刻共鸣。当代讨论 AI 伦理时,这些资源都值得回望。
③ 三大流派的对比与融合
三个流派各有强项与盲区。在真实世界做伦理判断时,单一视角往往不够—— 本节给出系统对比,并用一个 AI 招聘案例展示多视角综合分析。
3.1 三派对比表
| 义务论 · 康德 | 结果论 · 功利主义 | 美德论 · 亚里士多德 | |
|---|---|---|---|
| 判断依据 | 规则 / 原则 | 结果 / 效用 | 品格 / 美德 |
| 核心问题 | “我应不应该这么做?” | “这会带来什么后果?” | “一个好人会怎么做?” |
| 优点 | 明确、可执行;保护少数人权利 | 实际、灵活;面向社会福祉 | 人本、整体;适应具体情境 |
| 缺点 | 规则可能僵化;遇到例外难处理 | 难以衡量“幸福”;可能牺牲少数 | 主观;不同文化对“美德”看法不同 |
| 对应的 AI 实践 | 合规审查 · 数据隐私法规 | 风险评估 · 成本效益分析 | 负责任 AI · 工程师良心 |
3.2 同一个 AI 问题 · 三个视角
点击查看三个流派的分析视角:
3.3 实际伦理判断 · 三者协同
真实世界的伦理判断很少只用一种流派。负责任的工程师 / 决策者会综合考虑三个维度, 并意识到没有完美方案,只有更好的权衡。
下方雷达图展示一个 AI 决策在三个维度的得分。拖动滑块改变方案设计——看综合评估结论如何变化。
3.4 应用提示
在做 AI 项目设计与评审时,把三种视角作为强制 checklist:
- 康德:这件事是否违反某条原则?被影响者的知情权和选择权是否被尊重?
- 功利主义:受益和受损的群体分别是谁?受损方是否过于集中或弱势?
- 美德论:我自己是否愿意公开承认这是"我"做出来的东西?
④ AI 伦理的研究对象与目标
AI 伦理是一门新兴的交叉学科。它的研究对象不是技术本身,而是技术与人、与社会的关系。 本节明确“研究什么、目标是什么”。
4.1 研究对象
AI 伦理研究 = 人工智能系统在设计、部署和使用过程中涉及的道德问题。
关键:关注的不只是技术本身,而是人与 AI、社会与 AI 之间的关系。
4.2 研究目标
不阻碍技术进步的情况下,让 AI 系统对人类社会更有益、可控、公平。
4.3 AI 伦理关注的 6 大维度
每一个维度都对应着大量真实案例与法规要求。
4.4 AI 伦理的特殊性
与传统技术伦理(如生物、医学伦理)相比,AI 伦理有三个独特挑战:
大模型决策过程不透明——连开发者都无法完全解释。这让"问责"变得困难。
→ 催生可解释 AI(XAI)研究方向。
AI 能独立做出影响人的决策(自动驾驶、医疗诊断)。谁负责?开发者?用户?AI 本身?
→ 各国正在制定 AI 责任法律框架。
一个偏见模型一旦上线,可能瞬间影响千万人。微小错误放大到社会层面就是灾难。
→ 强调上线前严格审查。
4.5 核心论断
⭐ AI 伦理关注的不是"技术怎么做",
而是"技术做出来以后,会不会“对人不好”"。
⑤ 科技人员的道德责任
"我只是写代码的"——是常听到的辩护。但 AI 与传统软件不同: 它的输出会直接影响千万人。本节讨论:为什么科技人员"尚要"在道德上负责?责任有哪几层?怎么落实?
5.1 什么是道德责任
道德责任:做一件事时,除了"能不能“,还要想”该不该"。
它不是法律强制或行业制度规定的,而是基于良心、正义、公平、尊重他人这些价值做出的选择。
5.2 三层责任 · 共同约束工程师
法律责任
- 《个人信息保护法》
- 《生成式 AI 服务管理办法》
- 欧盟 AI Act(2024 生效 · 2026-08-02 全面强制实施)
- 美国 NIST AI RMF
- Code of Practice on AI-generated Content(深度伪造标识,2026 实施)
行业责任
- IEEE 软件工程师道德守则
- 公司合规流程
- 第三方算法审计
- 同行评议
道德责任
- 个人良心拷问
- 家人朋友能否接受
- 社会舆论的反映
- 历史的评判
5.3 国际监管动态:法律责任正在快速收紧
2024–2026 年,全球 AI 监管进入加速立法期。"没有规则约束"的时代已经结束。
· 欧盟 AI Act — 2026 年 8 月全面强制
| 时间节点 | 主要要求 |
|---|---|
| 2024-08-01 | 法案生效 |
| 2025-02-02 | 禁止类(社会评分、生物识别监控)开始强制 |
| 2025-08-02 | 通用 AI 模型(GPAI)透明度义务实施 |
| 2026-08-02 | 全面强制——高风险 AI 合规、Article 50 透明度(含深度伪造必须标识) |
违规罚则:违反 Article 50 透明度义务可处 €7.5 M 或全球营业额 1.5 %(以高者为准)。 严重违规(如使用禁止类 AI)最高 €35 M 或全球营业额 7 %。
· 中国监管框架
- 《生成式人工智能服务管理暂行办法》(网信办,2023 年 8 月生效)— 算法备案、内容标识、训练数据合法性
- 《新一代人工智能伦理规范》(科技部,2021)— 总体原则
- 《互联网信息服务深度合成管理规定》(2023)— 深度合成内容必须显著标识
· 全球趋势:监管 + 工程 双向收紧
- 美国:NIST AI RMF · 各州相继立法(如加州、科罗拉多反歧视法)
- 联合国:UNESCO《人工智能伦理建议书》(193 国签署)
- 行业自律:OpenAI、Anthropic、Google 都建立了"Model Card / System Card"披露制度
不要再以"这事还没法律管"为由放任设计。2026 年 8 月之后,欧盟市场上任何 AI 系统都必须能证明: ① 数据来源合规;② 风险评估到位;③ 输出可追溯;④ 深伪有标识。否则罚款 + 退市。
5.4 为什么 AI 科技人员"尚要"在道德上负责?
即便有了法律,"合规就够了吗"?远远不够。"我只是写代码的"曾经是合理辩护——但 AI 与传统软件不同:
- 一个有偏见的招聘模型 → 数十万求职者被歧视(2025 年 HireVue 案)
- 一个不够严谨的医疗 AI → 数千患者被误判(2025 年 Cigna / UnitedHealth 集体诉讼)
- 一个易被滥用的人脸 / 声音合成模型 → 无数普通人成为受害者(2026 年 Grok 案)
当你的代码影响如此深远时,"我只是写代码"已经不是辩护,而是放弃责任。
5.5 一份"负责任 AI 开发"自检清单
你即将发布一个新 AI 模型。请逐项勾选你已经做到的——评估你的"责任分数"。
5.6 开发各阶段的关键问题
| 阶段 | 关键问题 |
|---|---|
| 开发前 | 这个模型最坏会带来什么后果? |
| 训练时 | 数据里有没有歧视性或误导性内容? |
| 发布前 | 我敢不敢让自己的家人 / 朋友 / 学生使用这个产品? |
| 上线后 | 如果出错,我有没有能力让它被追溯和修正? |
这就是负责任地做 AI 科技。
5.7 一句话总结
负责任地做 AI 科技 — 不是拖慢速度,而是帮我们提前避坑。
技术改变世界,但你决定往哪个方向改变。
⑥ 案例讨论:无人驾驶汽车的伦理设计
自动驾驶把一个古老的哲学问题—— 电车难题 ——真实地搬到了工程师面前。 每一辆 L4 自动驾驶车,原则上都需要在算法里对这个问题给出答案。 本节让你扮演“算法”,做出选择,并看到全球大数据对比。
6.1 经典场景:电车难题
1967 年由哲学家 Philippa Foot 提出。原始版本:
一辆失控电车正冲向前方五个人。 你站在道岔旁,可以拉杆把电车切换到另一条轨道——那条轨道上只有一个人。 你拉不拉这个杆?
这个问题在哲学课上讨论了 50 多年。从未想过,它会被真实的工程师写进代码。
6.2 自动驾驶版本的电车难题
下面三个场景,每个让你做一次选择。汇总后会分析你的伦理倾向。
6.3 现实中各大厂的做法
| 厂商 / 系统 | 对伦理两难的回应 |
|---|---|
| Tesla Autopilot | 主要目标"避免事故“,复杂情况下倾向”尽可能减少伤害";不公开具体两难的处理 |
| Waymo | 保守驾驶 — 高度优先安全裕度;不确定就减速 / 停车 |
| Mercedes-Benz | 2016 年高管曾表态"优先保护车内乘员" — 引发巨大争议后撤回 |
| 多数 L2/L3 系统 | 依赖"驾驶员参与"——即使自动驾驶激活,仍要求驾驶员随时接管 → 责任在人 |
"避免选择"——尽量不让算法陷入电车难题,而是通过感知冗余、保守决策、提前减速来消解困境。
6.4 MIT Moral Machine · 全球大规模调查
MIT 于 2016 年上线 Moral Machine 网站,收集全球 4 000 万份伦理选择。发现:
普遍倾向
- 救人多于救物
- 救多数多于少数
- 救小孩多于救老人
- 守规则者优先
文化差异
- 东亚:更倾向尊重老人
- 西方:更倾向救年轻人
- 南美:更倾向救女性
- 差异显著到难以“统一”
争议焦点
- 能否量化生命价值?
- 不同文化能否统一?
- 算法应不应该做这种选择?
- 谁来决定标准?
📚 Awad et al., "The Moral Machine Experiment", Nature, 2018
6.5 四个关键问题与思考
① 责任归属
自动驾驶发生事故——谁负责?
- 驾驶员?— 但他没在开车
- 厂商?— 但车在按设计工作
- 算法工程师?— 但他们不能控制具体场景
- 立法者?— 法律滞后于技术
② 透明度
车厂该不该公开“伦理决策原则”?
- 不公开 → 消费者不知情、社会无法监督
- 公开 → 可能被恶意利用(如知道车会优先保乘客就故意冲撞)
③ 公平
"保乘客" vs "保行人"——这本身就是不公平的选择。
有钱买车的人能让自己在算法中享有更高优先级吗?这是买车送命权吗?
④ 替代方案
除了“事到临头怎么选”,更应该思考:
如何让事故根本不发生?—— 感知冗余、V2X 通讯、城市道路规划、限速管理……
6.6 朱老师的观点
电车难题在现实中极少发生。它的真正价值不是给工程师一个“标准答案”,而是逼我们思考:
- 当 AI 必须做出影响人的决策时,我们到底想要它代表什么价值观?
- 这些价值观由谁决定?工程师?厂商?政府?社会?
- 这些决策能不能被监督和追责?
如果对这些问题没有清晰回答 — 即使技术上完美,也算不上"可信赖的 AI"。
⑦ 推荐参考资料
本节列出推荐书目、法规和拓展资源——给希望深入的同学。
7.1 中文教材与专著
- 古天龙:《人工智能伦理导论》,高等教育出版社,2022 年。
- 莫宏伟、徐立芳:《人工智能伦理导论》,西安电子科技大学出版社,2022 年。
- 杜严勇:《人工智能伦理引论》,上海交通大学出版社,2020 年。
- 考科尔伯格:《人工智能伦理学》,上海交通大学出版社,2023 年。
- 帕特里克·林:《机器人伦理学 2.0》,上海交通大学出版社,2023 年。
- 瓦拉赫、艾伦:《道德机器》,北京大学出版社,2017 年。
- 贡克尔:《机器人权利》,清华大学出版社,2020 年。
7.2 国内外相关法规与指南
- 中国:《生成式人工智能服务管理暂行办法》(国家网信办,2023)
- 中国:《新一代人工智能伦理规范》(科技部,2021)
- 中国:《互联网信息服务深度合成管理规定》(2023)— 深合内容必须标识
- 欧盟:《人工智能法案》(EU AI Act,2024 生效,2026-08-02 全面强制)
- 欧盟:Code of Practice on AI-generated Content(深度伪造标识规则,2026)
- 美国:NIST AI Risk Management Framework;各州立法(加州 SB 1047 等)
- 联合国:UNESCO《人工智能伦理建议书》(2021,193 国签署)
- G7:广岛 AI 进程(Hiroshima AI Process)国际行为准则(2023)
7.3 在线资源
- moralmachine.net — MIT Moral Machine
- partnershiponai.org — Partnership on AI
- ainowinstitute.org — AI Now Institute · 年度报告
- hai.stanford.edu — Stanford HAI · Human-Centered AI Institute
7.4 经典哲学著作(伦理学基础)
- 康德:《道德形而上学奠基》、《实践理性批判》
- 密尔:《功利主义》
- 亚里士多德:《尼各马可伦理学》
- 罗尔斯:《正义论》
7.5 结课寄语
科技不是中立的,
科技人员也不能装作看不见。
技术改变世界,
但你决定往哪个方向改变。
道德责任是看不见的代码审查器,
它在你心里。
— 《人工智能科学与技术》教研组,2025-2026 春学期
⑧ 课后小测
共 12 题,包含理论判断与案例分析。做完看得分与解析。
🎓 恭喜你完成了 2 课时的 AI 伦理学习!
本课带你走过:
- 从一首"AI 翻唱"出发,看见 AI 时代的伦理变革
- 三大经典伦理流派:义务论 · 结果论 · 美德论
- 三派对比与多视角综合判断方法
- AI 伦理的研究对象、目标与 6 大维度
- 科技人员的三层责任与开发自检清单
- 自动驾驶电车难题 · 你的伦理倾向
下一步建议:
- 读 1 本经典:从《道德机器》或《人工智能伦理导论》开始
- 跟 1 个时事:选一个最近的 AI 伦理新闻(如 Deepfake 案件、AI 招聘歧视诉讼),用三派视角分析
- 做 1 个自检:审视自己已经做过 / 正在做的项目,对照 §5.4 的清单打个分