课程: 生成式 AI 时代的科技伦理
在实际场景中运用维拉斯的框架
现在来看一下如何将上个视频中 介绍的框架运用于实际。 以一家科技公司 CTO 莎拉的经历为例。 她到会议室参加一个紧急会议, 因为出了一些严重问题。 有人告诉她,公司新推出的 人工智能聊天机器人出了问题, 本来应该帮助客户进行在线下单, 但却对顾客作了一些不当、 不准确甚至带有冒犯性的回应。 莎拉知道这不仅仅是产品问题, 也是一个有关伦理决策的问题。 她知道眼下要做的很简单, 让聊天机器人下线就行。 她这么做了, 但她还必须弄清楚下一步该做什么。 作为技术专家,莎拉知道要从数据入手, 换句话说,要弄清楚这个工具是如何训练的。 与团队交流之后, 她了解到基础数据集来自一组 未经清理的网络对话。 为了尽早上线, 团队没有用筛选器和工具来清理数据集。 莎拉知道了下一步该怎么做, 她让团队使用新的数据集, 里面的数据来自公司自有的客户互动数据库, 而且她让团队先清除其中的个人信息数据, 然后对模型运行一系列 偏见检测流程和过滤动作。 但莎拉知道数据不是问题的终点。 她在继续询问后发现, 客户使用聊天机器人不仅仅是 为了获得客户支持, 他们还利用这个机会聊到了 很多与公司和产品毫无关系的话题。 她认为技术团队本应该提前审查 客户可能会使用这个工具的其他方式, 并设置一些伦理保障措施。 由于使用范围扩大了, 团队需要限制聊天机器人与客户的讨论话题, 并确保聊天机器人的回复 与自身所应具备的专业知识相符。 莎拉叫来了客户支持团队, 向一线员工了解他们如何与客户对话。 她想知道客户通常想要谈论什么。 利用这些信息并共享设计流程之后, 团队为聊天机器人讨论的话题范围 划定了一个全新边界, 并限制了过多与业务无关的对话。 最后,莎拉发现在查看 聊天机器人的输出结果时, 她无法解释其中一些 非常不敏感的输出是如何产生的。 她的团队需要让工具的输出 具有更好的可追溯性、更容易评估。 于是她建议团队建立多个输入-输出检查点, 并主张创建一个内部审计流程, 来定期监测和检查聊天机器人的输出。 与此同时,她还建立了一个 风险评估和响应框架, 让用户实时标记出不合适的对话, 以便团队立即解决问题。 对于这些措施,这家公司要付出巨大努力, 可能要花数周到数月。 但如果他们在设计聊天机器人时 就遵循了伦理原则, 那这些花费、时间和压力完全可以避免。 在新产品的初始设计阶段以及每个部署阶段, 都需要进行伦理分析。 采用我们的框架之后, 莎拉的公司终于解决了围绕聊天机器人 产生的伦理困境, 重新上线帮助客户完成购买流程。 你的企业会如何处理类似莎拉遇到的困境? 你现在会采取哪些步骤来让伦理分析 成为人工智能产品设计决策的核心?