课程: 生成式 AI 时代的科技伦理
在构建人工智能时咨询客户
在前面的视频中, 我们探讨了技术团队、高管层 和董事会, 在确保人工智能实践符合伦理, 并且负责任方面的重要性。 但最重要的利益相关者,我们的客户, 又有什么作用呢? 要设计出色的产品, 就必须了解客户的偏好、需求和愿望, 并融入到产品设计中。 我想和大家分享 一个倾听客户声音的有效框架, 简称为 LISA。 首先,在开发之前,倾听客户的声音。 开发和推出新技术, 需要我们清楚地了解 用户的目标、需求和担忧。 不知道客户的期望,就很难创造出产品。 研究表明,用户在使用技术产品时, 会非常关心它的体验和可用性。 在尼尔森集团最近进行的一项调查中, 85% 的受访者表示, 如果用户体验不佳, 他们就不会再次使用某个网站或某种产品。 LISA 框架的第二个部分, 是让客户参与设计决策。 客户希望自己的意见得到重视, 我们需要让客户参与设计决策, 这对于构建满足客户需要的产品至关重要。 当我们想要确保自己的决策 能够体现用户群体的多样性时, 这种做法会特别有用。 来看一个例子。 2016 年, 民宿平台爱彼迎, 推出了他们的“社区承诺”计划。 他们收集用户的意见, 目的是让平台对拥有不同背景的用户, 更加友好和包容。 这种简单的做法催生了一些全新的功能, 比如筛选非二元性别代词, 或搜索无障碍房间。 让客户参与设计决策的另一种方法, 是成立用户咨询委员会, 邀请一群用户针对新功能、新设计 和产品开发的其他方面,提供反馈和意见, 即使只处于设计阶段也可以这样做。 例如,微软成立了一个客户咨询委员会, 邀请来自不同行业和背景的客户加入, 让这些客户对微软的产品和服务提供反馈, 即使这些产品和服务还处于开发阶段。 让拥有不同背景和经验的用户参与进来, 我们就能获得更广泛的视角, 从而设计和开发出, 真正满足所有用户需求的产品。 LISA 框架的第三部分, 是分享简单透明的隐私政策。 重视用户隐私,有助于我们与用户建立信任, 建立一个更忠诚的用户群体。 这一点非常重要。 皮尤研究中心的一项调查表明, 79% 的美国成年人, 担心不同公司会怎样使用自己的数据。 这可能会阻碍用户使用公司产品, 即使这些产品能够真正改善用户的生活。 做到这一点的方法有很多, 比如用简单的语言说明数据收集过程, 为客户提供明确的选择加入和选择退出选项, 以及在核心技术开发过程中, 遵循隐私设计原则。 LISA 框架的最后一个部分, 是审计自己的工作, 并请外部人员监督自己是否承担了责任。 任何现有和新技术产品, 都应进行定期审计。 在审计过程中, 我们需要审查产品的用途, 对用户的潜在风险, 以及可能最重要的一点, 即产品可能造成的意外后果。 来看一个正面的例子。 谷歌制定了一个人工智能原则框架, 用来指导自己开发和使用人工智能技术。 这个框架包括公平、隐私和问责制等原则, 并被用作一个指南, 来定期审计人工智能系统, 识别潜在风险以及制定补救措施。 应该注意的风险有很多, 比如偏见、数据隐私或者安全漏洞。 如果引入用户并审计这些风险, 企业就可以有效地应对这些风险。 在 OpenAI, 信任与安全团队, 负责识别与人工智能技术相关的潜在风险。 这个团队包括 来自计算机科学、法律和哲学领域的专家, 共同确保公司技术符合伦理,且是负责任的。 识别了潜在风险之后,就必须进行风险评估, 分析风险的发生几率和潜在影响。 风险评估应该考虑 风险对用户和业务的潜在影响。 例如,IBM, 设置了一个独立的人工智能治理委员会, 负责对人工智能系统进行风险评估。 委员会会评估潜在风险,然后提出建议 以减轻风险并提高用户的安全性。 利用这个 能倾听客户声音的 LISA 框架, 有助于打造出色的产品。 让我们倾听客户,将客户纳入决策过程吧。 同时分享隐私实践, 确保自己能遵守定期审计与问责制实践。 采取这些做法, 就可以加深与客户间的信任, 并确保技术 满足现在和未来客户社区的需求和偏好。