在机器学习中实现负责任的人工智能使用

2021年8月4日
Azure机器学习图

工作在 机器学习与人工智能真人游戏厅经常看到输入和期望输出之间的不一致. 负责任的人工智能和合乎道德的机器学习方法要求企业领导层睁大眼睛进入这个过程.

人工智能和机器学习仍处于起步阶段, 但是随着这个领域每天都在发生的快速增长和扩张, 真人游戏厅很快就会意识不到其中的含义. 每个AI和ML项目负责人都必须认真对待负责任的AI.

真人游戏厅应该问的最大问题是:真人游戏厅到底在用AI和ML做什么, 预期的结果是否符合真人游戏厅的期望并符合真人游戏厅的道德标准?

理解为什么负责任的人工智能对未来(和现在)至关重要

深入研究负责任的AI问题意味着真人游戏厅必须明白,这不是一个简单的a +B=C公式. 真人游戏厅经常听到商业领袖说, “我试图在这个过程中使用机器学习, 我期望得到X, 而是, 它给了我Y."

(或者他们 把它交给他们的it团队 没有充分探索可能的结果,直到问题出现.)

一般来说, 问题从来不是机器的“故障”,而是数据和模型的故障. 人工智能软件从来都不是100%正确的. 它假设训练输入代表了看不见的实际输入,而实际输入随时间而变化. 代码固然重要,但数据更为重要. 必须进行检查和平衡,以确保现有的可靠性实践到位,并在真人游戏厅进行新的努力时引入新的规则.

例如, 几年前,亚马逊(Amazon)领导层在招聘新员工时使用了一种算法,引发了严重担忧. 这家在线零售巨头遇到了一些重大障碍(以及法律和公关方面的噩梦) 算法“讨厌”女人.

这些计划外的偏差在机器学习中随处可见. 一个非常 芝加哥大学最近的一项研究表明 发现人工智能偏见在医疗算法和医院应用中很普遍. 这不仅造成双重护理标准,而且可能成为生死攸关的问题. 当机器学习偏差和人工智能偏差无法捕捉异常值并错过异常疾病迹象时, 患者可能会错过挽救生命的治疗和干预措施.

对负责任的人工智能的需求无处不在. 医院, 保险, 医疗保健是一个涉及重大伦理问题的大领域, 但在许多其他领域,人工智能的偏见和未能识别算法差距可能会造成可怕的后果.

想象一下,你建立了机器学习来决定客户是否会获得贷款. 你的团队基于一个简单的模型进行筛选,该模型包含30-50个申请人的特征. 它会查看他们的信用评分、财务状况、历史、计划和愿望. 这台机器用数千个数据集进行训练, 甚至数万的贷款, 根据这些历史特征来了解他们是否成功.

机器学习可能最终得出“这笔贷款有70%的成功机会”的结论,或者“这笔贷款有90%的可能性是好的。.“但真人游戏厅可能没有看到一些根深蒂固的偶然偏见. 例如, 也许历史数据参考了申请人的性别, 那么突然, 发放给女性的贷款减少了10%. 这种偏见可能不是你的产品的本意, 但真人游戏厅必须识别它, 为它做计划, 根除它, 确保真人游戏厅的行为合乎道德, 负责人工智能.

在一天结束的时候, 每次你教一台机器或从事人工智能, 你应该仔细考虑结果. 你怎么知道学到了什么? 你真的想教机器这些吗?

AI伦理中的玩火行为

超过75%的ceo 我相信人工智能对社会有好处, 但更高的比例(84%)认为,基于人工智能的决策需要透明和可解释,以获得消费者和利益相关者的信任.

基于这些发现, 很明显,高管层领导者需要审查公司内部的人工智能实践. 真人游戏厅应该问问题, 检查和处理潜在风险, 并且睁大眼睛看待这个过程. 在真人游戏厅继续前进之前,真人游戏厅必须解决控制和过程缺乏或不充分的领域.

那些不负责任地进入人工智能和机器学习领域的公司正在让自己陷入危机. 许多公司都在“涉猎”机器学习,却没有意识到自己是在玩火. 他们即将发布的模型并不像他们预期的那样运行,这可能会对他们的业务产生巨大影响.

现在,答案不是避免或害怕机器学习或人工智能. 关键是要设置一系列的检查点和措施,以确保你的结果反映了你的商业道德.

解释:负责任的人工智能解决方案

在人工智能领域,真人游戏厅可能会听到程序员将人工智能模型称为“黑盒”模型. 这意味着, 输入的数据进入黑匣子, 一个复杂的算法神秘地将一些ML“魔法”应用于集合,然后得出一个决策输出. 大多数人都不知道这个模型是如何得出结论的, 但他们被要求相信它是准确的(很可能是准确的), 根据公式)和道德(可能是也可能不是).  

这个简单的反思路被称为“玻璃盒”模型. 玻璃盒模型是透明的,算法简单,易于解释. 现在, 玻璃盒模型存在一些挑战,因为您可能需要牺牲一些准确性来换取简单性和可理解性.

微软InterpretML 是一个嵌入Azure机器学习空间的开源工具,它提供了直接的可解释性和对机器学习模型的更清晰的理解. InterpretML通过功能和工具帮助解释预测和调试模型,以确保负责任的AI应用于场景. 它探讨了不同数据子集的模型性能变化, 帮助您在局部和宏观级别上理解模型错误. 您可以运行分析来查看模型的更重要的影响和含义.

使用像这样的工具 InterpretML,您采用ML模型,应用场景,并查看其执行情况. 在贷款场景中, 如上所述, 你可能想通过观察女性申请者和男性申请者来测试他们的表现. 你还可以根据种族、年龄、收入水平等人口统计数据来观察它的表现. 如果一个年收入5万美元的人申请100万美元的抵押贷款,会发生什么? 在理想的情况下, 您将检查应用程序已批准和未批准的情况,以确定参数以及如何读取数据.

像InterpretML这样的工具的一个非常酷的方面是,它可以帮助您了解它在这些给定场景中的执行情况. 然后,它会提供建议,帮助你调整模型以减轻偏见. 例如, 在贷款场景中, 这个工具可以帮助你确定为什么你看到对男性申请人的不公平偏爱,然后帮助你调整和纠正重新训练模型的路径.

机器学习和人工智能将继续快速发展. 它们不仅能帮助企业更准确、更高效地运作, 但它们可以以一种过去不可能的方式处理大量数据. 人工智能可以在商业中扮演许多积极的角色,以确保您的持续增长和成功.

但是,采取合乎道德的做法是真人游戏厅所有人义不容辞的责任. 俗话说得好能力越大,责任越大. 你还要为公司的声誉和客户的信任承担责任.

如果你已经准备好探索负责任的机器学习和人工智能方法如何让你的公司走向更强大的明天, 今天就伸出援手. 真人游戏厅是来帮你推进技术进步的.

卡梅伦检查者
我叫卡梅伦检查者,是屋大维科技集团的首席架构师.
微软最有价值球员. 云. 企业架构. 机器学习. 混合现实.
回来
变革和影响,
让真人游戏厅为你工作
真人游戏厅
友情链接: 1 2 3 4 5 6 7 8 9 10