人工智能系统如何学会做出公平的选择
2022年7月19日
“这个问题不仅局限于贷款申请,而且可能发生在任何由人类判断或人工智能本身引入偏见的地方。想象一下,一个人工智能正在学习预测、诊断和治疗疾病,但它对特定人群有偏见。如果不检查这个问题,您可能永远都不会知道!使用像我们这样有临床医生参与的人在循环过程,你就可以解决这个问题,”Simone Stumpf说
格拉斯哥大学和富士通有限公司的研究人员进行了为期一年的合作,被称为“终端用户解决公平问题”(Effi),通过向人工智能系统提供帮助,帮助它们做出更公平的选择。
人工智能已经越来越多地融入到医疗保健、银行和一些国家司法系统等行业的自动化决策系统中。在用于决策之前,人工智能系统必须首先通过机器学习进行“训练”,这将通过许多不同的人类决策示例来执行。然后,它学习如何通过识别或“学习”一种模式来模仿做出这些选择。然而,这些决策可能会受到做出这些决策的人有意识或无意识偏见的负面影响。有时,AI本身甚至会“出格”并带来不公平。
解决人工智能系统偏差
Effi项目正着手通过一种被称为“人在回路”的机器学习方法来解决这些问题,这种方法将人更紧密地整合到机器学习过程中,以帮助人工智能做出公平的决策。它建立在富士通和格拉斯哥大学计算科学学院的Simone Stumpf博士之前合作的基础上,他们基于一种被称为解释性调试的方法,探索了贷款申请的“人在循环”用户界面;这使用户能够识别和讨论他们怀疑受到偏见影响的任何决策。从这些反馈中,人工智能可以学习在未来做出更好的决定。
“这个问题不仅局限于贷款申请,而且可能发生在任何由人类判断或人工智能本身引入偏见的地方。想象一下,一个人工智能正在学习预测、诊断和治疗疾病,但它对特定人群有偏见。如果不检查这个问题,您可能永远都不会知道!使用像我们这样有临床医生参与的人在循环过程,你就可以解决这个问题,”斯通普夫博士告诉国际实验室伙伴。
迫切需要可靠的系统
“人工智能具有巨大的潜力,可以为广泛的人类活动和工业部门提供支持。然而,人工智能的有效程度取决于它被训练成什么样。人工智能与现有系统的更大融合有时会导致人工智能决策者反映出其创造者的偏见,从而损害最终用户的利益。迫切需要建立可靠、安全和值得信赖的系统,以便作出公平的判断。人在回路机器学习可以有效地指导决策人工智能的发展,以确保实现这一目标。我很高兴能继续与富士通在Effi项目上的合作,我期待着与我的同事和我们的研究参与者合作,推动人工智能决策领域的发展,”她补充道。
富士通有限公司的富士通研究中心人工智能伦理研究中心负责人福田大介博士说:“通过与Simone Stumpf博士的合作,我们探索了世界各地人们对人工智能的各种公平感。这项研究导致了将各种感官反映到人工智能中的系统的开发。我们认为与Stumpf博士的合作是推动富士通AI伦理继续发展的有力手段。在这段时间里,我们将挑战新的问题,以人的思想为基础,做出公平的AI技术。随着整个社会(包括工业界和学术界)对人工智能伦理的需求不断增长,我们希望Stumpf博士和富士通继续合作,使富士通的研究为我们的社会做出贡献。”
更多的信息在线