澳门皇冠赌场appappapp的缩写标志
除了 这些塔
批发价格指数的符号

人工智能与公平:Elke Rundensteiner和学生开发算法来解决自动化排名中的偏见

2022年3月1日

说到公平,人工智能(AI)是不完美的.

尽管他们有明显的超能力, 驱动重要决策的基于人工智能的算法可能携带甚至放大人类创造者的偏见. 当人工智能被用于组合多个决策者的偏好时,这些无形的偏见可能会导致意想不到的后果, 有些人可能是有偏见的, 对求职者进行排名, 奖学金, 贷款, 奖, 或其他的区别.

rundenst.jpg

Elke Rundensteiner alt
Elke Rundensteiner

Elke Rundensteiner威廉·史密斯·迪恩的教授 计算机科学系 也是 数据科学项目 在批发价格指数, 她的学生正在开发一种解决这个问题的算法,帮助确保对人们产生深远影响的综合排名的公平性. 这项工作得到了一个 美国国家科学基金会拨款近50万美元.

“整合多个决策者的偏好是一个困难的问题, 有偏见的人, 形成一个综合的共识排名,并确保这个综合排名公平地包括了来自代表性不足群体的不同个体,”Rundensteiner说. “随着人工智能在社会中发挥越来越大的作用, 进一步影响澳门皇冠赌场appappapp的生活方式, 澳门皇冠赌场appappapp需要有效的机制来实现排名的公平和共识.”

排名在任何地方都被用于可以改变个人生活的决策,并可以通过结合个人决策者的偏好来创建. 面试求职者的委员会成员, 例如, 可能会将他们喜欢的候选人提交给基于人工智能的程序, 然后用哪个来生成候选人的综合排名.

公平的排名

确保综合排名公平分配资源——比如工作, 贷款, 或者奖励给不同群体的“受保护属性”的人,“然而, 可能比较麻烦. 受保护属性是指个人特征,如种族、性别和年龄 不能作为歧视的理由.

凯特琳Kuhlman 20, 博士学位, 计算机科学, 他曾与Rundensteiner合作开发算法来生成考虑单个受保护属性的公平排名, 如性别, 在候选人.

ltharrison.jpg

莱恩哈里森alt
莱恩哈里森

Rundensteiner、计算机科学 莱恩·哈里森副教授, 博士候选人凯瑟琳·卡歇尔(凯萨琳Cachel)继续开发了一系列公平指标和新颖算法,以解决当候选人拥有一个以上受保护属性时,排名中可能出现的“交叉偏差”问题.

“许多研究做出了一个关键的假设,即受保护的属性是二元的——男性或女性, 白色或有色人种,”Cachel说. “但现实是,人类属于许多不同的群体. 澳门皇冠赌场appappapp需要算法来处理多个类别. 澳门皇冠赌场appappapp的创新始于认识到人类是复杂的,并询问澳门皇冠赌场appappapp如何确保公平,尊重他们身份的所有部分.”

人工智能和社会

Cachel, Rundensteiner, 和哈里森在一篇计划在《澳门皇冠赌场appappappapp》杂志上发表的论文中描述了他们的进展 2022年IEEE数据工程国际会议. 除了, 研究人员和包括博士候选人希尔森·什雷斯塔在内的团队正在开发交互式视觉分析工具,以实现公平的AI技术, 这样决策者就可以选择并交互式地探索排名中期望的公平水平.

“人工智能工具, 设计易于解释和丰富的可用于审计的公平概念是很重要的——不仅仅是一个公平或不公平的诊断,”Cachel说. “澳门皇冠赌场appappapp希望给予用户更大的决定权, 调整他们想要达到的公平程度.”

随着公司和组织越来越依赖人工智能自动化数据密集型活动,公平问题成为社会的关键问题之一, 根据Rundensteiner.

澳门皇冠赌场appappapp关注的是共识排名的公平性问题, 但澳门皇冠赌场appappapp努力的更大背景是,社会的所有领域都在受到人工智能的影响,”她说. “因此,解决人工智能的公平问题对社会的未来至关重要, 基于人工智能的技术为澳门皇冠赌场appappapp的生活做出了很多关键的决定.”