6月6日 消息:一项来自卡内基梅隆大学和史蒂文斯理工学院的研究表明,他们提出了一种新的思考人工智能决策公平性的方法。研究者们借鉴了一种名为 “社会福利优化” 的传统方法,通过关注个体的整体利益和危害来做出更公平的决策。这一方法可以用于评估人工智能决策的公平性,并着眼于受保护群体的批准率。
人工智能社区一直试图确保在经济水平、种族、民族背景、性别等不同群体之间实现公平待遇。传统的公平方法可能只关注确保来自不同群体的人以相同比例获得批准。然而,如果拒绝抵押贷款申请对弱势群体产生的负面影响远大于对优势群体的影响,该如何处理呢?通过采用社会福利优化方法,人工智能系统可以做出对每个人都更有利的决策,尤其是对弱势群体。
这项研究的重点是 “阿尔法公平”,即在追求公平和为每个人谋求最大利益之间寻找平衡的方法。阿尔法公平可以根据具体情况进行调整,以平衡公平性和效率。研究者们展示了如何使用社会福利优化来比较当前在人工智能中使用的不同群体公平性评估方法。通过这种方法,我们可以了解在不同情况下应用不同群体公平性工具的好处。同时,这一研究还将群体公平性评估工具与经济学和工程学中使用的更广泛的公平效率标准联系起来。
这项研究对于人工智能系统的开发者和政策制定者来说具有重要意义。开发者们可以通过采用更广泛的公平方法并了解公平措施的局限性,创建更加公平和有效的人工智能模型。此外,研究还强调了在人工智能发展中考虑社会公正的重要性,确保技术能够促进社会不同群体之间的公平。该论文已发表在国际会议上,并引起了广泛的关注。
这项研究为人工智能领域带来了新的思考方式,可以帮助实现更公平的人工智能决策。通过关注整体利益和危害,人工智能系统可以更好地服务于每个人,特别是那些处于弱势地位的群体。随着这一研究的进一步发展,我们有望在人工智能领域取得更大的进步,让人工智能对每个人都更加公平和有益。