人工智能(AI)可能产生有偏见的结果,这已不是什么新鲜事。其算法基于人类的设计选择,而人类选择很少能做到价值中立。
我们还要求算法复刻以往的决策模式并产生结果,这种情况下也可能会出现成见。但是,如果我们不希望以后还走过去的老路,尤其是涉及到公平的情况下,我们该怎么做?
人工智能产生不公平的结果仅是一种可能性,因此我们不应该就此摒弃它,或者像一些知名技术专家建议的那样,将其搁置。我们要做的正好相反。
认识到人工智能有延续不平等的倾向,就能让我们在争取公平的斗争中更进一步。无论如何,减轻人工智能偏见无疑会比纠正人类偏见更容易。
这是因为人工智能缺失的公平性是可以被系统化和量化的,而且比人类决策更加透明。人类决策往往会受到无意识的偏见和错误观念的影响。
人工智能并不创造偏见。相反,它可以作为一面镜子,映射出偏见的影子。鉴于其问题是可以被看到并测量的,阻止人工智能偏见比阻止人类偏见也更加容易。
✦必须将人工智能公平视为优先事项
但首先,我们必须正视这面镜子里的影子。政府和企业需要将人工智能的公平性作为优先事项,因为算法影响着从就业、借贷到医疗卫生的一切决策。
目前,美国和欧盟正在通过美国平等就业机会委员会(EEOC)的监管以及欧盟的《人工智能法案》(AI Act)和《人工智能责任指令》(AI Liability Directive),限制人工智能偏见事件的增加。
首要的焦点应该放在特定行业上,比如信贷、医疗卫生、就业、教育、住房所有权、执法和边境管制等。这些领域中,人工智能的偏见可能会妨碍人们获得应有的重要服务。在这些领域中,刻板印象和偏见经常帮助维持不公平的现状,这可能会导致预期寿命缩短、失业、无家可归和贫困等问题。
控制人工智能偏见的方法应从算法测试前开始。若算法评估者仅注重决策所需数据而不关心结果的公正性,则人工智能偏见的错误将频繁出现。
鉴于人工智能模型的复杂性和应用领域多样,我们很难预测到人工智能建议可能带来的各种不同影响。这也是人工智能偏见表现出来的地方。
为了确保偏见的可靠控制,应建立中央数据库,该数据库包含私营部门或政府收集的关于年龄、性别、种族、残疾、婚姻状况、家庭组成、健康和收入等敏感数据。这些敏感数据可用于测试与人工智能驱动模型相关的偏见,并进行必要的纠正。
这种“人工智能公平性”数据集能够帮助企业在发布岗位要求之前审查其中的偏见,以确保招聘的公平性。对于大学招生,数据集可以分析人工智能的建议,了解求学者的经济地位、性别、种族或残疾对录取结果的影响。
✦AI的准确性也很重要
人工智能的结果需要进行准确性检验,否则可能引发偏差。举例来说,谈到生成性人工智能,如ChatGPT,目前对其结果是否能达到一定准确性和真实性水平没有明确的要求和监管,这为人工智能偏见的传播提供了另一种途径。聊天机器人无法验证输入数据的真实依据,只是简单地模仿人类聊天模式,无论这种模仿是否可取。
为了解决人工智能偏见,我们可以将敏感信息重新加入数据集,以便分析不公平结果的共同特征。然而,这也意味着我们需要借助人工智能本身来发现其在公平性方面存在的缺陷。
来源:联合国贸易网络