政府官员和警察正在使用可能具有歧视性的人工智能(AI)来做出复杂的决定——包括福利支付和结婚证书。
《卫报》的一项调查显示,人工智能和算法在白厅的使用是“随意的,往往是不受控制的”。
在一个案例中,一位国会议员认为,工作和养老金部使用的一种算法导致数十人错误地取消了他们的福利。
另一个案例表明,伦敦警察厅使用的面部识别工具在某些情况下,在试图识别黑人面孔时比识别白人面孔时更容易出错——这是该技术自几十年前问世以来的一个重大问题。
调查报告称,至少8个白厅部门的公务员和“少数”警察部队在一系列领域采用了人工智能。
这其中就包括英国内政部,他们使用了一种算法来标记“假婚姻”,并不成比例地突出了来自阿尔巴尼亚、希腊、罗马尼亚和保加利亚的人。
在这种情况下,人工智能或机器学习通常是在大型数据集上进行训练的。如果这些数据集包含歧视性信息,人工智能将以同样的方式进行歧视。
此外,复杂人工智能程序的开发人员,包括ChatGPT等大型语言模型(llm),并不完全了解它们是如何工作的。
日本首相苏纳克(Rishi Sunak)此前曾谈到人工智能的好处,特别是在英国国家医疗服务体系(NHS),人工智能可以帮助加快诊断、管理床位,并提供更准确的测试。
虽然专家们在某些情况下称赞人工智能的优点,但他们警告说,这并不是公共服务的一刀切解决方案。
在荷兰,人工智能过去常常发现潜在的儿童保育福利欺诈,在多次做出错误决定后,错误地使数万个家庭陷入贫困。
下周,苏纳克将在布莱切利公园(Bletchley Park)主持一场国际峰会,重点讨论人工智能对人类的潜在威胁。
公法项目首席执行官沙米姆·艾哈迈德在接受《卫报》采访时表示:“人工智能带来了巨大的社会公益潜力。例如,我们可以使事情更有效率。但我们不能忽视严重的风险。
“如果不采取紧急行动,我们可能会梦游进入这样一种局面:不透明的自动化系统被经常、甚至可能是非法地用于改变生活的方式,而当这些过程出现问题时,人们将无法寻求补救。”
人工智能已被公务员和警察部队使用多年,例如电子护照门或自动车牌识别,但这已经广为人知。
这项技术最近的部署并不总是公开的。
诺森比亚大学(Northumbria University)法学教授、英国政府数据伦理顾问委员会前成员奥斯瓦尔德(Marion Oswald)说,人工智能在公共部门的使用方式缺乏一致性和透明度。
“很多这些工具会影响很多人的日常生活,比如那些声称有好处的人,但人们不明白为什么要使用它们,也没有机会挑战它们。”
内阁府推出了一项“算法透明度报告标准”,鼓励各部门和警方公开他们使用人工智能的地方。目前有6个组织列出了相关项目,但《卫报》的一份信息自由报告显示,至少有8个白厅部门正在使用这项技术。
工党议员Kate Osamor认为,在一种算法标记出潜在的欺诈性索赔后,该机构错误地暂停了数十名保加利亚人的福利。
DWP和内政部拒绝向《卫报》提供有关他们如何在其流程中使用人工智能的进一步信息。
更多:人工智能:NHS的救星……还是疑病症患者最好的朋友?
专家警告称,人工智能有“灭绝的危险”
更多:不需要人类操作的“杀手机器人”已经进入战场