作为Twitter上有见地的讨论的一部分,埃隆·马斯克(Elon Musk)和追随者讨论了偏差对算法的影响。通过这样做,他们就算法在我们生活中的作用以及算法说服我们以特定方式思考和行为的方式展开了对话。特斯拉首席执行官表示“那些编写算法的人”已经承担了责任,并强调了认真考虑算法开发过程中使用的标签的重要性。
“算法偏差”是指在计算机系统中产生不公平结果的系统性和可重复的错误。例如,这可以使一个任意的用户组相对于其他用户具有特权,比起同等可行的用户更喜欢针对问题的特定解决方案,或者造成侵犯隐私的行为。这种偏见是由谁来构建算法,如何开发算法以及最终使用它们的方式引起的。
显然,它们是用于自动化决策的复杂且广泛使用的工具。这在很大程度上取决于如何设计独立的人工智能系统或算法,哪些数据帮助构建了它以及它如何工作。
窥镜背后
算法旨在优化所有内容。皮尤研究中心(Pew Research Center)认为,算法可以挽救生命,使事情变得更轻松,并战胜混乱。但是算法还有更黑暗,更不祥的一面。人工智能和机器学习在研究和日常生活中变得越来越普遍,引起人们对这些算法如何工作以及它们做出的预测的担忧。
正如纽约大学和AI Now Institute的研究人员所概述的那样,可以为预测性警务工具提供“脏数据”,包括反映警察部门有意识和内在偏见以及警务腐败的警务模式。
波恩大学的Stinson谈到分类,尤其是迭代信息过滤算法,该算法“在从用户对算法建议的文档的响应中学习的过程中产生选择偏见。一类算法在广泛使用中的系统偏差在很大程度上没有引起注意,这也许是因为从边缘用户的角度来看这是最明显的,对于“购买此产品的客户也购买了……”的人,风格建议可能不会产生有用的建议。 。
Rozaldo进行的一项研究表明,除常见的性别偏见外,流行的词嵌入模型中的情感联想的大规模分析还显示出对中产阶级和工人阶级社会经济地位,男性儿童,老年人,平淡的外表,以及诸如伊斯兰宗教信仰,非宗教信仰和保守的政治倾向等知识现象。
算法与清洁技术世界
AI系统通常是人工神经网络,这意味着它们是旨在分析大量信息并学会以与大脑相同的方式执行任务的计算系统。这些算法通过机器学习和自适应而发展。我们在CleanTechnica上已经对此进行了很多写作。
特斯拉凭借其先进的计算机视觉技术实现了激光雷达的准确性人工智能与人类行为研究人员使用人工智能优化喷射太阳能电池技术人工智能算法可创造出可有效抵抗耐药细菌的抗生素市政数据科学中的人工智能人工智能,云计算是应对气候变化挑战的关键在所有这些文章中,始终存在这样的观点,即算法对关键决策具有深远的影响,并且机器的思维过程必须完全值得信赖,并且要避免偏见或犯错误,必须没有偏见。显然,仍然有许多工作要做,同时人工智能个人助理,诊断设备和汽车无处不在。
最后的想法
一份《连线》杂志提出了一个问题:“机器是种族主义者吗?算法和人工智能天生就有偏见吗?”他们认为,科技行业在解决这些偏见方面做得还不够,并且科技公司需要培训其工程师和数据科学家以了解认知偏见以及如何“应对”偏见。
一位承认创建了偏差算法的研究人员提出了一些建议,以减轻将来的结果:
推动算法的透明性,使任何人都可以看到算法的工作原理并做出改进-由于算法通常具有专有性,因此可能很困难。有时测试算法是否存在潜在的偏见和歧视。公司可以按照《众议院算法责任法案》的要求进行测试,也可以由独立的非营利性认证委员会(例如拟议的人工智能规范化论坛(FAIR))进行测试。《哈佛商业评论》建议企业可以采取其他预防措施,从而减轻算法偏差:
将反偏见培训与AI和ML培训相结合,在他们所做的工作中发现偏见的可能性并积极地对其进行纠正。除通常的软件问答流程外,AI还需要进行另一层社会问答,以便可以解决问题数据科学家和训练模型的AI工程师需要参加有关AI风险的课程,然后才将其吸引到消费者手中并导致巨大的反弹。当我们回到特斯拉首席执行官埃隆·马斯克(Elon Musk)这篇文章的灵感时,我们也可以看看他对5级自治的愿景。凭借他对算法和消极偏见的意识,希望最新,最好的驾驶员辅助技术将融合最具创新性的研发成果,从而使特斯拉树立成为“偏见侦探”的榜样-研究人员致力于使算法公平。