注意:双子座的疯狂实际上是“无偏见”人工智能的全部内容
温馨提示:这篇文章已超过136天没有更新,请注意相关的内容是否还可用!
每个人都在嘲笑谷歌双子座人工智能的推出。但这不是开玩笑。
这个问题比历史上不准确的生成图像更严重。
对人工智能的操纵只是美国企业中更广泛的“算法歧视”的一个方面,它可能会让你失去工作机会甚至更多。
当双子座被要求制作白人的照片时,它拒绝了,说它不能满足这个要求,因为它“强化了对种族的有害刻板印象和概括”。
但它可以轻松生成女教皇、非白人维京人和黑人乔治·华盛顿的照片。
微软的人工智能成像工具也有自己的问题,会生成露骨和暴力的图像。
显然,人工智能成像已经偏离了轨道。
虽然谷歌首席执行官承认Gemini的结果是“有偏见的”和“不可接受的”,但这不是一个错误,而是一个特征——就像“反种族主义”理论导致了公开的种族主义多样性、公平性和包容性实践一样。
正如我们中的一位(威廉)最近向《华盛顿邮报》解释的那样:“以反偏见的名义,实际的偏见正在被植入系统中。这不仅是搜索结果的问题,在现实世界的应用中,‘无偏见’的算法测试实际上是通过瞄准相当于配额的最终结果,在系统中建立偏见。”
我们的平等保护项目(Equal Protection Project, EqualProtect.org)在大约一年前就敲响了警钟,当时我们揭露了linkedIn“招聘多样性”功能中使用算法操纵求职者池的行为。
领英为种族和其他身份群体的操纵辩护说,这是“确保人们有平等机会”获得工作机会的必要条件,但它所说的“平等机会”实际上是优待。
这种偏见在暗地里运作。求职者没有看到算法如何影响他们的前景。
算法可以——而且已经——被用来提升某些群体的地位。
但这并不局限于linkedIn。
拜登政府已经发布了一项行政命令,要求无偏见的算法,但在这项政策中内置的渐进式DEI标题下,没有偏见不是体现在平等待遇上,而是体现在“公平”上。
公平是配额的代名词。
在“无偏见”算法测试的世界里,偏见是为了实现公平而内置的。
订阅我们的每日邮报意见通讯!
发生在双子座的事情就是这样的一个例子。
搜索结果不好是一回事;失去工作机会是另一回事。
正如律师斯图尔特·贝克(Stewart Baker)在EPP的一次活动中所解释的那样,“防止偏见……在人工智能领域,几乎总是会成为实施隐形配额的代码。”
“无偏见”偏见的阴险影响将会扩大。
算法的歧视有可能操纵我们生活中的每一个主要细节,以获得群体结果和群体配额。
这些算法的设计是为了将DEI的祸害秘密地带入生活和经济的各个方面。
人们故意“教导”人工智能,黑人维京人的图像比真相更公平。
因为大型科技公司已经对你有了很多了解,包括你的种族和民族,所以不难想象,算法会操纵对大量商品和服务的访问,从而造成歧视。
求职、贷款、买房或大学录取被拒?可能是“无偏见”算法在起作用。
但你几乎永远无法证明这一点,因为这些算法在人们的视线之外秘密运作,被证明是“无偏见”的,因为它们在系统中建立了偏见,以实现配额。
你懂的。
算法歧视是对平等的威胁,必须停止。
威廉·a·雅各布森(William a . Jacobson)是康奈尔大学的临床法学教授,也是平等保护项目的创始人,肯伯利·凯伊(Kemberlee Kaye)是该项目的运营和编辑主任。
发布于:2024-12-25,除非注明,否则均为
原创文章,转载请注明出处。
还没有评论,来说两句吧...