注意:双子座的疯狂实际上是“无偏见”人工智能的全部内容

博主:adminadmin 2024-12-25 62 0条评论

温馨提示:这篇文章已超过136天没有更新,请注意相关的内容是否还可用!

  

  

  每个人都在嘲笑谷歌双子座人工智能的推出。但这不是开玩笑。

  这个问题比历史上不准确的生成图像更严重。

  对人工智能的操纵只是美国企业中更广泛的“算法歧视”的一个方面,它可能会让你失去工作机会甚至更多。

  当双子座被要求制作白人的照片时,它拒绝了,说它不能满足这个要求,因为它“强化了对种族的有害刻板印象和概括”。

  但它可以轻松生成女教皇、非白人维京人和黑人乔治·华盛顿的照片。

  微软的人工智能成像工具也有自己的问题,会生成露骨和暴力的图像。

  显然,人工智能成像已经偏离了轨道。

  虽然谷歌首席执行官承认Gemini的结果是“有偏见的”和“不可接受的”,但这不是一个错误,而是一个特征——就像“反种族主义”理论导致了公开的种族主义多样性、公平性和包容性实践一样。

  正如我们中的一位(威廉)最近向《华盛顿邮报》解释的那样:“以反偏见的名义,实际的偏见正在被植入系统中。这不仅是搜索结果的问题,在现实世界的应用中,‘无偏见’的算法测试实际上是通过瞄准相当于配额的最终结果,在系统中建立偏见。”

  我们的平等保护项目(Equal Protection Project, EqualProtect.org)在大约一年前就敲响了警钟,当时我们揭露了linkedIn“招聘多样性”功能中使用算法操纵求职者池的行为。

  领英为种族和其他身份群体的操纵辩护说,这是“确保人们有平等机会”获得工作机会的必要条件,但它所说的“平等机会”实际上是优待。

  这种偏见在暗地里运作。求职者没有看到算法如何影响他们的前景。

  算法可以——而且已经——被用来提升某些群体的地位。

  但这并不局限于linkedIn。

  拜登政府已经发布了一项行政命令,要求无偏见的算法,但在这项政策中内置的渐进式DEI标题下,没有偏见不是体现在平等待遇上,而是体现在“公平”上。

  公平是配额的代名词。

  在“无偏见”算法测试的世界里,偏见是为了实现公平而内置的。

  订阅我们的每日邮报意见通讯!

  发生在双子座的事情就是这样的一个例子。

  搜索结果不好是一回事;失去工作机会是另一回事。

  正如律师斯图尔特·贝克(Stewart Baker)在EPP的一次活动中所解释的那样,“防止偏见……在人工智能领域,几乎总是会成为实施隐形配额的代码。”

  “无偏见”偏见的阴险影响将会扩大。

  算法的歧视有可能操纵我们生活中的每一个主要细节,以获得群体结果和群体配额。

  这些算法的设计是为了将DEI的祸害秘密地带入生活和经济的各个方面。

  人们故意“教导”人工智能,黑人维京人的图像比真相更公平。

  因为大型科技公司已经对你有了很多了解,包括你的种族和民族,所以不难想象,算法会操纵对大量商品和服务的访问,从而造成歧视。

  求职、贷款、买房或大学录取被拒?可能是“无偏见”算法在起作用。

  但你几乎永远无法证明这一点,因为这些算法在人们的视线之外秘密运作,被证明是“无偏见”的,因为它们在系统中建立了偏见,以实现配额。

  你懂的。

  算法歧视是对平等的威胁,必须停止。

  威廉·a·雅各布森(William a . Jacobson)是康奈尔大学的临床法学教授,也是平等保护项目的创始人,肯伯利·凯伊(Kemberlee Kaye)是该项目的运营和编辑主任。

The End

发布于:2024-12-25,除非注明,否则均为爱空网原创文章,转载请注明出处。