• 网站首页
  • 科技
  • 建筑业
  • 零售
  • 小说
  • 音乐咨询
  • 人工智能技术应用于贷款,可以减缓贷款过程,建立决策自动化:友e家娱乐平台

    发布时间: 2021-01-09 22:45首页:主页 > 科技 > 阅读()
    本文摘要:几个月前,人工智能初创公司暴发户公司宣布,自正式成立以来,已经筹集了16亿美元,并与奥马哈第一国民银行和堪萨斯城第一联邦银行签署了协议。然而,令人担忧的是,人工智能可能比人类更具种族歧视性。要理解下面的例子,可以遵循关键的思路:人工智能种族主义一般源于人类种族主义。

    算法

    人工智能技术应用于贷款,可以减缓贷款过程,建立决策自动化。几个月前,人工智能初创公司暴发户公司宣布,自正式成立以来,已经筹集了1.6亿美元,并与奥马哈第一国民银行和堪萨斯城第一联邦银行签署了协议。暴发户因其创新的贷款方式而被用户接受。它出售的平台用于人工智能技术的所谓“替代数据”培训,以确认合格的贷款人。

    此类替代数据还包括申请人的销售习惯、电话记录、烦人的游戏以及社交媒体上的平均信用评分等信息。然而,替换贷款中的数据将使贷款过程更慢、更公平,并完全符合GDPR标准。而且也不是什么新鲜事。

    早期的信贷机构聘请专家调查当地客户的评价。例如,美国在1935年对社区的集体声誉进行了分类。在最近2002年的一个案例中,一位加拿大轮胎销售主管分析了去年的交易数据,发现销售屋顶洗手工具的客户在财务上比销售廉价机油的客户更可信。然而,过去和现在有着明显的区别。

    此前,人们收集和处理替代和传统数据,包括债务收入比、贷款价值比、个人信用记录等。现在这个算法还在发展变化,很多人指出它更客观,速度更慢。

    然而,令人担忧的是,人工智能可能比人类更具种族歧视性。必须注意的是,如果不控制算法自己学习,人工智能的决策可能会更加片面。人工智能种族主义已经蔓延到这样一个地步,一般来说人工智能种族主义不会在无意中再次发生,训练算法的人员也不会让它显得主观。

    不受一些个人、文化、教育和具体因素的影响,甚至最好的算法训练器也可能用于固有种族主义的输出数据。如果不及时发现,可能会导致非种族主义的诉求,随着时间的推移会愈演愈烈。这是因为算法根据之前的算法做出新的决策,自身的发展比一开始的算子(雪球效应)要简单得多。

    简而言之,人工智能是极大的自学,不管训练材料是否准确。我们来了解一下人工智能在贷款决策中可能会产生什么样的种族歧视。

    要理解下面的例子,可以遵循关键的思路:人工智能种族主义一般源于人类种族主义。人工智能可以根据性别来区分。

    传统上,男性的低收入和低职位比例较高,而女性仍然面临着所谓的“玻璃天花板”职业发展和薪酬差距。因此,虽然女性的储蓄和支付能力强于男性,但与男性相比,女性企业家获得的商业贷款越来越少。人工智能的使用可能不仅加剧了这一趋势,因为性别歧视的输出数据可能会导致大量女性贷款被强制。基于错误的统计数据,人工智能算法可能更倾向于男性申请者而不是女性申请者,即使其他所有参数都相似。

    人工智能可以根据种族来区分,听起来不太可能,但是黑人申请者被拒绝贷款的可能性是白人申请者的两倍。如果用于算法自学的输出数据反映了这种种族差异,就可以快速实施,越来越多的黑贷会被拒绝。替代数据也可能成为人工智能“种族主义”的来源。

    该算法在申请人之前输出罚款和逮捕信息。事实是这样的信息不是中性的。根据《华盛顿邮报》,非裔美国人比白人更容易成为警察的目标,而且在很多情况下是毫无根据的。

    算法

    其他类型的数据也是如此。少数民族群体面临着收入、职业和社区的不平等。所有这些指标都可能成为AI对非白人申请者说“不”的坚实理由。

    人工智能能根据年龄区分的信用记录越多,人们就越能理解一个人的名声。老年人通常享有更好的信用记录,因为他们背后有更多的金融交易。忽视,年轻一代对商业的数据更少,这可能成为不公平的拒绝理由。人工智能可以根据教育程度进行区分。

    一些人工智能借贷算法可以在做信用决策时分析申请人的语法和拼写习惯。一个算法可能会根据自学的拼写习惯或者错别字来了解申请人的受教育程度,导致很多申请人名声不佳。

    未来算法将拒绝接受文学创作有困难或障碍的合格申请者,即使涉及支付能力。为了解决问题贷款中的种族主义,一般来说,为了使人工智能操作的贷款过程不受种族主义的影响,必须清除输出数据中任何可能的人类种族主义,从性别、种族主义到年龄歧视。为了使培训数据更加中立,该组织应该重组更多不同的人工智能R&D团队,包括贷款人和数据科学家。

    贷方可以告诉工程师他们工作的具体细节。更重要的是,这些金融机构应该培训参与人工智能决策的每个人,以便在其工作中遵守并继续实施公平和非歧视性的做法。

    否则,如果不采取措施确保多样性和包容性,贷款企业可能会出售严重违反反种族歧视和公平贷款法的人工智能算法。构建更公平的人工智能的另一步是审查算法做出的贷款决策;员工不应评价这些决定。GDPR《宪法》第22条反对这种观点,声称人们不应受到纯粹自动决策的影响,特别是它可能具有法律效力。

    其实一起说比一起做容易。但如果不解决,无意识的人工智能种族主义问题可能会让贷款业务陷入困境,这远没有任何蓄意的种族主义那么不道德。只有通过数据科学家和贷款专业人士的共同努力,才能防范迫在眉睫的风险。


    本文关键词:申请者,友e家娱乐平台,贷款,决策,申请人

    本文来源:友e家娱乐平台-www.yaboyule299.icu

    特别声明:文章内容仅供参考,不造成任何投资建议。投资者据此操作,风险自担。

    网站首页 - 科技 - 建筑业 - 零售 - 小说 - 音乐咨询

    本站不良内容举报联系客服QQ:139672926 官方微信:zVAhC139672926 服务热线:zVAhC139672926

    未经本站书面特别授权,请勿转载或建立镜像

    Copyright © 2001-2020 www.yaboyule299.icu. 友e家娱乐官网科技 版权所有 网站地图 xml地图