蓝盟系统集成,可解释的人工智能:4个重点行业

发布者:上海IT外包 来源:www.linemore.com

      可解释的人工智能可以帮助人们了解人工智能系统如何做出决策,这将成为医疗,制造,保险和汽车行业的关键。
  例如,服务平台现场音乐Spotify的计划推荐歌手贾斯汀·比伯的歌曲的用户,但建议歌曲Belieber,这显然是有点混乱。这并不一定意味着Spotify网站程序员必须确保他们的算法是透明和易于理解,但你可能会发现,这不是目标,但结果显然微不足道。
  这是一个可以解释人工智能的试金石。——机器学习算法和其他人工智能系统,可以产生人类可以轻松理解并追溯到原点的结果。基于人工智能的结果越重要,对可解释的人工智能的需求就越大。相反,风险相对较低的人工智能系统只能适用于黑匣子模型,而且很难理解结果。
  戴夫Costenaro,在人工智能Jane.ai研究总监说:“如果人工智能算法不工作不够好,因为歌曲推荐的公司的音乐服务,你可能不需要的社会,监管机构对这些建议进行监管。
  人们可以容忍对应用程序的音乐品味的误解。但你可能不容忍人工智能系统,也许在推荐医疗或拒绝的情况下,申请抵押贷款的最重要的决定。
  这些是高风险情况,特别是在负面结果的情况下,人们可能需要明确解释具体结果是如何得出的。在许多情况下,审计师,律师,政府机构和其他潜在的政党也会这样做。
  科斯特纳罗说,由于特定决策或结果的责任因人而异,因此对可解释性的需求也在增加。
  科斯特纳罗说:“如果算法将人类置于这个循环中,人类决策者可以继续承担解释结果的责任。”
  他举例说明了一个计算机视觉系统,该系统之前曾为放射科医师提供X射线图“这可以帮助放射科医生更准确,更有效地工作,但最终它将提供诊断和解释,”他说。
  IT人工智能的责任:解释原因。
  然而,随着成熟的人工智能,人们可以看到越来越多的依赖于人的决策和责任的新应用。音乐推荐引擎无法拥有的实际或潜在用途面对的重要职责的责任尤为重要,但许多其他案件的负担。
  Costenaro说:“对于一个新型人工智能的决策,这些决策有很大的影响,并且因为速度或要求处理量的,人类不能有效参与,专业人士正在努力寻找一个解释算法方法“。IT领导者必须采取措施确保其组织的人工智能用例在必要时包含正确的解释。拉夫德什潘德,营销TigerGraph副总裁表示,很多企业CIO们已经开始关注这个问题,他们往往即使他们了解的人工智能技术或特定用例的价值犹豫。
  德什潘德说,“但是如果你无法解释她是如何得到的答案,你不能使用这是由于偏向于人工智能‘黑盒子’系统的风险,这可能会导致诉讼,对企业品牌显著责任。资产负债表和风险。“
  这是另一种思考公司如何以及为何使用可解释的人工智能系统而不是黑盒模型的方式。您的业务可能依赖于它。人们对人工智能偏见的说法可能会产生误导。类似的要求可能会非常严重,风险也会更高。这就是为什么可解释的人工智能可以成为机器学习,深度学习和其他学科商业应用的焦点。
  解释人工智能在四个行业中的作用。
  Ness Digital Engineering的技术总监Moshe Kranc谈到了解释人工智能的可能用例。他说:“任何影响人们生活的用例都会受到偏见的影响。”答案简单而有力。
  他分享了越来越多的决定,可以使人工智能的一些例子,但是这基本上是需要信任,可审计性,并解释人工智能其他功能:
  参加培训计划。
  决定是否为某人投保以及投保多少
  根据人口统计数据决定是否向某人发放信用卡或贷款
  考虑到这一点,一些人工智能专家和IT领导者确定了解释人工智能所必需的行业和用例。银行业就是一个很好的例子。可以说,该解释的人工智能是很适合的机器玩的贷款和其他金融服务的决定中起关键作用。在许多情况下,这些应用程序可以扩展到其他行业,具体细节可能会有所不同,但原理是相同的,所以这些例子可以帮助想的用例解释IA的组织。
  健康产业
  对可解释的人工智能和人类影响的需求将同时增加。因此,健康产业是一个很好的起点,因为它也是人工智能非常有益的领域。
  CEO Kinetica为,保罗·阿普尔比说,“机器的使用可解释的人工智能可以节省您的时间,医务人员,使他们能够专注于医疗翻译的工作,而不是在执行重复任务可以提供各病人在同一时间,更多的关注,它的潜在价值是巨大的,但需要通过解释人工智能提供了一个可追溯的解释。可解释的人工智能使得机器评估数据并得出结论,而且还提供数据决策医生理解或护士。如何得出这个结论的,在某些情况下,不同的结论由,要求人类解释其细微差别。“但这绝对是一个具有相当影响的领域。在考虑关键保险类别时,您可以感受到这些影响,例如生活,所有者,健康,员工薪酬等。桑切斯说,可解释的人工智能将非常重要,建议人们考虑这些问题,每个问题也适用于其他领域:
  人工智能可以解释这种感知或结果如何获胜?
  使用哪些数据,模型和流程来获得结果?
  监管机构可以访问并了解这种人工智能的工作原理吗?
  谁访问和什么时候?
  4.汽车
  可解释的人工智能必须最终为人工智能提供最大的价值。
  斯蒂芬·布卢姆,首席技术官和PubNub的联合创始人,说:“了解为什么AI服务作出某些决定,或如何获得信息,这是为专业人士更好地整合AI人工智能服务的好方法。重要的。例如,人工智能系统将建立一个自主汽车的方式与车辆,这将是一个很大的风险给驾乘互动,因为这意味着决定生死”。
  事实上,自动驾驶汽车无疑是人工智能发挥重要作用的新兴领域,可以解释的人工智能将成为其最重要的领域。
  Kinetica首席执行官Appleby解释了这种情况的重要性。他说:“我应该怎么做,如果一个自主轿车是必然的危害是为了保护乘客,但危及行人和避免撞到行人,并把安全于危险中的优先级?乘客?“
  因此,获得这些问题的答案并不容易。但这将给出一个非常简单的结论:人工智能的黑匣子模型在这种情况下不起作用。无论是乘客还是行人,都必须明确解释,更不用说汽车制造商,公共安全官员和其他相关人员。
  Appleby说:“我们可能不同意对自动驾驶汽车的反应,但我们应该事先了解随后的道德优先事项。”通过公司内部建立的数据治理,汽车制造商可以跟踪和解释从决策点模型Z点A.转到跟踪数据集,从而使他们能够评估结果是否符合其道德立场线。同样,乘客可以决定他们是否愿意接受旨在做出某些决定的车辆。“
  这可能是一个严肃的现实,但也有一个基本原则,包括那些不是生死攸关的原则。可解释的人工智能是一种改进和优化的人工智能技术,这是IT领导者可以想到人工智能的另一种方式。
  Blum说:“如果人工智能系统出现故障,它的构建者必须理解为什么要这样做以改进和纠正它。”如果他们的人工智能服务存在并在黑匣子中运行,他们就无法理解如何调试和改进它。 “
>
400-635-8089
立即
咨询
电话咨询
服务热线
400-635-8089
微信咨询
微信咨询
微信咨询
公众号
公众号
公众号
返回顶部