聊天机器人,自动驾驶汽车和数字工厂中的联网机器预示着未来将会如何:人工智能(AI)应用的广泛实施为企业带来诸多优势,例如提高效率,减少重复性工作和改善客户体验。
然而,如果放在一双错误的手中,潜在的威胁很容易抵消巨大的利益。恶意网络攻击或技术故障的脆弱性将增加,随着社会和经济日益相互联系,更大规模的破坏和非同寻常的财务损失的可能性也会增加。公司还将面临新的责任方案,因为决策权由人类转向机器和制造商。
在新的报告“人工智能的崛起:未来展望和新兴风险”中,保险公司Allianz Global Corporate & Specialty(AGCS)发现了AI在社会和行业中日益实施的益处和新出现的风险问题,包括保险部门。 AI也被称为机器学习,本质上是能够像人类一样思考和学习的软件。
“人工智能在许多领域具有潜在的益处和风险:经济,政治,移动,医疗保健,国防和环境。” AGCS新兴趋势负责人Michael Bruch说,“需要积极的风险管理战略,以最大限度地将先进人工智能应用程序的优势引入社会。”
今天,人工智能的“弱”或基本形式能够执行特定的任务,但是后代所谓的“强大”人工智能应用将能够解决难题和执行复杂的事务。人工智能开始在几乎所有行业中找到用户,从提供财务建议的聊天机器人到帮助医生诊断癌症。该技术用于为无人驾驶汽车提供动力,更好地预测天气状况,处理财务转移或监视和操作工业机器。据埃森哲称,到2035年,人工智能可以将12个发达经济体的年度经济增长率提高一倍。
但是这些潜在的好处会带来风险。网络风险是2018年安联风险指标的最大风险之一,它说明了AI等新技术的两种不同面貌:通过更好地检测攻击,AI支持的软件可以帮助企业降低网络风险,但如果恶意黑客能够控制系统,机器或车辆,也可以增加它的风险。人工智能可以通过降低设计攻击的成本来实现更严重和更有针对性的网络事件。同样的黑客攻击 - 或者编程错误 - 可以在许多机器上复制。据估计,全球主要的网络攻击有可能引发超过500亿美元的损失,但即使是半天的云服务提供商中断也有可能造成8.5亿美元左右的损失。
人工智能的兴起在五个领域存在风险
为了识别新兴的AI风险,AGCS专注于五个关注领域,即软件可访问性,安全性,问责制,责任和道德。 “通过解决这些问题,AI的负责任开发和引入对社会而言变得更加危险。减少意外后果风险的预防措施至关重要。”Bruch说。
例如,在安全性方面,将AI系统推向市场的竞争可能导致验证活动不充分或疏忽,这对确保部署安全,功能和网络安全的AI代理是必要的。这反过来可能导致缺陷产品和召回的增加。
关于责任,人工智能代理将来可能会接管很多人的决定,但他们不能对这些决定承担法律责任。一般来说,AI代理商的制造商或软件程序员对造成用户损害的缺陷承担责任。然而,根据现行法律,人工智能的决定与设计或制造没有直接关系,但由于其对现实的解释而被人工智能机构采纳,因此没有明确的责任方。 “如果AI生成的损害数量开始增加,将裁决留在法院可能会很昂贵且效率低下。” Bruch说, “解决缺乏法律效力的办法是建立专家机构或权威机构,制定责任框架,使AI产品的设计者,制造者或销售者受到侵权责任的限制。”
同时,保险公司将在帮助减少,管理和转移人工智能应用新出现的风险方面发挥至关重要的作用。传统覆盖范围需要进行调整以保护消费者和企业。保险将需要更好地解决某些企业的风险,如网络攻击,业务中断,产品召回和声誉损害。新的责任保险模式可能会被采用 - 例如在自动驾驶等领域,增加制造商和软件供应商的压力,并减少消费者的严苛责任。
AI早期的采用者是保险公司
保险业一直是机器学习的早期采用者,因为它处理大量数据和重复性流程。 “人工智能有很大的潜力来改善保险价值链。 最初,它将有助于实现保险流程的自动化,以便更好地交付给我们的客户。 政策可以发布,并且处理索赔的速度更快,效率更高。”Bruch解释说。
通过推动数据分析,人工智能还可以让保险公司及其客户更好地了解其风险,从而可以更有效地降低风险,同时还可以开发新的保险解决方案。 例如,基于人工智能的分析可以帮助公司更好地理解网络风险并提高安全性。 同时,该技术可以帮助保险公司识别网络曝光的累积。
最后,人工智能将改变保险公司与客户互动的方式,从而实现全天候服务。