``需要调整AI模型以更贴近客户需求''
印度Pegasystems董事总经理Suman Reddy说,如果我们希望人类信任人工智能(AI),那么我们就需要融入同情心,这是与AI系统相关的道德问题的核心。
随着企业试图改善客户服务,许多企业使用AI来帮助更快,更便宜和更智能地做出客户决策。Reddy告诉Business Line:“他们还使用聊天机器人或智能虚拟助手,通过接管常规客户查询来简化对话。但是,在寻求个性化交互并减少交互时间的过程中,人性化的方式正在被消除。”
他指出,最终,客户服务变得不个性化,效率低下并且无法适应客户环境。
Pegasystems最近进行的一项调查证实了这一概念,其中70%的受访者表示,他们更愿意与另一端的人说话,而不是聊天机器人。
AI的本质意味着,尽管高效,但它有时会以一种缺乏人类所能描述的同理心的方式进行操作,或者使用可能实际上有害于客户忠诚度的建议来轰炸客户。
客户服务决策
Reddy坚称,除了AI的推理能力外,客户参与场景还更加复杂,组织必须允许人员接管。
“他们可以利用其自然的判断和推理能力来解决案件。通过将AI与真实的人类客户代理相结合,客户可以从AI中获得人工判断的好处,允许代理在决定走哪条路之前先审查AI的建议,”他补充说。
他继续说,这种综合方法可以帮助管理不适合预先定义的回答或需要很多细微判断的困难对话。
他举例说,一家银行的销售团队可能会通过其AI使用数据分析和模式识别来增加季度数字。“虽然人工智能算法可能符合强制性规定,但它可能会给他们几乎负担不起的家庭提供高息贷款或保险费。该计划对于他们或银行而言可能是不可持续的。在这种情况下,人工智能它将被配置为实现该银行实现利润最大化的目标的意愿,即使它是以损害客户利益(价格过高的主张)为代价的,也不会保留该提议。”
在这种情况下,人工智能应该有一种方法“做出更具同情心的决策,平衡业务需求和客户需求,从而最终赢得所有人。互惠互利的交易有助于业务的底线并赢得客户的信任。 ,从长远来看,这将转化为客户忠诚度。”他补充说。