人工智能(AI)已经在全球范围内掀起了一场技术革命,其影响力跨越了从智能对话系统到创新性 AI 应用,以及自动驾驶汽车等众多领域,这些创新进展预示着一个新纪元的来临。虽然人工智能在人力资源(HR)领域的应用尚处于早期阶段,但其在该领域的潜力和需求正在迅速增长。
Rabih Zbib 博士 — Avature AI Lab 负责人、麻省理工学院博士、BBN 研究所的前资深科学家,深度剖析了 AI 的现状及其未来的发展趋势,并详细探讨了 AI 技术进步如何加速 HR 项目的发展。
通过本文,我们期望借助 Rabih 博士的专业知识与洞见,帮助大家深入了解在人力资源领域实施 AI 时需要考虑的关键因素。
制定合理预期:AI 战略的重要性
在 HR 行业内实施 AI 时,一个核心难题是如何设定合理的期望值,因为许多公司和供应商正面临着理想与现实之间的鸿沟。
有些观点认为 AI 能够解决所有问题,但当事情进入实操阶段,如何设定合理的预期便成了一个挑战,而这也是整个行业普遍需要面对的挑战。
Rabih Zbib
Avature AI Lab 负责人
AI 在 HR 方面能为您提供什么帮助?
针对这个话题,Rabih 博士提出了“双重预期”的概念:
考虑到当前技术的能力,我们能期待它完成哪些任务?它又有哪些局限性?
越来越多的 HR 团队期待利用像 ChatGPT 这样的先进 AI 技术来辅助处理日常工作,以期显著提高工作效率。然而,AI 并非解决所有问题的灵丹妙药。当 HR 团队开始实际应用 AI 技术时,他们往往会发现自己对 AI 的期望超越了它的实际能力。
因此,设定现实且可行的预期显得尤为关键。我们必须认识到,尽管技术本身能够提高流程效率,但它并不能独立解决所有问题。此外,我们还需要与客户建立坚实的合作伙伴关系和有效的反馈机制。Rabih 博士强调,成功应用 AI 技术的关键并不在于技术本身有多先进,而是在于深入了解客户的真正需求,并将这些需求融合到技术方案中,确保 AI 能够针对性地解决客户的实际问题。
AI 的角色界定
AI 推荐我们购买的运动鞋,我们可能穿上会感到舒适。但让它决定我们应雇佣谁,我们还能同样感到舒适吗?这里面有很多微妙的区别。”
Rabih Zbib
Avature AI Lab 负责人
Rabih 博士强调了在 HR 管理中,道德地使用 AI 的重要性。这不仅仅触及到潜在的偏见问题,也涉及到保持人际交往的重要性。
以招聘为例。利用当前技术,可以完全绕过求职者与招聘官之间的直接对话,通过自动筛选系统、排除性问题和基于 AI 的评分机制,来挑选出最符合标准的候选人。
如果这个过程设计得当,可以实现完全自动化的招聘流程,几乎不需要人与人之间的直接互动。尽管这种方式极其高效,但它对求职者的影响如何?同时,是否会忽略了人类直觉和洞察力这些难以量化但极为关键的因素?
AI 的伦理应用应在考虑数据分析效率的同时,也要重视人性化的互动和体验。否则,人才招聘过程可能会变得机械化,只注重效率而忽视了候选人和员工的感受和体验。
在 HR 领域部署 AI 时的主要思考点
数据的策略性定位
在人工智能和机器学习领域,有一则核心格言:“你的技术优势取决于你拥有的数据质量”。数据是打造机器学习策略的基础,它能够决定策略的命运。
许多初创企业和供应商利用 AI 作为亮点,专注于针对特定领域的问题提供定制化解决方案。然而,它们常常仅能解决单个问题,并没有在更广泛的应用上取得实质性进展。
面对的更大挑战是在平台级别上优化工作流程、成效以及用户体验时,依赖外部数据和非本地化数据的做法是否能够实现目标,这通常是个未知数。
选择一个现成的解决方案时,Rabih 博士提醒我们,我们往往不知道这些模型后面的数据是如何获取的。市场上许多供应商宣称他们的 AI 功能能够解决与招聘和 HR 相关的复杂问题,但围绕数据采集的来源和方法的不透明性,使得这些 AI 系统是否确切适合解决你的特定问题,这一点并不清晰。
在 Avature 发展机器学习和 AI 战略的过程中,Rabih 博士将数据视为公司的根基和竞争力的核心。这是源于我们自主研发的策略,它依托与大型企业合作时所积累的多样化且高品质的人力资源专有数据。
我们有机会接触到横跨众多行业、多个领域以及悠久时期的真实数据。所以这些数据不仅是一个机遇,也带来了责任,特别是考虑到数据隐私和安全的重要性。”
Rabih Zbib
Avature AI Lab 负责人
AI 应用中的黑箱与白箱方法辨析
在 AI 策略的讨论中,我们常会面临一个选择:采用“黑箱”还是“白箱”模式。
“黑箱”模式指的是 AI 运作的不透明性,用户对算法决策的内在逻辑了解有限。而“白箱”模式则提供了更高的透明度,使用户能够洞察甚至调整算法产生建议的依据。
因此,Rabih 博士特别强调了向客户明确传达系统推荐的内容及其形成推荐的逻辑的重要性,这是为了助力客户做出明智的决策,而非由系统直接作出选择。
Avature 致力于提供一个融合 AI 的平台架构。在我们的平台上,AI 不仅是核心组件,还贯穿了我们解决方案的多个环节。
总而言之,传达明确的信息和制定清晰的策略是极为关键的。必须确保明白 AI 在哪些方面得到应用、正在追踪哪些数据,以及用户能进行哪些操作。如果缺乏这种明确性,该技术可能不会满足那些需要可靠 AI 来支持其战略的全球化组织的要求。
实施 AI 时,透明度至关重要
在 AI 的应用中,透明度是关键:用户必须明确知道系统所依赖的信息源。这一点对选用的技术策略有直接的影响。
以搜索人才库中的候选人为例,当招聘人员寻找具有特定技能的候选人时,系统会智能地推荐关键词,以便他们扩展搜索范围至拥有类似技能的候选人。
借助这种机制,用户不仅能理解系统提出某些建议的逻辑,而且在发现推荐内容不切题时,也能随时予以排除。
“在保障用户隐私的同时构建这个系统,并采取措施避免偏见,我们应该如何操作?”
这是在实施策略时必须持续关注的重点。如果你选择的供应商是通过白箱方法逐步构建其 AI 能力的,Rabih 博士认为,他们更可能利用的是既尊重隐私也确保安全的数据。
同时,这也表示减少偏见的努力可以从开发的初始阶段就开始,并且得益于透明度,可以更容易地在过程中追踪和管理偏见。
与之相对,一个闭塞的黑箱方法可能无意中在系统中复制和扩大了错误和偏见,并且使得发现和解决问题数据和计算变得异常困难。在构建 AI 策略时,数据隐私和偏见都是需要持续关注的重要议题。
避免偏见
在 HR 行业中集成 AI 时,必须认真对待偏见问题。这已成为企业持续关注的要点,GPT-3 的经历就是一个显著的例子。现在,随着全球范围内逐渐实行严格的法规,透彻了解 AI 的运作原理显得尤为重要。
在技术实施方面,Rabih 博士特别指出了监督所使用的数据种类和算法的重要性。
他提出一个偏见可能出现的场景:推荐系统中的候选人匹配或筛选功能。但为何会发生这种情况,我们又该如何采取预防措施?
显性偏见
在模型构建过程中,我们能够采取多项措施来减少不必要的和无意识的偏见。
Rabih 博士提出了他和团队采用的一些直接策略,用以避免显性偏见,这包括在训练模型时排除性别、身份信息等因素。此外,他们也避开了可能引入偏见的个人特征,如声音、语音质量或面部特征。
隐性偏见
在处理隐性偏见时,Rabih 博士推荐建立基于职位要求技能的候选人和职位的语义表征,而不是仅仅依赖于历史数据——这些历史决策可能包含偏见。
通过利用语义表征,系统能够识别候选人或职位数据与需求技能之间的相关性,从而在排除历史数据中可能存在的偏见影响的前提下,提出推荐,确保所提供的建议具有更高的客观性和公正性。