AI面试官来了,你准备好了吗?
保密观

2025-05-08 07:36 语音播报

热点

“欢迎参加AI视频面试,请打开手机摄像头和录音设备……”

随着人工智能的快速发展,越来越多的企业采用AI技术进行面试。这种面试形式打破了传统面试的时空限制,效率更高,成本更低,因此受到了众多企业的青睐。但与此同时,求职者的个人隐私却可能受到侵害。

智能招聘的“快车道”

早在2017年,国内便出现了AI面试系统。最初,AI面试多为简单的结构化问答,随着技术升级,从自我介绍到情景模拟,从问题解决到才艺展示,目前的AI面试基本能够覆盖常见的初试面试场景——有的会在屏幕上呈现一个简单的虚拟数字人形象,配合字幕用语音口述题目;有的使用交互效果,试图营造真实的办公场景;还有的已经从标准化提问模式升级为追问模式,不仅可以对求职者的简历信息进行综合性研判,还能够根据回答情况进行精准追问。

《2023年中国网络招聘市场发展研究报告》显示,AI面试的应用场景占比已经达到31.8%。广泛应用的背后,反映了庞大的市场需求。一方面,AI面试能够实现跨地域、大批量的线上面试,大大减少了对面试官人数的需求,可以有效提升工作效率,降低人工成本。另一方面,AI面试能够精准统计、整理、归纳求职者的基础信息,包括年龄、性别、求职意向、行业认知等,同时对求职者的作答内容、语言表达、动作表情等进行量化打分,综合评估其与招聘岗位的匹配程度,并生成评估报告。招聘单位结合评估报告,能够快速筛选对应比例的人员,进入下一轮面试。

隐私安全“新风险”

“自己的脸、声音等信息是否会被用到其他地方?”随着AI面试成为一种新常态,求职者对隐私安全的担忧也逐渐受到关注。

AI面试需要收集求职者的姓名、年龄、学历、工作经验等个人信息,还要对求职者的面部和声纹等生物特征进行数据采集和分析。这些敏感数据一旦被泄露或滥用,将对求职者的隐私安全造成严重威胁。

与此同时,AI面试系统学习的数据样本可能带有算法歧视或隐含偏见,如果某些岗位倾向于选择特定性别或年龄的候选人,企业在采用AI面试时使用甚至放大这些偏见,那么面试过程与结果的公正性就无法得到保证。

筑牢防范“安全网”

AI面试的发展与应用必须在法律轨道上稳步前行。相关专家建议,求职者应当妥善认识并保护人脸、声纹等隐私数据的安全,比如,在参加AI面试前,仔细阅读企业提供的隐私政策,确认个人信息数据的使用目的及保护措施;在面试中保持警惕,不轻易提供与招聘无关的敏感数据。

对于AI面试的应用,企业也应当以更加审慎的态度对待。按照《生成式人工智能服务管理暂行办法》要求,AI面试产品需要进行相关备案,其产生的数据一般存储于企业本地或私有云平台,也可能存储于公共云平台,受到云供应商数据安全保护。因此,企业应当建立完善的隐私保护机制,严格遵循最小化数据收集原则,采取脱敏化、去标识化等保密措施,确保求职者的个人信息不被泄露或滥用。此外,企业应当将AI面试作为一种辅助评估手段而不是决定性因素,充分告知求职者哪些面试环节由算法驱动,为求职者构建一个公平公正的应聘环境。

(资料来源:人民日报海外版、经济日报、中国青年报等媒体报道)


编辑:赵司尧

打开APP阅读全文