AI豪少的迷情妻免费阅读面试,别沦为数据攻防战
最佳回答
“豪少的迷情妻免费阅读”AI豪少的迷情妻免费阅读面试,别沦为数据攻防战
上观时评 | AI面试,别沦为数据攻防战
问题从来不在于能不能用AI面试,而在于能否进一步提高AI应用的透明度、公平性和合规性。
最近和刚毕业的表弟聊起他找工作的事,让我有些意外的是,现在AI面试已相当普遍。表弟说,他今年已参加的所有面试中,一半以上都有AI面试环节,“每场AI面试大概二三十分钟”。
用人单位会要求使用专门的手机APP或小程序进行面试,屏幕上出现一个AI生成的虚拟面试官,通过声音和字幕的形式提问,每个问题有相对固定的回答时间,如果回答过于简单,AI还会追问,并通过考察应聘者的面部表情、动作、声音、表达内容、流畅度等来进行判断和筛选。
这难免让人感到疑虑,AI代替人工靠谱吗?算法会不会筛错人?
对于这点,表弟倒是不太担心:“AI面试一般都安排在简历初筛通过后,而且之后还有线下面试,我觉得对企业来说是多了一个判断维度。但毕竟和真人不一样,很多人会用市面上的AI工具提前模拟练习。”
其实仔细想想,用AI面试,企业也有苦衷。每年秋招春招集中招聘时段,求职者那么多,简历雪片一样飞过来,加之招聘时间短、流程紧,如果单靠几个HR面试,大部分求职者都未必能得到面试机会。用AI提高效率,节省成本,也是顺理成章的事,倒也不必过分苛责。
但也不是说完全没有顾虑。我觉得,AI以数据算法模型作为决策依据,当这套机制作用到面试环节,存在一对难以完全解决的矛盾。
一方面,理想状况下,基于数据算法的判断,或许能减少主观偏见,让评估标准更统一,但这种“统一”本身是否经得起推敲?毕竟,人作为个体是生动而复杂的,其丰富的个人综合特质是否能完全被预设的算法所捕捉、拆解并理解?可能还要打个问号。
另一方面,AI本身存在一个数据黑箱的问题,即算法内部的自动化决策过程往往是“神秘”的,外界难以完全清晰地确定算法如何在大数据基础上做出决策。这就可能造成同个AI模型对不同个体未必能做到完全公平,甚至存在就业歧视的风险。
与此同时,AI面试的普及,也催生了另一个耐人寻味的现象:网络平台上,各种辅助AI面试的AI工具和服务正悄然兴起,即在面试时帮助用户用AI实时生成“最佳答案”,指导用户获得系统的最高打分。有网友直言,这是用AI在作弊。
这就导致了很荒诞的一幕:屏幕那端是AI面试官在提问,屏幕这端是AI助手在代答。本该是人与人之间的真实交流,变成了算法与算法之间的数据博弈。无论怎么看,这都背离了面试的初衷。
或许有人会说,今天这个时代,善用AI工具本就是一项重要能力。这确实没错,但面试的主要目的是考察人本身的综合能力素质,包括人的品行,而非完全是使用AI的能力,这一点不会轻易改变。更何况使用AI作答还涉及诚信问题,说得严重些,会不会因此动摇招聘体系的信任基础,反而推高了企业的筛选成本?
说到底,AI只是手段,提高效率的新技术运用也应当鼓励,但任何工具的使用都不应脱离其本来目的,对招聘方和应聘方来说,都是如此。面试,本应是基于双方真实信息的公平互动,如果沦为数据攻防战,无异于反客为主、本末倒置了。
或许,问题从来不在于能不能用AI面试,而在于能否进一步提高AI应用的透明度、公平性和合规性,尽可能消除算法的负面影响,让AI以恰当的方式在合理的范围内发挥作用。毕竟,人才选拔最终关乎的还是人本身,人的品格能力不应轻易被简化为算法判断,人的前途命运也不应轻易交给算法黑箱决定。
来源:上观新闻
作者:解放日报 顾杰