當AI成為你的績效評估者

好不容易完成一個專案,還來不及喘口氣,AI助理便已產出一份詳盡報告,列出你對這個專案的貢獻。這是前IBM人工智慧平台華生(Watson)開發者費魯奇(David Ferrucci)的親身經歷,也揭示了未來工作樣貌的轉變。
原本,他只是請AI計算自己在一項協作寫作專案中投入的時間,卻意外收到一份分析報告;記錄他如何撰寫初稿、修改、提問與回應,以及各階段的思考歷程。
報告指出,他歷經四十七次工作階段、共花費三十四小時,產出逾一千兩百則問答互動。AI呈現數據,更解讀行為;評估顯示,費魯奇不只下指令,更主導整體思路與架構,扮演創意總監、理論建構者與總編輯的角色。這宛如一面無所遁形的鏡子,不只顯示他做了什麼,更呈現出他是如何做的。
這讓費魯奇意識到,當AI從協作者轉為評估者,衡量績效的邏輯也可能被改寫。他在財星雜誌(Fortune)指出,這種評估方式極具顛覆性。傳統評量聚焦於成果或發言表現,卻忽略深度思考與反覆推敲的隱性貢獻。AI則讓這些過程得以量化與可視化,為被忽視的努力創造被看見的機會。
然而,這種高度透明也令人不安;當每一次猶豫、錯誤嘗試,或未成形的想法都被記錄,創意工作的心理安全感將受衝擊。我們會因此變得保守嗎?即使AI是中立觀察者,被監控的焦慮仍可能改變我們的選擇與工作方式。
更令人擔憂的是,如果AI分析被納入正式評估,卻缺乏審慎設計,可能延續既有偏見;畢竟AI仍受限於訓練資料與開發者預設的判斷標準。此外,當人與AI協作時,我們該如何界定創意歸屬?
為避免這些風險,費魯奇提出五項設計原則:
一、透明性:使用者應理解AI如何評判他們的工作;二、防操控:防止使用者或管理者操弄系統結果;三、一致性:評量標準應在多個部門一致適用,避免隨時間或對象改變;四、可稽核性:AI也需接受檢驗,承擔偏誤責任;五、與人交叉比對:AI評估應定期與人類判斷比對,以釐清落差。
若能落實這些原則,AI有潛力補足人類評估盲點,建立更具洞察力與公平性的績效機制。