講臺上方的投影儀亮著,映出“人工智能”幾個黑體字。
上課鈴響,一個背部佝僂的身影出現在門外。
小老頭右腿褲管空蕩蕩的,金屬義肢與地面接觸時發出輕微的咔嗒聲。
他走到講臺后方,摘下眼鏡擦了擦鏡片,露出一雙充滿智慧的深邃眼睛,眼角皺紋里藏著歲月的沉淀。
正是文崇。
文崇調試好麥克風,聲音透過音響傳遍教室:“今天我們從三個案例切入,聊聊ai決策的倫理邊界……”
他的語速平緩,邏輯清晰,講到關鍵處會舉起左手比劃。
中途提問環節,文崇目光掃過教室,最終落在最后一排:“那位穿白襯衫的女同學,你對算法偏見有什么看法?”
所有目光齊刷刷投向溫穗。
她站起身,雖然挺驚訝,聲音卻很穩:“算法偏見的本質是數據偏見。訓練數據里藏著人類社會的隱性歧視,ai不過是將這種歧視量化成代碼。解決的關鍵不在于優化算法,而在于重構數據采集的邏輯。”
文崇眼睛豁然亮起,沒想到會得到這樣的答案。
他微微頷首:“說得很好。那你覺得,當ai的決策與人類倫理沖突時,該以誰為準?”
“以具體場景為準。”溫穗從容迎上他暗含鼓勵和期待的眼神,“醫療領域以生命優先,司法領域以程序正義優先,沒有放之四海而皆準的準則。”
文崇沉默了兩秒,突然笑了:“有見地。你叫什么名字?”
“溫穗。”
“溫穗。”
他輕聲重復這個名字,最終只是點點頭,“請坐。”
溫穗坐下時,悄悄松開緊握的手。
賀霜擔憂地看著她:“你沒事吧?臉色好差。”
“沒事。”
她搖搖頭,視線忍不住再次投向講臺。
文崇正在講解某個醫療ai的案例。
講到情感交互模塊,他忽然開口:“真正的共情,不是模擬人類的表情,而是理解表情背后的情緒,根據人類的情緒做出相對的反應。”
有學生舉手發問:“文老師,既然ai這么智能,那未來人類會不會被ai取代?”