我們熱愛機器。我們跟隨導航系統去各個地方,並在各種應用程序和網站上仔細評估關於旅行、餐廳和潛在伴侶的推薦,因爲我們知道算法可以比我們自己更準確地發現我們可能喜歡的機會。但是,當涉及到關於健康、工作或孩子的最終決定時,你會信任並委託人工智能來代表你行事嗎?可能不會。
正因如此,我們(FP)採訪了XRSI的創始人兼首席執行官卡維婭·珀爾曼(Kavya Pearlman,簡稱KP)。XRSI是她組建的X-Reality安全智能團隊,旨在解決和降低人類與指數級技術互動中的風險。當然,她居住在美國西海岸。以下是我們的交流內容。
FP. 人工智能的出現帶來了什麼?
KP。多年來,科技公司已經將我們必須放棄最寶貴的資產——數據——才能換取數字化便利這一理念正常化。我們總是點擊“接受”,從不多問。如今,隨着可穿戴設備和智能手機的興起,風險變得更高。這不再僅僅是瀏覽歷史或位置數據的問題了。公司正在從我們的身體和思想中獲取洞察力,從心律和睡眠呼吸暫停到運動。但仍然幾乎沒有人問:我的牙齒矯正後能矯正嗎?我還不知道發生了什麼事?有沒有任何特價商品?
這不僅僅是一個技術挑戰,更是一個治理挑戰,其核心是一個責任問題。如果沒有透明度和問責制,人工智能可能會放大隱性偏見,侵蝕信任,並在系統出錯時使人們無處求助。如果你正在尋找更強大的武器,那麼現在是時候了,不要再等待了。
FP:你真的能創建一個能夠實現這種透明和問責制度的系統嗎?
KP:如果你想的話,可以。舉個例子,我們剛剛推出了我們的𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞(𝐑𝐃𝐆)𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝。它爲人工智能和可穿戴技術提供了具體的護欄,包括 c𝐥𝐞𝐚𝐫 𝐩𝐨𝐥𝐢𝐜𝐢𝐞𝐬 𝐨𝐧 𝐰𝐡𝐚𝐭 𝐝𝐚𝐭𝐚 𝐜𝐚𝐧𝐝 𝐜𝐚𝐧𝐧𝐨𝐭 𝐛𝐞 𝐮𝐬𝐞𝐝、p𝐫𝐨𝐭𝐨𝐜𝐨𝐥𝐬 𝐟𝐨𝐫 𝐦𝐚𝐧𝐚𝐠𝐢𝐧𝐠 是𝐀𝐈 𝐨𝐮𝐭𝐩𝐮𝐭𝐬 𝐚𝐧𝐝 𝐞𝐧𝐬𝐮𝐫𝐢𝐧𝐠 𝐭𝐡𝐞𝐢𝐫 的發音 發音者 single (女,來自男,來自女) 𝐬𝐨 𝐝𝐞𝐜𝐢𝐬𝐢𝐨𝐧𝐬 是 𝐚𝐫𝐞𝐧 的粉絲,也是 𝐰𝐢𝐭𝐡 粉絲俱樂部的粉絲𝐫𝐞𝐠𝐮𝐥𝐚𝐭𝐢𝐨𝐧𝐬 𝐭𝐨 𝐩𝐫𝐨𝐭𝐞𝐜𝐭 𝐢𝐧𝐝𝐢𝐯𝐢𝐝𝐮𝐚𝐥𝐬 𝐚𝐜𝐫𝐨𝐬𝐬 𝐛𝐨𝐫𝐝𝐞𝐫𝐬 等等。
FP. 爲什麼公司應該採用這些標準?
KP:他們確實有動力這麼做,因爲消費者和粉絲們會知道誰是認真的,誰不是。符合標準的組織很容易被識別。人工智能不僅需要更智能的模型,還需要更智能的治理。因爲信任並非自動產生。信任是通過負責任的數據治理贏得、維持和保護的。問題不再是“人工智能能做到這一點嗎?”,而是“我們能信任它正在做的事情嗎?”
FP. 信任並非自然而然,消費者的利益(符合人類價值觀)未必是某種模式的目標。我們需要公共和私營企業都認可的新標準。像XRSI這樣的組織正在爲此努力。理解、引導、標註、衡量等……的最佳時機就在眼前。
作者:弗蘭克·帕加諾