我们热爱机器。我们跟随导航系统去各个地方,并在各种应用程序和网站上仔细评估关于旅行、餐厅和潜在伴侣的推荐,因为我们知道算法可以比我们自己更准确地发现我们可能喜欢的机会。但是,当涉及到关于健康、工作或孩子的最终决定时,你会信任并委托人工智能来代表你行事吗?可能不会。
正因如此,我们(FP)采访了XRSI的创始人兼首席执行官卡维娅·珀尔曼(Kavya Pearlman,简称KP)。XRSI是她组建的X-Reality安全智能团队,旨在解决和降低人类与指数级技术互动中的风险。当然,她居住在美国西海岸。以下是我们的交流内容。
FP. 人工智能的出现带来了什么?
KP。多年来,科技公司已经将我们必须放弃最宝贵的资产——数据——才能换取数字化便利这一理念正常化。我们总是点击“接受”,从不多问。如今,随着可穿戴设备和智能手机的兴起,风险变得更高。这不再仅仅是浏览历史或位置数据的问题了。公司正在从我们的身体和思想中获取洞察力,从心律和睡眠呼吸暂停到运动。但仍然几乎没有人问:我的牙齿矫正后能矫正吗?我还不知道发生了什么事?有沒有任何特价商品?
这不仅仅是一个技术挑战,更是一个治理挑战,其核心是一个责任问题。如果没有透明度和问责制,人工智能可能会放大隐性偏见,侵蚀信任,并在系统出错时使人们无处求助。如果你正在寻找更强大的武器,那么现在是时候了,不要再等待了。
FP:你真的能创建一个能够实现这种透明和问责制度的系统吗?
KP:如果你想的话,可以。举个例子,我们刚刚推出了我们的𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞(𝐑𝐃𝐆)𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝。它为人工智能和可穿戴技术提供了具体的护栏,包括 c𝐥𝐞𝐚𝐫 𝐩𝐨𝐥𝐢𝐜𝐢𝐞𝐬 𝐨𝐧 𝐰𝐡𝐚𝐭 𝐝𝐚𝐭𝐚 𝐜𝐚𝐧𝐝 𝐜𝐚𝐧𝐧𝐨𝐭 𝐛𝐞 𝐮𝐬𝐞𝐝、p𝐫𝐨𝐭𝐨𝐜𝐨𝐥𝐬 𝐟𝐨𝐫 𝐦𝐚𝐧𝐚𝐠𝐢𝐧𝐠 是𝐀𝐈 𝐨𝐮𝐭𝐩𝐮𝐭𝐬 𝐚𝐧𝐝 𝐞𝐧𝐬𝐮𝐫𝐢𝐧𝐠 𝐭𝐡𝐞𝐢𝐫 的发音 发音者 single (女,来自男,来自女) 𝐬𝐨 𝐝𝐞𝐜𝐢𝐬𝐢𝐨𝐧𝐬 是 𝐚𝐫𝐞𝐧 的粉丝,也是 𝐰𝐢𝐭𝐡 粉丝俱乐部的粉丝𝐫𝐞𝐠𝐮𝐥𝐚𝐭𝐢𝐨𝐧𝐬 𝐭𝐨 𝐩𝐫𝐨𝐭𝐞𝐜𝐭 𝐢𝐧𝐝𝐢𝐯𝐢𝐝𝐮𝐚𝐥𝐬 𝐚𝐜𝐫𝐨𝐬𝐬 𝐛𝐨𝐫𝐝𝐞𝐫𝐬 等等。
FP. 为什么公司应该采用这些标准?
KP:他们确实有动力这么做,因为消费者和粉丝们会知道谁是认真的,谁不是。符合标准的组织很容易被识别。人工智能不仅需要更智能的模型,还需要更智能的治理。因为信任并非自动产生。信任是通过负责任的数据治理赢得、维持和保护的。问题不再是“人工智能能做到这一点吗?”,而是“我们能信任它正在做的事情吗?”
FP. 信任并非自然而然,消费者的利益(符合人类价值观)未必是某种模式的目标。我们需要公共和私营企业都认可的新标准。像XRSI这样的组织正在为此努力。理解、引导、标注、衡量等……的最佳时机就在眼前。
作者:弗兰克·帕加诺