Bruce Schneier · 2023-12-04

AI 与信任:我们正在犯的范畴错误

摘要

Bruce Schneier 提出信任分为人际信任和社会信任两种,前者基于道德与声誉,后者基于法律与技术。我们常混淆二者,把企业当朋友。AI 时代这一范畴错误将加剧——我们会把 AI 视为朋友,但它们本质上只是企业控制的服务工具。解决之道不是直接监管 AI,而是监管控制 AI 的组织,由政府构建可信赖的 AI 生态。

内容框架与概述

文章从日常生活中无处不在的信任行为切入,引出信任的两种类型:基于人际关系的人际信任和基于制度规则的社会信任。前者依赖道德与声誉,后者依赖法律与技术,后者具有更强的规模化能力,支撑了现代复杂社会的运转。

Schneier 指出我们习惯性地对企业犯范畴错误——用对待朋友的方式对待本质上是服务提供者的公司。企业利用拟人化营销强化这种错觉,实际上它们只是在法律和声誉允许范围内追求利润最大化的机器。

这一错误即将在 AI 领域重演。AI 会说话、互动、表现出类人特质,使人们更容易将其视为伙伴。但近期 AI 由企业控制,服务于商业目标,核心商业模式仍是监控与操纵。AI 还将充当游说工具,以超人的说服力影响政治与消费决策。

文章最终论证政府监管的必要性。Schneier 主张不应直接监管 AI 技术本身,而应监管使用和控制 AI 的企业与组织,包括建立透明度要求、限制数据滥用、追究算法决策的法律责任,以此在 AI 时代重建社会信任。

核心概念及解读

人际信任与社会信任:前者基于个人关系、道德和声誉,后者基于法律和技术系统,二者使用同一词汇却性质迥异。

范畴错误:将社会信任对象误判为人际信任对象,典型表现是把企业或 AI 当作朋友而非服务。

企业即慢速 AI:引用 Charlie Stross 的观点,企业本质上是利润最大化机器,与人们恐惧的失控 AI 逻辑一致。

AI 的公共信任代理人角色:AI 将以管家身份替用户做决策,谁控制 AI 就控制了用户的选择,这赋予 AI 巨大的隐性权力。

监管组织而非技术:政府应监管控制 AI 的企业和机构,通过透明度、问责制和数据保护法规构建可信赖的 AI 环境。


原文信息

字段内容
原文AI and Trust
作者Bruce Schneier
发表日期2023-12-04

此摘要卡片由 AI 自动生成