像ChatGPT这样的生成式AI模型令人感到震惊,现在有些人声称人工智能不仅与人类平起平坐,而且往往会更加聪明。它们能写出充满细节、想法和知识的文本,风格多样,以至于很难相信这些文本出自一台机器。而我们才刚刚开始探索到生成式AI所能做的一切。部分观察人士认为,这些新的AI终于跨越了图灵测试的门槛,甚至有的人认为,这一门槛并非仅被轻轻跨过,而是被炸得粉碎。毫无疑问,又一批人已经在走向失业的边缘。

但一旦惊奇感消失,生成式AI的明星效应也会消散。如果以某种合适的方式提问,智能机器可能会给出一些空洞或不正确的内容,同时也可能展示出AI的上下文感知的局限性。以下是美国作家兼记者彼得·韦纳(Peter Wayner)对生成式AI的十大担忧。

1. 剽窃


(相关资料图)

当生成式AI模型(如DALL-E和ChatGPT)创作时,它们实际上只是从训练集中的数百万个示例中创建新的模式。其结果是对各种来源进行综合的剪切粘贴——当人类这样做时,这一行为被称为抄袭。

当然,人类也会通过模仿来学习,但在某些情况下,这些模仿明显到甚至小学老师都能看出来。这种AI生成的内容由大量文本组成,呈现时几乎一字不差。然而,有时其中混合了足够多的内容,以至于即使是大学教授小组也可能难以检测到来源。不管怎么说,AI生成的文本所缺少的是独特性。尽管这些内容光彩夺目,但它们并不能生产出真正的新东西。

2. 版权

抄袭在很大程度上是学术方面的问题,而版权法则适用于市场。当一个人窃取另一个人的工作成果时,他们可能会被告上法庭,可能会被处以数百万美元的罚款。但人工智能呢?同样的规则还适用吗?版权法是一个复杂的话题,生成式AI的法律地位可能需要数年时间才能确定

3. 无偿劳动

生成式AI引发的法律问题不仅仅是抄袭和版权,律师们已经在设想新的诉讼伦理问题。举个例子,一家制作绘图程序的公司是否能够收集有关人类用户绘图行为的数据,然后将这些数据用于AI培训目的?人类是否应该为这种创造性劳动的使用得到补偿?当前一代人工智能的成功,很大程度上源于对数据的访问。那么,当生成数据的人想要分一杯羹时会发生什么?何为公平?何为合法?

4. 信息非知识

AI尤其擅长模仿人类需要数年才能形成的那类智能。当一个人类学者能够介绍一位不知名的17世纪艺术家,或者用一种几乎被遗忘的文艺复兴时期的音调结构写出新的音乐时,我们有充分的理由感到钦佩。我们知道这需要多年的研究来积累这些知识。当AI只经过几个月的训练就能做同样的事情时,结果可能会非常精准,但还是缺了点东西。

如果一台训练有素的机器能在装满数十亿条记录的数字鞋盒中找到正确的旧收据,它也能了解有关阿芙拉·贝恩(Aphra Behn)这样的诗人的所有信息。你甚至可能认为,机器是用来解码玛雅象形文字含义的。AI看起来时在模仿人类创造力中好玩和不可预测的一面,但它们并不能真正做到这一点。与此同时,不可预测性才是创意创新的驱动力。像时尚这样的行业不仅沉迷于变化,而且被变化所定义。诚然,AI有它的一席之地,但人类辛苦传承的优秀智慧也有其一席之地

5. 知识停滞

说到智能,人工智能本质上是机械且基于规则的。一旦人工智能处理了一组训练数据,它就会创建一个模型,而这个模型并不会真正改变。一些工程师和数据科学家设想,随着时间的推移逐渐重新训练人工智能模型,这样机器就能学会适应。但是,在大多数情况下,这个想法是要创建一组复杂的神经元,以固定的形式编码特定的知识。恒定性有其存在的道理,而且可能适用于某些行业。但人工智能的危险在于,它将永远停留在其训练数据的时代潮流中。当我们人类变得过于依赖生成式AI,以至于无法再为训练模型提供新的材料时,会发生什么?

6. 隐私安全

AI的训练数据需要有来源,我们并不总是那么确定会有什么卡在神经网络里面。如果AI从其训练数据中泄露个人信息怎么办?更糟糕的是,AI被设计得非常灵活,以至于锁定AI会困难得多。关系数据库可以限制对含有个人信息的特定表格进行访问。然而,AI可以通过数十种不同的方式进行查询。攻击者将很快学会如何以正确的方式提出正确的问题,以获取他们想要的敏感数据。举个例子,假如某项资产的经纬度被锁定了, 一个聪明的攻击者可能会问该地点几周内太阳升起的确切时刻。 一个尽职的AI会尝试回答。 教会AI保护私人数据是我们目前还不了解的事情。

7. 未被发现的偏见

即使是最早的大型机程序员也了解计算机问题的核心,他们创造了缩写GIGO ,即“垃圾进,垃圾出”(garbage in, garbage out),这是计算机科学与信息通信技术领域的一句习语,说明了如果将错误的、无意义的数据输入计算机系统,计算机自然也一定会输出错误、无意义的结果。人工智能的许多问题来自于糟糕的训练数据。如果数据集不准确或有偏见,结果将会反映出来。

生成式AI的核心硬件可能像Spock测试框架一样以逻辑为导向,但建造和训练机器的人却不是。偏见和党派偏见已被证明可以进入AI模型。也许有人使用了有偏见的数据来创建模型。也许他们添加了覆盖,以防止模型回答特定的热点问题。也许他们输入了一些固定的答案,这些答案随后变得难以检测。人类已经找到了许多方法来确保AI能成为有害信念的绝佳载体。

8. 机器愚蠢

人们很容易原谅AI模型犯错,因为它们在很多其他事情上都做得很好。只不过许多错误很难预测,因为AI思维方式与人类不同。机器愚蠢往往体现为系统或程序的局限性,这些局限性会阻碍机器的“理解”和“判断”。例如,许多使用文本转图像功能的用户发现,AI在相当简单的事情上都犯了错误,比如计数。人类在小学就开始学习基本的算术,然后我们在各种各样的情景下运用这项技能。让一个10岁的孩子画一只章鱼,几乎可以肯定会画上八条腿。当涉及到数学的抽象和上下文应用时,当前版本的AI往往会陷入困境。如果模型构建者对这个问题投入一些精力,情况可以很容易就改变,但还会有其他错误。机器智能不同于人类智能,这意味着机器愚蠢也会有所不同。

9. 人类的轻信

有时在不知不觉中,我们人类往往会填补人工智能的空白,填补缺失的信息或插入答案。如果AI告诉我们亨利八世是杀死他妻子的国王,我们可能并不会对此质疑,因为我们自己也不了解这段历史,只是假设人工智能是正确的。如果一个主张以充满信心的方式提出,人类的大脑倾向于接受它是真实和正确的。

对于生成式AI的用户来说最棘手的问题是,在AI出错时能意识到问题。机器无法像人类那样撒谎,但这让它们更加危险。他们可以写出几段完全准确的数据,然后转向猜测,甚至是完全的诽谤,同时却没有人意识到这一切。

10. 无限丰富

数字内容是无限可复制的,这已经让许多围绕稀缺性建立的经济模型不堪重负。生成式AI将进一步打破这些模式。生成式AI将使一些作家和艺术家失业;还会颠覆我们生活中遵循的许多经济规则。当广告和内容都可以不断地重新组合和再生成时,广告支持的内容还会有效吗?互联网的免费部分是否会陷入一个机器人点击网页上的广告,所有广告都是由生成式AI精心制作和无限复制的世界?

这种轻松的丰富性可能会破坏经济的各个方面。如果不可替代的代币可以永远被复制,人们还会继续为其买单吗?如果艺术创作如此简单,它还会受到尊重吗?独特性是否还会存在?是否还会有人在意其独特性?当一切都被视为理所当然时,是否一切都会失去价值?

推荐内容