给 AI 绘画工具 Midjourney 输入「吃豆人游戏界面,吃豆人,鬼魂,墨色,眨眼,克莱德,吃豆迷宫,吃豆,蒙德里安风格,现代艺术,现代主义,绽放」后得到的画面。
当你向 AI 绘画工具(如 DALL-E 或 Midtravel)输入文本 prompt 以使其生成图片,或者要求自动生成代码的 AI 工具 ——Copilot 编写一些软件时,它们得到的结果可以称得上是艺术品。
我们可以将这一过程称为「工程」,听起来似乎很精确,也很合乎逻辑。但如果你去 Discord 平台上查看人们在 Midjourney 应用中输入的 prompt,你会看到这样的内容:
讲道理编写 prompt 肯定有一种正确的姿势,现实是往往编写起来感觉又无迹可寻,就像是使用魔法咒语的时候,不小心就会把魔咒里的单词放错了地方,很容易就把事情搞砸了。
说得搞笑点,编写 prompt 似乎就像人类试图哄骗「一只急切又困惑的驮运动物」来干活。我们认为它明白我们在说什么,但沟通方式却是大喊大叫,乱跑乱跳。
可以说现在是人工智能史上一个非常奇怪的时刻。几十年来,人工智能在图灵测试的「阴影」下不断进步(并非总是如此,但经常如此),图灵测试认为「聪明」人工智能的行为和交流方式与聪明人完全一样。
根据图灵的想法,比如说,如果一个人工生命体能够讨论当前发生的事件,那么它就可以被认为是智能的。近年来,我们将这种清晰、精确、自然的语言期望扩展到日常设备中:与苹果 Siri 和亚马逊 Alexa 交谈,询问天气或设置计时器。
但与产生艺术作品的人工智能「对话」截然不同。我们试图让它们创造一些东西。这意味着,如果人工智能犯了错误,后果要严重得多。没人在乎在线聊天机器人聊天的时候突然掉线。如果聊天机器人不是实时直播 NBA,那就没什么大不了的。
但如果我们有一个特定的创造需求来让人工智能满足呢?如果我们想让它写一篇具有特定内容和风格的博客文章呢?我们当然需要确保我们能够与它正确沟通。
这意味着我们必须开始思考人工智能在想什么,或者更确切地说,它是怎么想的。我们必须进一步发展心理学家所说的机器「心智理论」。「听起来好像天方夜谭,对吧?」正如 OpenAI 联合创始人 Andrej Karpathy 在谈到 Copilot 时告诉笔者的那样。「这不是你过去司空见惯的东西。它不像人类的心智理论。它就像是一个外星人的人工制品,而且是从大规模的优化过程中产生的。」
笔者并不是说这些人工智能实际上是有意识的、智能的或其他什么。它们只是非常微妙的模式识别器和序列完成器,内在更像是一片混乱的数学海洋。
但是,又因为我们是用语言向它们发出命令,这让我们陷入了一种奇怪的心理关系 —— 试图探知里面发生了什么。
笔者想起了古希腊人如何与德尔菲神谕(Delphic oracle)互动。德尔菲神谕被认为能通晓过去、现在和未来。提问后的答案可能很奇怪,因为从本质上讲,这就好像是在和外国人说话一样,谁知道你会得到什么结果?
研究艺术机器人内部工作的科学家们记录了一些这些机器奇怪的内部状态。最近,德克萨斯大学奥斯汀分校的两名研究人员发现,DALL-E 2 生成了明显的乱七八糟的短语,在模型本身中,这些短语似乎具有某种一致的含义。
这是为什么呢?模型是如何生成这种奇怪的内部新语言的?科学家们对此一无所知,尽管这看起来像是 DALL-E 2 的文本编码器的对抗性产物。
感觉好像是我们需要催眠人工智能,使其专注于我们关心的主题。你也可以在 prompt 编写者通常使用的大量描述性词语中看到这一点。看看 Xe Iaso 结合 stable diffusion 生成的图像:
不得不说画面还是有点诗意的。与艺术 AI 的交流感觉就像一个文字游戏 —— 就像玩 Charades 或 Taboo,你必须通过围绕一个主题进行对话来触发 AI 生成正确的结果。除此之外,我们的目标是找到正确的咒语,唤醒居住在那座由媒介物组成的圣坛中的灵魂,并召唤它们听从你的命令。
正如 Xe 所说的,「我也不太清楚为什么人们会把 prompt 称为『工程』,我个人更愿意把它称为『占卜』。」
也许,我们需要对 prompt 生成模型做一些严谨的澄清。因为它要求我们以一种完全疯狂的方式进行交流,所以它不太像是能满足图灵测试的要求,在智力上并不「像」我们。笔者坚信总有一天艺术 AI 是能像我们的!但现在,它们确实真的很奇怪。