首页 | 投资 | 产业 | 创投 | 保险 | 公司 | 企业 | 商业 | 消费 | 行情 | 经营 | 商品 | 基金 |
夏至 | 大模型里的中文屋

发稿时间:2023-06-21 13:48:36 来源: 哔哩哔哩

有关机器能否具有智能的讨论从很早就开始了。艾伦·图灵在1950年提出了一项思想实验[1],目的是测试机器是否表现出人的智能水平。机器 A 或人类 B 被关在房间中的情况下,与屋外的测试者(人类 C)通过键盘打字交流。如果无论房间内是机器还是人类,测试者 C 都无法通过若干轮交流来区分他们的身份,则意味着机器 A 通过了图灵测试,具备人类的智能。这种测试的核心思想源于行为主义,一种试图将心灵和意识归结到物理现象的一种哲学主张,即智能与否取决于表现出的行为。


(资料图)

约翰·罗杰斯·瑟尔在1980年提出了相反的观点[2]。他也提出了一个思想实验,如果一个只懂英语的人被关在小黑屋里,手里拿着一本英语写成的指南,指导他根据接收到的的中文信息来选择合适的中文字符来回答。从外部观察者的角度来看,这个人好像懂中文,但实际上他对中文一窍不通。这个思想实验指出,一个完全不具备智能的机器也可以展现出智能的行为,以此反驳了图灵测试背后基于行为主义的观点。

如今,GPT 等语言大模型的出现似乎也预示着图灵测试逐渐走到了生命的尽头。这些模型实际上就是一个个中文屋:GPT3 的训练方式非常简单,其中最为关键的一步是让模型学会根据上文猜测下一个词的能力[3]。通过在数以亿计的语料上进行这个任务的训练,模型便能够掌握人类的自然语言。客观来说,训练前的模型完全不懂自然语言,而在训练之后,它们也只是记住了如何根据上文来生成下文,类似于之前提到的英语指南。从结构上看,这样的模型似乎不可能获得任何人类的智能。

然而,这样的模型展现出的能力我们有目共睹。比如,尽管他们只是阅读过大量的单语言文本(其中也可能包含少量的翻译书籍),却能流畅地将中文翻译为英文;他们虽然从未聆听过音乐,却能创作出符合人类审美的旋律及和声。这一切犹如神迹的能力不断迫使我们思考,我们和这些大模型的区别究竟在哪里呢?我们真的还能守住任何只有人类才拥有的能力净土吗?

有一派哲学观点认为,中文屋的思想实验证明了“意义不能仅仅通过抽象符号的语法关系来表达”[4]。因此,一台看似具备智能的机器,若仅仅是对抽象的数字进行计算,则不能理解这些符号所代表的意义。设想一个名叫 Mary 的神经科学家[5],在一个黑白色的房间里学习了所有神经科学的知识,对于人类如何感受并认识红色有着深刻的见解。然而,Mary 从未亲眼见到过红色。当有一天,Mary 突然见到一个成熟的红苹果的时候,她是否还是之前那个 Mary 呢?在这一天之前,红色对于她来说只是一个抽象的符号,而这一天之后,她了解到了红色的真正意义。

如果我们相信 Mary 发生了改变,那我们自然也可以相信,我们了解许多机器不能了解的东西:我们了解红色,我们了普罗旺斯薰衣草味的微风,我们了解爱与被爱,我们终有一天会了解这个世界的意义。

Reference:

[1] Turing, 1950, [Computing Machine and Intelligence](https://www.cs.ox.ac.uk/activities/ieg/e-library/sources/t_article.pdf), (p. 1)

[2] Searle, 1980. [Minds, Brains, and Programs](https://web-archive.southampton.ac.uk/cogprints.org/7150/1/10.1.1.83.5248.pdf), (pp. 1-5) 

[3] Brown & others, 2020. [Language Models are Few-Shot Learners](https://arxiv.org/abs/2005.14165), (p. 3) 

[4] Glenberg & Kaschak, 2002. [Grounding language in action](https://link.springer.com/article/10.3758/bf03196313), (p. 1) 

[5] Jackson, 1986. [What Mary Didn’t Know](https://www.jstor.org/stable/2026143?seq=3), (pp. 291–5)

责任编辑:admin

标签:

琼ICP备2022009675号-32

关于我们 联系邮箱:435 227 67@qq.com