
新浪财经近日采访了英国曼彻斯特大学神经科学家、动物学教授马修·科布。他是现代为数不多的既具有科学知识又具有哲学思维的神经科学家之一。他的著作《大脑的理念》是一部全面的脑科学史。这不仅是对神经科学历史的回顾,也是人类如何理解“意识”和“自我”的思想实验。
在接受新浪财经长达37分钟的独家专访中,科布谈论了神经科学史上的隐喻、人工智能的幻想、创造力的意义,以及他对年轻一代的坦诚建议。
作为一名生物学家,他认为人类仍然不了解我们的大脑及其工作原理。科学帮助我们理解世界的复杂性,但哲学却提醒我们必须保持谦虚。机器可以模仿语言,但它们不能模仿语言不要模仿人类的思想。
——为什么要写《大脑传》?
“人类一直使用现代尖端技术来理解大脑,”科布说。
我记得写《大脑传记》的出发点。十年前,一位编辑要求科布撰写一部神经科学史。当时,他已经写了一年半,觉得它“很糟糕”,因为它是一本无聊的、没有灵魂的史实集。直到我突然意识到,大脑的故事其实是一个“进化的隐喻故事”。
“在17世纪,笛卡尔认为人类的神经系统就像一个液压系统。他在巴黎花园里看到了喷水机的雕像,认为人体也是如此。然后,随着电报的发明,人们将大脑比作通讯系统。而随着计算机的出现,我们开始认为大脑是一个信息处理机器。”
当然,这个想法是错了,但人们试图用机械隐喻来理解复杂的大脑。
后来,随着电的发现和电报系统的发展,人们开始将大脑和神经系统比作电报网络。然后计算机出现了,人们用它们来比喻大脑的工作原理。
“随着技术的进步,人类大脑意识到我可以通过讲述我们对世界的理解如何变化来构建这个故事,我知道这将是一本有趣且有价值的书。”
“这个故事改变了我的想法,并引发了对这本书的明确回应,尤其是来自神经科学家的回应。”
“当你告诉他们,他们的思维方式实际上是由现代技术塑造的,并且这个框架会因技术和社会的变化而改变时,他们会非常兴奋,因为这意味着他们的思维方式可以因为技术而改变,”科布说。
-我们根本不了解大脑。
“我们真的不明白如何艾因作品。这就是我这本书的中心思想。”当马修·科布这么说时,我有点惊讶,但他是认真的。
就像我第一次写这本书时一样,我的编辑给科布发电子邮件问:“你觉得怎么样?它到底是如何运作的?
他的回答是:“
编辑认为这个回应无法接受。因为我无法告诉这本书的读者我不知道大脑是如何工作的。因为几乎每本关于大脑的书都有某种解释:“它是量子的”,“它是一个网络”,“它是计算的”。
“但问题是,没有人真正知道,”科布承认。
“我一生的大部分时间都在研究昆虫和像 mfruit oscas 这样的小生物。 “果蝇幼虫(蠕虫)的大脑中只有大约 10,000 个神经元,而人类大脑大约有 800 亿个神经元。”
“即使有这 10,000 个神经元,我们仍然不明白它们如何产生像果蝇那样的简单行为。“我们甚至不知道涉及哪些神经元,也不知道它们为什么产生这种行为。s类型的意识,更不用说人类意识了。”
“显然它们有一些特别之处,但我们不知道它是什么或这些神经元如何工作。”
——机器无法生成有意识版本的系统
谈到人工智能,科布很明确:“我属于‘人工智能怀疑论者’阵营。”它是一个很棒的工具,但它不是生活的镜子。
科布承认当前的语言模型令人印象深刻。 “这些系统基于对相似性的搜索,本质上是非常强大的预测文本工具。”玫瑰。就像您在手机上输入消息一样,系统会预测您将输入的下一个字母或单词。人工智能本质上就是这种类型的预测,但只是规模更大。
“这些系统吞噬了很多数据,包括他们‘窃取’的我的书《大脑》,”他指的是美国针对人工智能训练数据版权的诉讼。 “他们向每个人学习,但他们不向每个人学习了解世界。”
他认为人工智能可以在某些领域发挥重要作用,例如下棋、设计新抗生素和确定蛋白质结构。这些系统可以运行得非常好,因为它们“明确地了解了决定这个封闭系统如何工作的规则”。
“但在西方,我们也看到了另一种思维趋势。有些人认为,随着系统变得越来越大,我们可以创造“某种‘上帝’般的人工智能,我认为这很荒谬。”
“像OpenAI这样的公司坚信,如果他们继续扩展他们的模型,他们最终将创造出像人类一样思考的‘智能’。我相信这是错误的,事实证明这是错误的。”
“你可以用特殊的工具来做到这一点,但不可能让一个有意识的系统出现,”科布说。 “我不相信‘人类意识’是由计算机自发产生的。”
——人类不应该盲目相信人工智能
最德布目前人工智能领域最热门的问题是,人工智能是否有一天能够自主决策,迎来“超级智能”时代。
对此,马修·科布承认肯定有很多。尽管有这个非常可怕的愿景,人工智能今天仍然主要用于娱乐、研究支持、科学、文本编辑和音乐创作等领域。
“我认为人工智能能否为我们做出决策,完全取决于我们如何使用它。具有明确规则的‘特殊模型’,例如研究蛋白质结构的人工智能系统,会产生更可靠的结果,因为我们给了人工智能明确的指令和训练规则。”
然而,有了ChatGPT这样的“通用模型”,情况就完全不同了。您可以提出非常简单的问题,例如“8 的平方根是多少?”
给出了答案。当你说“不”时,你会立即说“是的,没错”。
“他们非常‘谦虚、听话’,更像是‘服从’”“我们的仆人,”马修·科布告诉我。
但问题是,当人们开始信任这些机器时,问题就开始了。
“学生就是一个典型的例子。有些学生没有按时完成作业,所以我们让电脑帮我们写问题。人工智能为我们抄写了这篇文章,并附上了参考文献。
“但问题是,这些参考文献通常并不存在,而是被发明出来的。”
英国和美国都有律师在法庭上引用人工智能生成的“证据”的案例。鉴于此,法官表示“这一证据不存在”,并指责律师“无能”。 ”
“所以这完全取决于我们是否决定信任这些机器。盲目信任人工智能生成的内容会让我们处于非常危险的境地。”
“如果公司允许人工智能在没有人工审查的情况下直接决定招聘、投资和其他重要事项的结果,那将是非常糟糕的。其实我们过去也见过类似的情况,比如股票市场市场崩溃。
“从历史上看,一些股市崩盘是由自动交易系统造成的,这些系统在母羊制定的规则下‘失控’。这些系统并不智能,但却造成了金融灾难。
根本问题是我们是否让机器自己做决定。是否接受超级智能的出现取决于我们。重要的是,我们不应该让机器取代人类的判断。
新浪财经公众号
我们每天24小时播放最新的财经新闻和视频。更多粉丝福利,请扫描二维码关注我们(新浪财经)
