中国科学技术大学陈小平教授“人工智能的重大发展—从实践到思想”线上讲座顺利举行
点击次数: 更新时间:2023-09-17
本网讯(通讯员 唐瑞雪)9月13日晚,应必赢中国官方网站陈波教授邀请,中国科学技术大学陈小平教授做客必赢中国官方网站科学技术哲学论坛,通过线上平台为师生带来一场题为“人工智能的重大发展—从实践到思想”的讲座。本场讲座由必赢中国官方网站陈波教授主持,必赢中国官方网站计算机学院蔡恒进教授评议。来自国内外的1200余名听众参与本次线上讲座。
陈波教授首先介绍开展必赢中国官方网站科学技术哲学论坛的初衷。必赢中国官方网站哲学系曾经聚集了大批科学技术哲学方面的优秀学者,形成了一个连续的传统,希望通过举办此系列讲座来延续和光大这一传统。
陈小平教授首先以AlphaGo 到AlphaGo Zero 的发展为例分析人工智能实践中的历史性跳变。AlphaGO是一款围棋人工智能程序,AlphaGo Zero为其发展的第四代。与前三代的原理不同,AlphaGo Zero 没有关于围棋的任何知识,也没有模仿人类下棋思维,而是通过自搏反推落子胜率,并以胜率估计为评估函数,而胜率估计与对手无关,由此将围棋问题封闭化,即不再通过预测对手的落子来赢得比赛。AlphaGo Zero 是历史上第一台没有运用人类领域知识的智能机器,只以人类发明的人工智能知识和原理为基础,通过自我学习战胜了之前的AlphaGo版本,显示出人工智能的巨大潜力。
接着,陈小平教授梳理了人工智能思想的发展历史。图灵测试依赖行为的不可分辨,但随着人工智能的发展,行为不可分辨不再必要。人工智能的科学实践表明,即使机器的行为与人的行为是可分辨的,人们仍然有可能认为机器有智能。在现代,人工智能更加强调原理模拟和功能模仿。原理模拟即认为机器采用与人相同的工作原理完成相同的功能。而功能模仿则认为机器采用与人不同的工作原理完成相同的功能。陈小平教授指出人工智能仍以功能模仿为主,并且在总结科学实践的基础上提出了“功能模仿观”。该观点由以下三条原理构成:(1)升级版图灵“假说”:机器可以模仿人的智能的部分功能,如推理、学习、决策等,以及它们的集成。行为不可分辨不再是必需的。(2)图灵的机器智能观:机器智能的工作原理与人的智能的工作原理可以相同,也可以不同。(3)可接受性:基于“人类立场”确认机器智能是可接受的。因此,人工智能具有内在伦理追求,“有智能”不是人工智能的充分条件。
讲座最后,陈小平教授澄清了以往对人工智能的误解,并且分析了当今发展人工智能所带来的种种问题。首先,经典人工智能不是计算主义或功能主义。计算主义认为人心或人脑是计算机,而功能主义认为功能相同的实体是相同的实体。经典人工智能的工作原理与人脑的工作原理不同,因此,它不是计算主义。此外,经典人工智能虽然可以模仿人类智能的部分功能,但是不能将人脑的一切都概括为功能,所以即使经典人工智能可能模仿人脑的部分功能,也不意味两种实体是相同的,因此它不是功能主义。对于机器的理解和人的理解,陈小平教授指出两种理解的原理可以不同,但人工智能研究和人工智能伦理不能脱离可接受性。面对人工智能所引发的可控性问题、合理性问题以及带来的重大社会问题在内的一系列伦理挑战,陈小平教授倾向于将人工智能视为似人非人、似物非物的第三种存在物,这样有利于缓和目前人工智能发展所导致的冲突,缓和人工智能与人之间的对抗性关系。
在评议环节,蔡恒进教授就“术语‘经典人工智能’”、“对于人工智能的可控能否实现”、“为何将人工智能视为第三种存在物”、“人工智能会不会有自我意识”等问题进行提问。蔡恒进教授表示,人类希望人工智能可控与有能力可控之间存在着张力,主张“将人工智能视为第三种存在物”会带来人与第三种存在物的关系之类的问题。与其将人工智能视为第三种存在物,是否可以将其视为人类能力、意图的延伸,以此来缓和目前造成的种种冲突。
陈小平教授回应称,经典人工智能主要指从图灵到各种理论实践,除了经典人工智能外,人工智能还有像类脑这样的其他人工智能。对于可控性问题,陈小平教授认为,必须要坚持对人工智能的可控,但是这个可控性要分为不同的等级。如果过度控制,会限制人工智能的发展。对于人工智能的研究,要有底线,但是目前这个底线在哪、是什么还不确定。如果将人工智能视为第三种存在物,那么可以设定关于第三种存在物的法律、政策等,这可能有利于缓和目前所引发的种种问题。如果不采取这种观点,很可能要么会放松风险管控,要么会限制人工智能的发展。
观众就“为何经典人工智能的发展会使心物二元论不成立”、“为什么大模型不采用AlphaGo Zero 的非人工标注技术”进行提问。陈小平教授分别进行了简单地回应,“心物二元论”是从原理模拟的角度来说的,而人工智能不以原理为标准,其功能与原理不一致,突破了心物二元论。大模型中有两种学习方法。一种为自监督学习,不需要标注;另外一种为监督学习,需要人类进行标注。目前在大模型中主要使用自监督学习,但因为胡说、乱说等现象表明需要进行监督学习。
(编辑:邓莉萍 审稿:严璨)