“在事实知识层面,初代AI实际在数据库准确性上更具优势,而一旦进入创造推理领域,生成式大模型将凭借其生成新文本的多维度和丰富性,开创崭新的时代。“在9月10日清华科技园国际会议中心举办的大模型研讨会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹如是说。在他看来,AIGC生成内容的多样性是其能呈现“智能涌现“创造性的基础。
张钹院士作报告 (主办方供图)
本次研讨会由清华大学人工智能研究院基础模型研究中心和清华大学计算机系共同举办,旨在为国内外大模型领域的研究人员搭建共同探讨大模型发展的交流平台。教育部科学技术与信息化司司长雷朝滋出席会议并致辞,来自斯坦福大学、Open AI、南加州大学等机构的知名大模型研究者现场分享、探讨了全球AIGC前沿研究成果和最新热点。研讨会受到学术界和产业界广泛关注,共吸引近3000位学者、学生和从业者报名参加。
雷朝滋致辞
雷朝滋在致辞中高度赞赏了清华大学基础模型研究中心在大模型前沿研究领域的积极作为。作为该中心成立以来举办的首场学术交流活动,他寄望与会专家畅所欲言、建言献策,共同推动我国大模型研究高质量发展,助力我国人工智能产业走向世界领先。
会上,张钹院士以《语言大模型(ChatGPT)的本质》为题,对聊天(对话)机器人的发展历史进行回顾,对语言大模型究竟要解决什么问题进行了探讨。张院士通过实例系统介绍了以微软小冰、IBM沃森等为代表的第一、二代聊天机器人的能力,以及以ChatGPT为代表的最新一代语言模型的语言生成能力,分析了人工智能实现对话或聊天的原理和本质,阐释了ChatGPT的性能、原理和局限性。
“ChatGPT语言跟人类自然语言生成原理最本质的区别是,ChatGPT生成的语言是外部算法驱动的,而人类的语言是由自身主观意图驱动的。GPT是将人类投喂的数据作为其接收的‘知识’来处理的,受制于程式算法的GPT,在处理这些外来‘知识’时,实际是不具备反思能力的。”谈及以ChatGPT为代表的AI大模型局限性,张钹表示,机器的“神经学习”并无相应的人类的心理过程,而只是机械的文字和数字符号的计算。
报告中他也补充称,随着数据、算法等核心要素的不断升级迭代,生成式大模型未来可能会突破人为限制,提升到自主创作层次,从理论上实现高质量内容生态的无限供给。但当前重要的是,需要对ChatGPT语言进行深入的研究和理解,而不是一味追求机器算法语言与人类自然语言的“对齐”。在张钹看来,某种程度上,生成式大模型正是机器认知智能发展到当下阶段的典型代表,这类智能和人类智能各有优劣,而在做大量“对齐”的治理后,大模型智能所生成的文本多维度和丰富性反而会下降,并不利于机器“智能涌现”的创新。他相信,只有人机认知协作才有可能应对未来社会或将带来的算力和认知挑战。
他同时还强调了对语言大模型实施必要的道德伦理监管及治理的重要性。
此外,思维链技术(Chain of Thought)的提出者,来自Open AI的Jason Wei则以《大语言模式复兴中的新范式》“New Paradigms in the Large Language Model Renaissance”为题作线上特邀报告,主要探讨了大型语言模型的可扩展性、涌现能力、基于提示的推理及其对人工智能研究的影响。斯坦福大学计算机科学系副教授Michael Bernstein、南加州大学计算机科学系教授Yan Liu也在上午论坛上各自分享了其最新研究进展。
八位学者作报告,从上至下、从左至右依次为孙茂松、唐杰、汪玉、翟季冬、黄民烈、刘知远、刘潇、东昱晓
下午的论坛上,来自清华大学人工智能研究院基础模型研究中心的唐杰、黄民烈、刘知远和翟季冬等多位专家也从各自的垂类研究领域,围绕大模型的并行训练加速、显著通用特性、安全体系和超级对齐理念等方面进行相关科普分享。
据悉,清华大学人工智能研究院基础模型研究中心成立于2023年6月30日,旨在团结全校科研力量、汇聚社会各界资源、对接国家重大需求,推动通用人工智能有组织科研和学科发展。
采写:南都记者 吕虹