编者按:
记者:人工智能究竟是什么?如何理解专用人工智能、通用人工智能等概念?以ChatGPT和DeepSeek为代表的人工智能大模型取得重大突破意味着什么?
张海宁(南开大学软件学院院长):人工智能(Artificial Intelligence,简称AI)是对人类智能的模拟、延伸和扩展,旨在通过算法和模型对大量数据进行学习、分析和训练,使机器能够像人类一样思考和解决问题。人工智能诞生的初衷非常纯粹,就是试图用机器去精确模拟人类学习的每一个方面和智能特征。
在过去很长一段时间里,我们取得的成就主要集中在专用人工智能(ANI)领域,也就是让机器在特定的、规则明确的任务上(比如围棋对弈、人脸识别等)做到极致,甚至超越人类,但这在本质上是偏科的,一旦脱离特定领域,人工智能就变得无能为力。而通用人工智能(AGI)则是要求机器具备像人类一样的认知能力,能够跨领域学习、推理、决策,还能与人类或其他智能体进行有效的协作。同时,智能体能够理解人类的情感,并且遵循社会伦理和道德规范。以ChatGPT和DeepSeek为代表的大模型让我们看到了通用人工智能的曙光,但自适应性、持续学习及与外界互动等问题仍需克服。
李艳(中国现代国际关系研究院科技与网络安全所所长):从技术本质来看,大语言模型的核心是“语言规律学习”而非“世界规律认知”,它们通过海量文本数据掌握语言表达逻辑,能生成流畅的内容,但缺乏对真实世界的实体感知和因果推理能力,尚未形成真正的“世界模型”。从能力维度分析,当前顶尖大模型在长期记忆存储、多模态深度融合等关键领域存在明显短板。目前大众常用的对话式“智能体”,基本不具备长期记忆存储能力,每打开一次对话框,就是一次重新开始。对话的永远都是“陌生人”,因此,无法稳定记住用户过往沟通偏好,无法通过累积对话经验成为了解你的“朋友”。
语言可以承载人类知识和逻辑,但通用人工智能还需要融合视觉、听觉、触觉等多模态感知,以及自主决策、情感理解等综合能力。由此看来,大语言模型只是迈向通用人工智能发展的阶段性成果,远非终点。
2025年6月18日,在广西柳州市北部生态新区机器人产业园,柳州优必选智能科技有限公司量产工业人形机器人正式下线。这台名为“Walker S1”的工业人形机器人是首台广西制造的工业人形机器人。 人民图片 黎寒池/摄
记者:人工智能发展的核心要素有哪些?
张海宁(南开大学软件学院院长):如果我们将训练一个优秀的大模型比作烹饪一桌满汉全席,那么数据、算力和算法就是缺一不可的核心要素。
数据是“顶级食材”。在大模型时代,数据的质远比量重要,我们需要的是经过严格清洗、富含人类逻辑与行业智慧的高质量数据,而非互联网上杂乱无章的原始数据,这是大模型智慧的源头。
算力是“猛烈炉火”。不管是模型的训练还是推理,都需要数以万计的图形处理器芯片组成庞大的计算集群,提供惊人的计算能力,这决定了我们能否在有限的时间内完成对海量知识的凝练。
算法是“关键菜谱”。它决定了我们如何去构建神经网络的架构,以及如何高效地利用算力和数据。优秀的算法能极大地提升学习效率,用更少的资源训练出更聪明的模型。
加快人工智能技术与各行各业、各种应用场景深度融合,对于推动经济社会高质量发展具有重要意义。图为2024年11月29日,智能育种机器人“吉儿”在位于北京的一个现代化商业温室中进行番茄自动杂交授粉操作。 新华社发 中国科学院遗传与发育生物学研究所供图
记者:伴随人工智能的深度应用,一系列涉及安全、隐私、公平、责任的伦理难题浮出水面。如何认识和应对人工智能发展带来的安全风险,防止技术滥用,确保智能向善?
张海宁(南开大学软件学院院长):技术本身是中性的,但其应用会带来伦理挑战。主要的风险包括:算法偏见(训练数据中的社会偏见)、知识产权争议(生成内容的版权归属)以及深度伪造(Deepfake)带来的信任危机等。防止技术滥用,确保智能向善,需要构建一个技术与制度并重的治理体系。更重要的是,每一名从业者都应心存敬畏,将社会责任融入到算法设计、数据处理和训练推理的全生命周期中,确保人工智能始终是服务于人类福祉的工具,而不是失控的黑箱。
聂华(中科可控信息产业有限公司董事长、教授级高级工程师):从深度伪造到算法歧视,从数据隐私泄露到潜在的失控风险,这些问题如果处理不好,不仅会阻碍技术自身的健康发展,更有可能冲击国家安全和社会稳定。对此,我们首先必须坚守“以人为本、智能向善”的价值理念,筑牢伦理道德防线。其次,应以“自主可控”实现“内生安全”,掌握治理的主动权。而治理能力的强弱,归根结底取决于技术底座的坚实程度。如果我们的人工智能产业构建在国外的基础软硬件之上,那么所谓的安全治理就是空谈。为此,必须推广使用国产自主可控的AI芯片、算力平台和基础软件。通过掌握底层代码、固件逻辑和系统架构,实现安全能力与算力体系的深度融合。最后,应积极参与人工智能全球治理,推动构建开放合作、共治共享的全球治理格局。
陈科良(北京邮电大学人工智能学院副院长):应对人工智能伴生的多重风险,必须将伦理考量贯穿技术研发全生命周期,加强监管治理,构建安全可控的制度保障体系。比如,在智能体互联网设计中嵌入身份认证、访问控制等安全机制,在数智人系统中建立内容审核与行为监管模块,等等。我国把制定人工智能专门法律纳入立法计划,发布《生成式人工智能服务管理暂行办法》、《人工智能安全治理框架》等,建立伦理审查制度,将“以人为本、安全可控”的原则转化为具体的技术标准与操作规范。同时,加强行业自律与公众教育,形成政府、企业、社会协同治理的格局,让人工智能技术始终服务于人的发展与社会进步。
制作:马皓若
审核:杨绍华
监制:祝念峰
《红旗文稿》投稿邮箱:
hqwgtougao@126.com
欢迎来稿!
