乐于分享
好东西不私藏

【ChinaMM 2026】软件学报专刊征稿5天倒计时,欢迎投稿!!

【ChinaMM 2026】软件学报专刊征稿5天倒计时,欢迎投稿!!

01

简  介

/ ChinaMM 2026

具身智能被视为人工智能发展的下一代核心范式,其核心要义在于使智能体能够融入物理环境,通过主动感知、逻辑推理与执行反馈的闭环的方式完成复杂任务。认知科学研究表明,人类智能的形成与发展根植于“感知-行动”的持续循环,人脑通过构建内部世界模型模拟行为后果,进而指导高阶决策与行为规划。因此,借鉴具身认知机理,构建可融合多模态信息的世界模型,实现高效、可泛化的具身推理,已成为迈向通用人工智能的关键路径与核心突破口。

世界模型是智能体理解环境动态、预测未来状态的核心认知架构。当前,大语言模型与多模态模型已展现出对数字世界的深刻理解,然而如何将此类能力迁移至受物理规律约束的真实世界,构建具备物理常识与因果推理能力的“具身大脑”,已成为人工智能领域的前沿挑战与热点。

为凝聚学术共识、推动前沿探索,2026年中国多媒体大会(ChinaMM 2026)将特别设立“软件学报:具身推理与多模态世界模型”专题,诚挚欢迎来自相关领域的原创研究与综述论文,共同促进该方向的理论突破、算法创新与应用落地。

经过第一轮评审的论文作者需要参加中国多媒体大会ChinaMM 2026会议并到会报告,特约编辑和编辑部根据复审情况和会议报告情况决定文章的最终结果,专刊将在2027年第5期出版。读者包括多媒体、计算机视觉、无人系统、人工智能、人机交互等多个领域的研究人员和工程人员。

02

征文范围

/ ChinaMM 2026

包括但不限于以下主题:

(1)多模态感知与表征

(2)语言、视觉、动作等模态的对齐与融合

(3)世界模型的表示与学习

(4)基于世界模型的推理与规划

(5)具身基础模型

(6)空间智能

(7)机器人操作与导航

(8)仿真平台、数据与评测

(9)具身相关系统与应用

03

投稿要求

/ ChinaMM 2026

1. 投稿方式:采用“软件学报在线投稿系统”(http://www.jos.org.cn)投稿。投稿时请选择投稿类型为“专刊投稿”,并在备注栏中注明“具身推理与多模态世界模型”字样。

2. 稿件格式:参照《软件学报》论文格式(网站上提供了论文模版,可下载)。

3. 投稿文章未在正式出版物上发表过,也不在其他刊物或会议的审稿过程中,不存在一稿多投现象;保证投稿文章的合法性(无抄袭、剽窃、侵权等不良行为)。

4. 其他事项请参阅投稿指南http://www.jos.org.cn/ch/reader/view_fixed_content.aspx?id=instructions

5. 投稿作者需提交投稿声明;专刊投稿文章不收审理费。录用刊发文章收取软件学报标准版面费。发表之后,将按软件学报标准支付稿酬,并赠送样刊。

6. 通过第一轮评审的论文作者,需在ChinaMM2026上做学术报告,根据论文修改情况和会议报告情况终审确定是否录用。

04

重要日期

/ ChinaMM 2026

收稿截稿时间

2026年4月27日

第一轮评审意见通知时间

2026年6月29日

提交修改稿时间

2026年7月14日

ChinaMM2026报告日期

2026年7月31日-8月1日

终审结果发出日期

2026年8月20日

出版时间

2027年第5期

05

特约编辑

/ ChinaMM 2026

孙立峰  清华大学

蒋树强  中国科学院计算技术研究所

姜育刚  复旦大学

洪日昌  合肥工业大学

俞   俊  哈尔滨工业大学(深圳)

黄庆  中国科学院大学

06

联系方式

/ ChinaMM 2026

会议网站

https://chinamm.csig.org.cn/2026

投稿事项联系方式

chinamm2026@163.com

往期推荐

1

【ChinaMM 2026】中国多媒体大会诚邀赞助单位