端到端大模型首席科学家 (Principal Scientist, End-to-End Big Model)
关于团队
• 实现物理 AI 的突破:端到端架构 + 强化学习 + 世界模型
• 具备三大物理理解能力(驾驶理解、场景理解、世界理解)
• 摩尔定律升级:从每 2 年升级一代,升级至每 1 年升级一代,提升 10 倍能力
• 已搭载 170+定点车型,累计 70 万台搭载量,拓展至 10 国出海
岗位职责
• 领导端到端大模型(VLM/VLA)方向的技术创新,推进视觉-语言-动作的深度融合
• 建立并完善大模型的评估体系、基准测试框架,确保技术方向的科学性和可测性
• 与强化学习、世界模型团队协作,打通端到端学习的完整链路,实现物理 AI 的闭环
• 指导多个细分方向研究员,推进学术成果向量产方案转化
• 跟踪业界前沿(OpenAI、DeepSeek 等),独立判断技术趋势,设定长期研究方向
• 推进产学研合作,发表高影响力论文,提升团队学术影响力
• 参与招聘、建设团队文化,打造业界顶尖的端到端智能团队
任职要求
1. 在大语言模型、视觉大模型、多模态大模型领域有深入的理论与实践经验;发表过高引用论文或
产业级大模型落地经验
2. 深刻理解端到端学习、强化学习在自动驾驶或具身智能中的应用;有过相关项目一号位或核心贡
献者经验
3. 具备扎实的机器学习理论基础,对优化算法、训练框架、硬件加速有实际认知
4. 能够独立做出技术决策,具有超强的学习能力和跨学科协调能力
5. 具备国际视野,了解全球 AI 技术进展,能够前瞻性地规划研发方向
加分项
• 在 OpenAI、Google DeepMind、Meta、特斯拉、或国内头部自动驾驶/AI 公司有过经历
• 有强化学习或世界模型的实战经验• 有量产自动驾驶系统或具身智能产品的交付经验
• 发表过顶级会议论文(ICCV/ICML/NEURIPS 等),或有专利布局
岗位二:EBM TLM 一号位-1
端到端大模型技术团队负责人 (Research Manager, End-to-End Big Model)
关于团队
• 已实现产业化:端到端 + 强化学习 + 世界模型的完整闭环
• 核心成果:170+定点车型适配,70 万台搭载,跨越 10 国出海,业界领先
• 技术方向聚焦于:大模型优化、推理加速、增量学习、泛化能力提升
• 团队规模:15-20 人的研究员&工程师团队,专注端到端架构演进与量产落地
岗位职责
• 负责端到端/VLM/世界模型的算法预研,算法突破与验证工作;
• 负责城区自动驾驶纯模型方案的量产落地,产品性能提升与交付;
• 负责端到端智驾大模型方案的研发迭代体系的建设与完善。
• 负责团队的技术方向规划与资源分配,确保研发效率和创新驱动
• 定期进行一对一面谈,推进团队成员的成长与发展;负责招聘和人才培养
• 与产品、量产团队密切协作,将研究成果快速转化为量产特性
• 跟踪行业前沿,制定长期技术演进路线,保持竞争优势
任职要求
1. 有 3 年以上的研究团队或工程团队管理经验;曾作为 TL 或 Tech Lead 带过团队
2. 在智驾大模型、计算机视觉、强化学习等领域有深厚的技术积累和实战经验
3. 具备出色的沟通协调能力,能够跨部门推进项目落地
4. 有量产经验或复杂项目交付经验优先
5. 具备 OKR 管理能力、数据驱动的决策意识,能够快速识别关键瓶颈
加分项
• 有自动驾驶、具身智能、或机器人领域的产业化经验
• 曾在国际一线 AI 公司(OpenAI、Google、Meta 等)或国内头部科技公司任职
• 具有研究→量产的完整链路经验,理解工程化 trade-off• 有开源项目维护经验或学术背景(发表过高水平论文)
岗位三:ETI 一号位
端侧推理首席工程师 (Principal Engineer, Edge-Side Inference)
关于团队
• 已在 170+车型量产,70 万台搭载,跨国出海到 10 个国家
• ETI(Edge-side Inference)团队专注于:推理优化、模型压缩、硬件加速、实时延迟保障
• 挑战与机遇:从云端模型→车端部署,一秒内完成百亿参数推理,同时保证精度与成本
• 技术栈:量化、蒸馏、剪枝、MoE、异构计算(GPU/NPU/CPU 协同)、框架优化
岗位职责
• 主导端侧推理性能优化,制定推理架构演进方案,推进从 GPU→NPU→异构计算的升级路径
• 建立模型压缩、量化、知识蒸馏等工具链,确保大模型高效部署
• 与硬件方案(高通、MTK、国产芯片等)深度协作,优化 NPU/GPU 推理
• 制定推理延迟、功耗、精度的核心指标与基准,建立完善的性能评估体系
• 负责推理框架的设计与维护,支持多硬件平台的高性能部署
• 推进量产问题诊断与优化迭代,快速响应生产环境的性能瓶颈
• 指导团队成员,推进知识共享与工程标准化
任职要求
1. 有 5 年以上的深度学习推理优化、编译器优化或系统层性能优化经验
2. 精通模型量化、蒸馏、剪枝等压缩技术,有过量产部署的完整经验
3. 熟悉 ONNX/TensorRT/OpenVINO/MNN 等推理框架,有过框架二次开发或优化经验
4. 深刻理解硬件加速(GPU/NPU)原理,有过异构计算协同的实战经验
5. 具备问题诊断能力,能够快速定位性能瓶颈,推进持续优化
加分项
• 有自动驾驶、视频处理、或实时推理系统的产业化经验
• 有端侧 AI(mobile/edge)的完整链路经验,理解延迟 vs 精度的 trade-off
• 熟悉国产 NPU 芯片(华为、高通、寒武纪等)的推理优化
在顶级会议或期刊发表过推理优化相关论文

夜雨聆风