使用微信扫一扫分享到朋友圈
当下,中国计算产业的全球化路径,是实现技术标准与商业生态的双重赋能,需要持续的技术深耕与耐心投入,企业生态共建替代了单边创新,开源协同,也让数字技术实现更大的智跃。算力普惠化推动了技术平权,算力架构的开放特性,恰如其分的加速了端、边、云全场景的协同发展。
从加快关键核心数字技术、培育数字产业、深入推进产业数字化转型、强化产业数据生态体系建设等方向深耕,对发展新质生产力,充分释放数字技术创新,至关重要。
本次峰会将以数算+智跃为主旨,进一步向人工智能、AI工程化、多模态大模型、多智能体、计算架构、企业智能研发等先进数字技术应用进行解读,助力企业聚合和探索,更多应用场景实践。
记忆增强的大模型多智能体
〇 分享简介 〇
基于大语言模型的智能体近年来引起了学术界和工业界的广泛关注,作为记录历史信息、交互信息和外部知识的载体,记忆是提升智能体能力的重要手段,也是推动大模型智能体和多智能体在产业落地应用的关键途径。
庞大的,不断增长的记忆库本身就是一个金矿。大模型智能体和多智能体被认为是推动大语言模型在产业落地的重要技术路径。由于智能体记忆的概念本身相对笼统,同时,具体记忆内容往往与应用高度相关,企业若想构建更强的多智能体,需解决传统AI和自动化方案在持续性、上下文感知、跨领域和知识传承方向的核心短板。
本次分享将系统总结大模型智能体记忆的典型来源、以及实现形式、存储管理机制的代表性路线,并分享研究团队在多会话记忆、个性化记忆、任务型记忆、多模态记忆等类型的智能体记忆,多智能体共享记忆和组合记忆,以及记忆增强的大模型多智能体应用等方向的研究成果及思考,为相关领域关注者,提供权威性的参考方向。
〇 分享收益 〇
目标:
1、系统总结智能体记忆和多智能体记忆的相关研究,帮助听众总体性把握相关研究的概念和思路。
2、研究团队在智能体记忆、多智能体记忆以及记忆增强的大模型多智能体等方面的科研实践和思考,启发听众更好地设计记忆机制、共享记忆和组合记忆,帮助企业解决在实际工作中的应用落地。
成功要点:
记忆增强的多智能体系统构筑,意味着企业构建了一个具备持续学习能力、深度协作能力、长期情境理解能力和知识沉淀能力的“群体数字大脑”。这不仅是技术升级,更是企业构建未来核心竞争力的关键基础设施。
启示:
对于企业而言,记忆增强的大模型多智能体最大的价值在于,将分散的数据、经验、知识转化为可操作、可进化、可协同的智能资产。其将驱动企业全面智能化升级,实现运营效率的指数级提升、客户体验的深度重构,以及创新能力的突破。
〇 分享亮点 〇
1、大模型记忆主要研究进展
2、大模型智能体的概念和类型
3、大模型智能体和多智能体的记忆形式
4、大模型智能体记忆研究及体会
5、大模型多智能体记忆
6、记忆增强的大模型多智能体应用
多模态基础模型的进展与展望
〇 分享简介 〇
多模态基础模型能够通过文字、声音和视觉了解用户的意图、情绪和状态,并基于强大的多模态推理、规划和生成能力,为用户提供生动准确的解决方案或内容推荐。同时,多模态基础模型能够从海量视频和虚拟物理引擎中学习现实世界的物理特性和规律,并根据文字指令或操作预测当前视觉状态下未来的情况,生成符合物理规律的可视化视频输出。当前的多模态基础模型将颠覆搜索、教育、娱乐、推荐等重要应用场景,并推动附身、具身智能的发展。
最新多模态闭源模型(GPT-4o和Gemini-2.5-Pro)已初步具备图文理解、推理、生成和编辑能力,但尚未在多模表征、模型架构和学习范式上达成统一,多模态理解和生成尚未实现真正意义的互促和融合。主流通用视频生成模型基于扩散模型,可一次性生成时长为5-10秒视频,但推理效率低,物理规律遵循能力差,且不具备通用视觉理解和推理能力。
本次分享系统回顾多模态基础模型的发展,包括视觉表征模型、多模态理解模型、多模态生成模型和多模态理解生成一体化模型。将为行业突出每种模型的特点及其面临的挑战,以及探讨多模态基础模型的未来发展方向,特别是聚焦两个关键领域:视频世界模型和多模态理解生成一体化模型。帮助与会者在此方向建立、选择更正确的路线。
〇 分享收益 〇
目标:
1、了解多模态领域的发展脉络和最新动态
2、对视频生成模型和多模态理解生成模型的优缺点有系统分析
3、对未来多模态基础模型的应用场景有一定的展望。
4、了解多模态基础模型的最新进展、挑战和未来发展的方向
成功要点:
多模表征统一+模型架构统一+2D-3D统一,决定了促进AGI和具身智能的发展。
启示:
模型的跨模态理解和生成能力已实现了质的飞跃,未来,多模态模型行业将继续朝着性能提升、应用拓展和普惠智能的方向发展,为各行业的智能化升级和人类社会的进步做出重要贡献。
〇 分享亮点 〇
1、多模态基础模型的进展
1)大语言模型为多模态的发展奠定基础
2)视觉表征监督从视觉信号到自然语言
3)多模态理解模型使得AI能够看图说话
4)多模态生成从自回归模型到扩散模型
5)多模态模型向理解生成统一方向前进
2、多模态基础模型的展望
1)趋势:从视觉生成模型到视频世界模型演变
2)趋势:从多模态理解向多模态理解生成一体化演变
智能时代创新效能:AI Agent 智算生产Infra实践
〇 分享简介 〇
在当前 Agent 技术快速发展的背景下,行业面临着不容忽视的痛点。一方面是通用Agent与实际落地的脱节,很多 Agent 在实验室环境中表现出色,却在复杂的真实业务场景中难以发挥价值。另一方面是,生产级 Agent 的要求远不止于跑分数据,稳定性、可扩展性、业务贴合度等实际指标的达成,成为制约 Agent 技术大规模落地的核心瓶颈。
Agent 技术已从早期的单一任务执行向通用智能演进,学术界和产业界在多智能体协作、意图理解等领域取得了不少进展。但整体而言,缺乏成熟的体系化构建方法,分层架构设计不清晰、子智能体复用率低、长期记忆与自我迭代机制不完善等问题普遍存在。
本次分享正是聚焦生产级通用 Agent 的构建实践,深入探讨自底向上的智能中枢架构设计,解析分层多智能体的最佳实践,分享意图识别、任务拆解与子智能体编排的核心逻辑。同时,详解长期记忆与自我迭代机制的实现,以及垂类搜索优化的关键路径。此外,还将分享 Agent DevOps 体系的搭建与落地案例,为行业提供一套从技术架构到工程实践的完整参考。
〇 分享收益 〇
目标:
1、了解架构设计思路和工程实践经验,规避常见的技术陷阱,少走构建过程中的弯路,加速自身 Agent 项目的落地进程。
2、帮助互联网、金融、制造业务,以及运维相关领域,涉及 Agent 技术落地的团队,看见一套从技术架构到工程的完整思考。
成功要点:
通过分层设计提升子智能体的复用率,构建高效的意图识别与任务拆解模型,让 Agent 具备长期记忆与自我迭代的 “成长能力”,以及针对垂类场景的搜索与爬虫优化策略。以此剖析关键技术突破解析,帮助行业解决 Agent 构建中的核心技术难题。
启示:
从落地案例来看,SRE Agent 中的集群巡检 Agent 能实现 7x24 小时不间断的自动化巡检,将故障发现时间从小时级缩短至分钟级;线上问题 RCA Agent 通过精准的根因分析,将问题定位效率提升 50% 以上。甚至,它还能自动解决一些问题。这些实际收益印证了技术方案的有效性,也让企业清晰感知到,通过科学的 Agent 构建方法,可显著提升企业业务效率、降低人工成本、增强系统稳定性。
〇 分享亮点 〇
1、分析核心问题
1)Agent构建的主要矛盾
2)Agentic vs Workflow
3)通用能力 vs 实际落地
4)生产级别Agent远不止跑分
2、智能中枢:自底向上的通用Agent构建
1)分层多智能体架构
2)构建可复用的Sub-Agent
3)分层设计最佳实践
3)意图识别、任务拆解与子智能体编排
5)长期记忆与Agent自我迭代
6)搜索&爬虫 – 垂类优化
3、分析Agent DevOps体系
1)指标设计
2)实验平台
4、经典落地案例 :SRE Agent
1)集群巡检Agent
2)线上问题RCA Agent
超级小爱的产品演进及关键技术
〇 分享简介 〇
AI产品的成功源于对新技术能力的掌握,大模型技术为小爱同学带来了全面的升级。在小米Yu7上,首次在端侧内置了一个多模态大模型,采用 “通用基座 + Lora” 架构,可支持小爱车控、哨兵摘要等多个 AI 应用的本地运行。YU7在语音车控方面能实现各种复杂的表达方式,这得益于Agent架构的升级。同时,Yu7具备的多模态看世界能力,和基于声纹安全的车外语音功能。
在智能眼镜上,我们采用了超低功耗的双核架构,支持全天续航。在蓝牙低带宽传输的条件下,优化图片问答的良好体验,同时基于端到端大模型技术,打造了同声传译的功能,受到用户好评。
在澎湃OS3上,我们打造了圈屏,可以理解30+图片类意图,进行快捷的问答、执行操作或者记忆能力。基于视觉多模态模型,打造了全新的UI Agent,可以让AI基于用户指令操控手机,完成一系列的复杂操作。
本次分享将最近发布的小米Yu7、AI智能眼镜和澎湃OS3上的最新产品演进,以及背后的关键技术向业界输出。进一步揭示了Agent架构的升级,先进的产品技术创新。为与会者带来全新的产品引领与借鉴。
〇 分享收益 〇
目标:
1、了解超级小爱背后的关键技术
2、了解超级小爱的产品创新演进,以及新智能体架构的升级,在主要产品应用创新上的能力
3、了解小米在行业上应用多模态能力展现的移动智能体的能力
成功要点:
小爱同学的出彩,在于它完美地诠释了小米“硬件+软件+互联网服务”的铁人三项模式,将一项AI技术成功地转化为千万用户日常生活中的一部分,成为了中国智能家居领域一个现象级的成功案例。
启示:
整个AIoT生态体系的竞争。本质上是在选择小米的智能家居生态。其他厂商即使做出一个技术上更优秀的语音助手,也难以在短时间内复制小米庞大的设备互联体验和用户习惯。源于大模型应用的技术创新,生态的协同效应构成了其最深的护城河。
〇 分享亮点 〇
1、端侧的多模态大模型
2、智能眼镜:超低功耗的大小核架构
3、UI 智能体操控手机
4、小米的记忆
5、未来规划
华为数字化平台智能化应用实践
〇 分享简介 〇
随着LLM 、Agentic AI技术的不断发展,以AI Agent驱动的自主端到端流程自动化与适应性体验将给企业应用形态带来颠覆性的变化,企业智能化转型成为必然趋势。Gartner预测,到2028年,33%的企业软件应用程序将包含Agentic AI,使15%的日常工作决策能够自主做出,而2024年这一比例不到1%。
然而,企业在拥抱AI走向全面智能化战略的今天,如何采用AI平台化思维,突破各种制约与瓶颈问题以实现应用的快速智能化,成为企业智能化的首要解决的问题,比如:“LLM/算力的结构化、标准化、及最大化共享能力”,“面向复杂差异化业务场景下的AI的价值落地,与批量复制”,以及,“面向AI技术标准及大模型的快速变化,如何屏蔽技术差异,增加适应性以规避在演进过程中的重构成本“。
本次分享以华为集团IT智能化转型实践为背景,深度剖析转型中遇到的算力共享调度、AI平台化、装备智能化等的挑战问题,从AI集成与开放视角,来剖析企业数字化向智能化转型的思考,以及在AI网关、MCP网关、IoA/A2A等为代表的AI新型集成基础设施的建设实践,以支撑AI智能应用在企业的快速落地。与IT从业者共同探讨企业向智能化之路的最佳实践与技术路径。
〇 分享收益 〇
目标:
1、了解ROMA在华为数字化智能化转型的AI平台化思考与实践。
2、了解华为在企业场景下智能化演进的平台建设实践。
成功要点:
AI辅助企业内部业务变革,目前在各个领域通过小切口场景探索,但是缺乏统一的架构蓝图指导与方法论,应用+AI能力是趋势也是挑战。面对复杂、差异化的业务场景与集成资产,AI安全合规、风险可控的创造价值,是企业面临的重要课题。
启示:
AI智能化转型是演进而不是颠覆,通过打造组合式AI集成与开放层,支持企业对“人-智能体-应用-装备”的全量全要素联接,兼容标准与企业个性化适配,让业务应用可以高效地联接协同好,算力、大模型、企业资产及知识,以快速实现场景化智能应用落地。
〇 分享亮点 〇
1、企业智能化趋势、问题、及挑战
2、华为IT数字化到智能化的特点及思考
3、平台支持智能化(多元化算力管理、AI新基建、AI网关、语义化MCP、AI Data Pipeline、装备智能化 etc)
4、实践及总结建议
5、QA
构筑AI时代组织韧性:新型组织生态与数字员工治理
〇 分享简介 〇
在人工智能快速发展的浪潮中,企业纷纷引入“数字员工”作为新型生产力要素,但这也带来了数据融合、安全治理、角色边界模糊等新挑战。数字员工的兴起,揭示了企业在智能化转型中的系统性痛点,尤其在任务精准性、系统可控性及信任建立等方面暴露出深层结构性矛盾。
本次分享聚焦于当前数字员工治理的趋势与瓶颈,系统梳理了从数据融合难题到信任风险博弈,再到技术架构冲突与权责归属真空等现实问题,并提出“五项落地原则”作为治理框架,兼顾技术、制度与管理路径。
本次分享企业在迈入AI时代之际,必须构建以“人机协同”为核心的组织韧性,通过系统性设计和阶段性融合策略,推进人机共生新生态的建设,从而在未来全球竞争中形成可持续的战略优势。
〇 分享收益 〇
目标:
1、当下企业在引入AI、构建“数字员工”体系时,提供可借鉴的治理框架和实施路径。面对AI智能体逐步参与核心业务的趋势。
2、帮助企业从技术部署、制度适配到管理协同多个维度,系统性地思考和规划数字员工的落地路径,从而增强组织韧性和全球竞争力。
成功要点:
1、角色映射责任体系,推动技术能力与组织治理深度融合,均为企业实现可信AI落地和智能化转型提供可持续、可复制、可扩展的路径。
2、全面实现AI认知跃迁,必须夯实数据治理基础,依赖高质量数据与多模态融合。在人机协作路径上,应采取“AI辅助人”到“AI主导、人监督”,将AI完全融入现在的企业组织架构的渐进式融合。
3、构建可扩展、可复制的可信AI落地路径,是保障复杂场景稳定运行,支撑高信任、高韧性智能化组织建设的关键。
启示:
在组织智能化转型过程中,不能只靠技术升级,更要重构认知和治理体系,唯有实现人、技术与制度的协同进化,重构认知体系与治理结构,才能真正构建可信、可控的数字员工体系,推动AI从“降本工具”跃升为组织能力的核心驱动。
〇 分享亮点 〇
1、数字员工的定义与发展趋势
1)数字员工是结合AI、大数据、RPA等技术构建的虚拟劳动力,正从“高效执行者”向“类人智能体”演进。
2)当前正处于1.0~2.0“辅助工具”阶段,向3.0“自主协同”迈进。
行业案例:银行、政务、制造等领域已开始部署RPA与AI结合的数字员工,用于处理报表生成、工单审核、舆情分析等任务。
2、数字员工治理的系统性挑战
1)融合困境:非结构化与结构化数据难整合,阻碍AI认知跃迁。
2)安全悖论:AI越智能,接口越开放,安全风险呈指数级上升。
3)角色模糊:任务执行者与管理者边界不清,责任追溯难。
4)案例引用:某大型国有银行在尝试部署AI客服过程中遇到客户数据跨系统调取时的权限割裂问题,导致智能客服出现“数据盲区”。
3、五项数字员工落地原则
1)涌现型 vs 精准型智能体双模型协同:在技术探索与商业闭环间动态平衡。
2)渐进式融合策略:从“AI辅助人”到“AI自主执行”阶段化演进。
3)精细化任务管控机制:通过组件化设计与限定任务边界提升可控性。
4)技术+制度+体系协同防护:构建可演化的安全生态。
5)基于角色的责任映射体系:实现AI与组织架构之间的责任联动。
4、方法论与哲理层面的反思
1)AI治理不是纯技术问题,而是组织变革问题。
2)信任是AI规模化部署的核心要素:幻觉污染频率 × 错误严重度 = 信任折损系数。
3)人机协同不是替代,而是能力增强与结构重构。
5、战略与全球视角
1)强调构建“人机共生”的新型组织生态,将治理经验沉淀为国际竞争力。
2)呼吁国家层面出台数字员工治理标准,产业层面加强AI伦理与合规,推动跨界合作,形成全栈治理力量。
企业级智能体与垂直行业知识库的融合应用
〇 分享简介 〇
在当下,企业级 AI 应用从 “模型为王” 迈向 “知识驱动”,却遭遇知识更新滞后、推理逻辑缺失、安全合规风险等瓶颈。同时,构建知识库面临成本高、效率低等难题。经过深入研究企业级智能体与垂直行业知识库的融合,通过企业知识与智能体协同,赋予企业 “数据+知识+智能体” 全业务场景知识处理能力,将驱动企业业务创新,以及企业数字化转型进程。
尤其在垂类行业中,拥有丰富、准确、独特的知识库并与智能体深度融合应用的企业,能够在服务质量、产品创新、运营效率等方面形成差异化竞争优势,脱颖而出。诸多行业能利用智能体和知识库提供更精准的方案、优化业务流程与效率、提升业务决策质量、快速获取和分析相关信息,及时调整战略和业务布局,来应对市场变化,易于企业提升竞争力和创新力。
本次分享将基于达观数据的实践,助力企业聚焦上层Agent创新,帮助行业剖析以标准化、自动化的底层能力,释放知识资产价值,实现高效数字化转型创新举措 。
〇 分享收益 〇
目标:
1、了解知识驱动型 AI 落地的标准化路径,为不同规模企业提供适配的智能升级参考模式。
2、掌握整合多源数据、构建动态知识库的方法,学会利用 AI Agent 提升客服效率、优化数据分析与流程自动化等能力应用,进而降低管理成本、驱动业务创新,加速企业数字化转型进程。
成功要点:
借助大模型实现知识的自动提取与更新,结合知识图谱构建关联,是突破数据孤岛、提升知识时效性的关键;依据行业场景特点规划 AI Agent 建设步骤,能确保其有效适配业务平稳落地。
启示:
1、知识共享与融合:融合应用打破了企业内部不同部门、不同业务系统之间的知识壁垒,促进了知识的共享和交流。不同领域的专业知识在 Agent 的整合下会激发创新思维,为企业带来新的业务思路和创新模式。
2、加速研发与创新进程:在产品研发中, Agent 可以快速检索和分析知识库中的技术资料、研发成果等,帮助研发团队获取前沿技术和行业最佳实践,加速新产品的研发和创新。同时,基于市场需求和客户反馈的实时分析,及时调整研发方向,使研发方向更贴合市场需求。
〇 分享亮点 〇
1、大模型与知识管理的发展性
1)大模型:基于海量数据训练的深度学习模型,具备语言理解、生成和逻辑推理能力
2)知识管理:将无序信息转化为结构化知识资产,支撑决策与创新
2、知识管理的挑战与应对破局
1)企业知识管理的核心难点
A:数据孤岛:多源数据分散,难以整合
B:时效性差:知识更新速度跟不上需求变化
2)企业在知识管理解决方案
A:大模型赋能:自动提取、分类和更新知识
B:构建知识图谱:实现知识关联与深度检索
3、AI agent的发展性与行业适应性
1)Agent智能体现阶段产品形态
2)Agent智能体发展阶段
3)Agent智能体在行业各类场景的应用现状
4)企业AI Agent落地建设建议
4、AI agent与垂直行业知识库应用融合
1)智能客服:快速响应用户咨询,提升服务效率
2)数据分析:自动处理数据并生成分析报告
3)流程自动化:跨系统数据处理与任务执行
5、知识管理平台与AI agent行业实践落地价值
主流Agentic AI技术架构:基于智能体的金融RaaS服务新范式
〇 分享简介 〇
从 2022 年开始,生成式人工智能(GenAI)作为智力工具参与生产流程,主要通过提示词工程和RAG集成到业务场景。2024年,以Coze、Dify为代表的智能体众创平台不再局限于聊天,而是能够使用工具、依靠记忆和人设执行特定任务,AI Agent技术快速演进。直至今年,以Manus为代表的Agentic AI展现出自主规划和多智能体协作能力,LangGraph、AutoGen、MCP等技术让智能体应用范式快速转换。Agentic AI(规划型智能体)技术已具备自主规划与多智能体协作能力,AI正从“聊天工具”逐步演变为“数字劳动力”。
金融行业正面临智能化转型的关键时期,传统流程企业效率低下,而智能体赋能的企业将大幅领先。我们发现,通过Agentic AI重塑场景流程,让AI自主交付结果,是实现金融服务质效提升的有效途径。平安AI数字劳动力服务量已达18.4亿次,覆盖80%的客服总量,AI解决率从38%提升到92%,机器人NPS从49%提升到78%。
本次分享将深入探讨金融壹账通构建的“基于智能体的金融RaaS服务新范式”。同时,将揭示如何智能化重塑的经验低成本、高回报地交付给客户,实现从“过程”到“结果”的服务模式转变。通过实际案例,展示智能体在财富管理、营销和催收等金融场景中的应用,以及通过企业级知识工程和端到端知识运营,实现知识的全生命周期管理与保鲜,为与会者带来金融行业智能化转型的最佳实践与前瞻性思考。
〇 分享收益 〇
目标:
1、掌握AI Agent到Agentic AI的演进路径,理解其在金融行业重塑业务流程的核心价值。
2、了解金融RaaS服务模式如何通过智能体技术,实现低成本、高回报的业务成果交付。
3、 洞悉智能体在财富管理、营销、催收等金融场景的落地实践,以及企业级知识工程的构建与运营策略。
成功要点:
1、智能体架构与协作:通过任务分解、多智能体协作与工具调用,实现全流程业务质效优化。
2、企业级知识工程:构建分层知识库体系,实现知识的生成、存储、应用与保鲜,支撑智能体高效运行。
3、RaaS服务模式创新:将智能化重塑经验转化为结果交付,有效降低客户试错成本与技术迭代风险。
启示:
当前,企业的智能化转型新范式,需全面拥抱AI原生思维,用Agentic AI重塑场景流程,让AI自主交付业务结果。
〇 分享亮点 〇
1、AI技术架构与发展趋势:从GenAI到Agentic AI
1)AI发展历程:Gen-AI -> AI Agent -> Agentic AI -> AGI
2)Agentic AI核心能力:自主规划与多智能体协作
3)主流AI技术架构解析:LangGraph、AutoGen、MCP等技术范式
2、金融RaaS服务新范式:让AI自主交付结果
1)RaaS模式解读:Result as a Service,以结果为导向的服务交付
2)Agentic AI重塑场景流程:构建数字劳动力,提升金融服务质效
3)金融RaaS服务案例:财富顾问、营销、催收等场景的智能体应用
3、企业级知识工程与运营:支撑智能体高效运行
1)企业级知识工程全景:从知识生成到知识应用的一站式解决方案
2)知识分层管理:公共、属主、个人三层知识库体系与权限管控
3)端到端知识运营:5步人机协作实现知识全生命周期管理与保鲜
4、AI原生思维与未来展望:引领金融智能化转型
1)AI原生思维:以AI为核心重构业务与技术体系
2)多智能体提升场景效率:金融行业智能化转型的最佳实践
3)未来趋势:短期、中期、长期视角下AI在金融领域的应用方向
5、QA
混元3D的研发布局与应用:从物体建模到3D世界生成
〇 分享简介 〇
当前3D技术的研发呈现“巨头引领+垂直深耕+AI赋能”的立体化布局,其应用正从高端制造向民生领域全面渗透。随着算力提升与算法优化,未来3D将成为连接物理世界与数字空间的核心载体,驱动各行业的效率革命与体验升级。
我们身处于三维世界,通过实实在在的三维物体感知物理世界。伴随着生成式大模型技术发展,3D AIGC也快速成为了新的研究焦点,被业界认为是继文本、图片、视频模态之后有望实现重大突破的领域。同时,随着具身智能、世界模型的兴起,3D生成也获得更多关注和讨论。世界模型正从理论探索走向实际应用,其发展趋势呈现出多种模态融合的特征。然而,世界模型仍有多项难点需突破,包括空间稳定性、物理规律建模、长时序稳定性等核心难点。
本次分享结合混元3D的布局、世界模型的研发现状与展望,分享腾讯混元在3D物体生成大模型、3D世界模型生成等方面的探索与前沿应用。为AIGC各行业从业者、各行业的数字化转型注入强大动力,开启一个全新的可视化智能时代。
〇 分享收益 〇
目标:
1、了解三维生成大模型的常用方法
2、了解混元3D的布局、世界模型的研发现状与展望,为AIGC从业者、游戏行业、具身智能等行业带来信息启发。
成功要点:
1、结合行业对3D生成的需求痛点,重视3D大模型的数据基建,采用体系化打法,整体可持续提升3D生成大模型、3D世界模型的最优效果。
2、借助这些先进的模型实现前所未有的创作自由度和生产效率提升。将带动整个产业链上下游的协同发展,催生更多基于3D生成技术的创新应用模式。
启示:
通过3D AIGC技术研发与迭代,降低了3D资产创作的门槛、推动了3D的普及,对游戏、XR、工业设计等各领域起到了显著提效。
〇 分享亮点 〇
1、3D生成的背景与研发布局
2、混元3D资产生成
3、混元3D世界模型
4、领先行业应用
Qoder Coding Agent的技术优化路径
〇 分享简介 〇
随着软件开发复杂度指数级增长,传统编程模式面临效率瓶颈与协作挑战。AI智能体通过自然语言理解、代码语义分析与上下文推理能力,开创了人机对话式协同编程新范式,开发者可直接通过语音或文字与AI进行实时交互,实现需求澄清、代码生成、逻辑优化等全流程协作。彻底改变了“人机单向指令”的传统模式,让编程成为开发者与AI智能体共同进化的创造过程,推动软件研发效率与创新水平迈向新高度。
Coding Agent是大模型智能体的一个垂直分支,其构建和优化过程对开发其他领域智能体有较好的指导意义。并且可以将相关优化技巧与更多DevOps环节的智能体相结合,达到更好的结果。
本次分享将深度解析阿里巴巴最新 Qoder Coding Agent 在过去几个月的技术优化细节,展现世界级领先的Agent 技术。为各行业IT同仁,带来领先性的行业借鉴。
〇 分享收益 〇
目标:
1、了解最新大模型Coding Agent技术发展趋势
2、学习Coding Agent的上下文、框架、执行策略优化技巧
3、学习如何在企业中落地智能体 AI 编程范式
4、了解Coding Agent未来技术发展的方向
成功要点:
Coding Agent可以作为现代企业,利用AI进行数字化转型和流程重塑的一个绝佳的“微观模型”和行动指南。阿里云通过精细化上下文管理、代码检索、记忆感知、架构感知等能力,让Coding Agent达到了世界先进水平。并且面向未来通过多智能体架构,实现更好的代码生成效果。
启示:
Coding Agent的技术路径向企业清晰地展示了一条数字化转型的可行之道。
始于标准化(流程再造),兴于数据化(反馈飞轮),成于智能化(人机协同),最终迈向生态化(多智能体协作)。
〇 分享亮点 〇
1、AI Coding智能体技术发展趋势
1)从人机协同执行到AI自主执行
2)Agentic智能体的技术发展
2、Qoder 智能体技术优化细节
1)智能体框架
2)上下文组织、压缩
3)代码检索
4)Repowiki
5)缓存优化
6)效果评测
3、目前存在的挑战和应对
1)长任务代码生成准确率挑战
2)多智能体形态存在的挑战
3)大模型调度和成本的挑战
4、未来能力规划和演进
1)人机协同编程模式的演进
2)异步委派模式的演进
3)AI Coding产品形态的演进
领先的数字化企业基本通过数字世界的快速感知、准确预测、模拟仿真等特点,大幅度的提升了客户体验、创新、成本能力。企业掌握的数据量、AI应用程度有着决定性因素。开展数字化转型,是一场触及企业文化、业务模式、责任和权利体系的深刻变革。除了引入数字技术,更应让自身的业务场景与数字技术真正的融合。
数字化转型是内生的变革,变革领导力、改变组织、投入资源、业务重构(流程、业务模式、运营)、制定数字化转型战略与整体业务战略互锁、以及正确面对障碍、消除阻力,都是企业数字化转型需敏锐感知和行动的。同时,强大的数字平台和技术能力,让企业更快速的实施和部署数字化转型。围绕AI、云计算、大数据、5G等先进的数字技术,将支撑和助推企业,构建场景化的数字化IT基础设施,均为企业打造一流工程平台创造基础。
本专场将邀请典型企业的创新实践,通过数字化技术的创新和面向AI转型的实践总结,为行业发展带来强大的数字动力,涵盖:AI工具链、数据十倍速变革、AI产研全流程、AI业务架构、全链路AI数智化、大模型业务智能引擎、Agentic RAG的Agent 构建平台架构方向议题,给业界同行带来启发与借鉴,让商业更智能,夯实企业数字化转型基础。
出品人:陆昕 华为数字基础平台部部长
AI重塑软件工艺、企业工具链平台建设实践
〇 分享简介 〇
软件工程正快速从敏捷研发2.0时代往智能研发3.0时代演进,AI技术正在重塑软件工程的范式,随着企业数字化转型的不断深入,如何基于企业现有的研发工艺基础上,通过AI技术来提升软件研发效能,降低成本提升效率,从而更好的满足业务数字化转型的要求,是目前各个企业面临的重要课题。
然后各个企业在智能研发上目前还是在初级阶段,也就是通过AI助手和智能体来提升某个环节的效能,整体看与现有软件工程效能并没有多大提升,其主要原因是企业现有的研发工艺就存在不足,以及AI技术无法与现有工艺和资产深度融合,实现企业级AI研发的能力。
本次分享基于企业级软件研发工艺和工具平台构建,通过AI助手和智能体与软件研发工艺和工具深度融合,从而大幅提升软件研发的各项指标,展现在金融行业的领域实践,来证明该路径和方案的正确性,从而为未来软件开发以“AI为主、人为辅”进行了深度研究和实践。
〇 分享收益 〇
目标:
1、 帮助企业构建和完善现有的软件研发工艺和工具平台
2、 基于企业现有的软件研发工艺和工具,利用AI技术进行深度融合,大幅提升各项指标,如:代码采纳率等,从而大幅提升研发效能的目标。
成功要点:
企业将AI技术与企业软件开发工艺和工具无缝融合,把企业软件研发过程的资产形成多层级的知识库,以及研发工艺流程的拆分和智能体自动协同,最终实现整个软件工程的智能化,从而大幅提升研发效能。
启示:
在数智化转型的大背景下,构建企业级的研发工艺和工具链平台越来越重要,只有基于这个基础,继而通过AI助手和智能体与现有工艺和工具深度融合,才能真正实现“以AI为主、人为辅”,的智能软件工程3.0,才能真正打造企业软件研发的新范式。
〇 分享亮点 〇
1、企业级研发的现有流程和工艺存在的问题
2、如何通过AI提升现有软件研发的工艺和效能
3、如何通过AI来重塑现有企业级软件研发的工艺
4、QA
从专家驱动到数据驱动,地图导航十倍速变革实践
〇 分享简介 〇
全行业正站在一个技术范式革命的门槛上。大数据与AI大模型正从工具演变为驱动业务重构的核心引擎。面对这一颠覆性浪潮,一个核心命题摆在眼前:现有业务通过深度技术融合,实现根本性的结构性变革,可解锁十倍速增长。同时,在这场深刻的变革洪流中,组织与个人若洞察先机、主动进化,可真正站在浪潮之巅引领未来。
本次分享深入探讨从实践到范式的导航业务模式结构性跃迁,以导航业务模式变革的成功实践为基石,揭示AI与数据驱动下实现业务价值重塑与效率倍增的真实路径;深入解析数据驱动变革的核心逻辑与实施框架,超越零散工具应用,聚焦其作为战略引擎的组织级力量。同时,以数据驱动的全链路闭环方法论,解构增长引擎;面对AI时代的组织变革与人才进化,探讨软件组织转型、业务结构、组织架构、智能方案研发范式,帮助行业重塑组织基因。
〇 分享收益 〇
目标:
1、了解清晰的变革路线图: 理解如何利用数据与AI实现业务的结构性跃迁与爆发式增长。
2、 获得可落地的普适系统工具,掌握支撑十倍速增长的数据驱动全链路方法论与实践路径。
3、了解实战验证路径,经工业级场景验证的算法设计范式与工程架构方案。
4、理解AI时代软件研发的范式革命,看见组织转型与个体能力跃升的清晰蓝图。
成功要点:
1、业务转型上,需掌握业态四象限分析法精准定位突破口,并构建从数据洞察(质量评价闭环)到智能决策(时空算法中枢)再到持续迭代(云原生工程架构)的闭环驱动系统;
2、技术落地上,要形成数据指标驱动的深度洞察能力、基于时空建模实现高效决策的极简算法系统设计能力,以及依托标准化架构支撑快速试错的
3、云端协同工程能力;人才进化上必须突破传统编码思维、清晰认知AI能力边界,针对性提升数据洞察、AI工程化、伦理设计等关键竞争力,并通过阶梯式策略实现从工具应用到价值创造的技能跃迁。
启示:
1、遵循“业务重构铁律”,认识到十倍速增长源于核心价值链的重构而非单纯技术叠加,所有AI投入必须精准解决核心痛点。
2、理解“数据价值公式”,其真实价值由数据闭环的质量、决策响应的速度以及迭代优化的频次共同决定,缺乏工程化支撑的数据驱动难以奏效。
3、践行“开发者生存法则”,未来的核心竞争力是业务理解、工程能力与模型技术的深度咬合与相乘效应,形成彼此赋能、持续放大的能力飞轮。
〇 分享亮点 〇
一、业务模式跃迁:从专家经验驱动到全域数据驱动
1、业态变革导航图:基于核心维度的战略四象限分析
1)以导航业务为引,解构行业生态位与转型路径
2、系统变革路径:构建数据驱动型业务的范式演进图谱
1)从战略定位到执行落地的系统性思考框架
二、数据驱动变革:全链路闭环方法论与实践攻坚
1、体系化洞察:构建数据指标驱动的质量评价闭环
1)通过多源数据融合与动态评估,精准定位业务瓶颈与机会
2、智能化决策:打造时空数据赋能的极简算法中枢
1)基于时空维度建模,实现复杂场景下的高效自动决策
3、敏捷化进化:云端协同的智能迭代工程架构
1)依托云原生技术栈,支撑数据-算法-产品的快速闭环演进
三、AI时代突围:软件研发范式重构与工程师进化
1、技术边界的再定义:软件研发视角下的AI能力象限
1)解构AI在需求处理、系统设计、代码生成中的能与不能
2、开发者进化路线图:从编码者到智能解决方案架构师
1)直面挑战: 传统技能失效危机与人机协作新命题
2)竞争力图谱: AI时代顶尖工程师的六大核心能力维度
3)成长路径: 从工具应用到价值创造的阶梯式提升策略
3、QA
从团队提效到知识沉淀:AI 赋能产研全流程实践
〇 分享简介 〇
AI 大模型技术正在深刻重塑全球产研模式,已有超过 70% 的企业开始在研发流程中引入 AI 工具,预计到 2025 年可帮助企业提升 40% 的研发成本。面对复杂业务场景、加速迭代需求和人才成本上升的三重挑战,构建 AI 赋能的产研全流程已成为企业 AI 化转型的关键。
B 端团队可通过系统性引入AI工具与方法,建立了从需求到交付的全链路智能协作模式,从"知识管理、工具应用、协作模式、效能评估"四个维度构建AI协同开发体系。实践证明,舰桥平台案例实现了38.6%的整体效能提升,B端团队每周节省7-13.5人天,显著提高了交付速度和质量。
本次分享将系统透视知乎社区生态 B 端团队的 AI 赋能产研全链路实践,重点聚焦三大核心内容:知识驱动型AI协同开发框架、双轨并行实践体系(在项目中实践与在 B 端团队内广泛实践)、AI协同产研效能评估方法。通过完整的逻辑和清晰的案例,为各类技术团队提供 AI 协同开发的路径参考和经验借鉴,帮助企业在AI时代建立产研效能的新型竞争力。
〇 分享收益 〇
目标:
1、洞悉顶层设计AI赋能产研端到端流程
2、构建统一的知识管理体系
3、建立AI应用场景评估机制
4、打造数据驱动的效能评估体系
5、平衡效率提升与质量控制的关系
成功要点:
1、提高产研效率40-60%,优化协作决策质量,建立跨角色协同机制,提升代码质量与稳定性。
2、借助AI强大的数据处理和分析能力,AI进化的实践案例,辅助研发人员做出更科学、更准确的决策,降低研发风险、优化流程、提高研发成功率。
启示:
通过构建智能知识库体系与AI协同工作流,企业可以在降低业务风险和错误率的同时,显著减少跨团队沟通成本,最终实现从单点工具应用向全链路智能化协作的系统性组织升级。
〇 分享亮点 〇
1、AI赋能产研全流程背景与挑战
1)产研面临的效率瓶颈
2)AI带来的机遇
2、AI赋能产研建设思路
1)全链路协同赋能策略
3、知识驱动型AI实践案例
1)项目案例:舰桥平台-单次人力投入降低38.6%,代码一次通过率92%
2)项目案例:B端团队完整实现提效7-13.5pd/周,展示知识库复利效应
4、解析成功关键要素
1)涵盖:知识管理、场景适配、团队培养和效能评估
5、AI协同开发新范式展望
6、QA
全链路企业AI数智化落地实践
〇 分享简介 〇
在数字经济浪潮席卷全球的当下,AI 驱动的数智化转型已成为企业谋求竞争优势的必经之路。然而,众多企业在这场变革中陷入 “AI 应用困境”:虽积极布局大模型、智能算法等前沿技术,却难以突破从概念落地到价值创造的关键瓶颈。多数企业仍停留在 AI 工具浅层应用阶段,诸如智能客服等场景仅实现简单交互,无法深度渗透至研发创新、生产优化、业务增长等核心环节,距离释放 AI 真正的商业潜力仍有较大差距。
深入剖析现状,推广落地难题尤为突出。技术团队与业务部门间存在认知鸿沟,导致 AI 解决方案难以契合实际需求;技术边界模糊不清,数据安全、模型伦理等问题亟待规范;看似亮眼的概念验证(POC)难以规模化复制,从 Demo 到量产的跨越充满挑战;更缺乏有效反馈机制,无法实现技术与业务的闭环迭代优化。
本次分享将以朗新科技集团的转型实践为蓝本,系统解析企业如何破解 AI 落地困局。从战略规划、技术架构搭建,到业务场景深度融合,全方位呈现 AI 赋能新质生产力的方法论,为企业实现技术创新与商业价值双赢提供可借鉴的路径。
〇 分享收益 〇
目标:
在企业迈向 AI 全面转型的征程中,组织架构、文化重塑与技术优化是不可或缺的三大支柱。转型目标在于构建一套完整且协同的发展体系,从组织架构的适应性调整,到创新文化的培育,再到技术架构的持续迭代,每一个环节都需精准把握关键路径。
成功要点:
成功推进 AI 转型的要点,需多管齐下。组建专业技术团队为根基,推动组织架构向敏捷化、智能化转型,加速业务流程的 AI 深度融合,实现研发效率的跨越式提升。同时,建立可追溯、可进化的落地闭环,确保 AI 应用持续优化。
启示:
这一转型带来的启示意义深远,通过打造专业的 AI 人才梯队,完善技术体系,培育创新文化与制度,将 AI 深度融入研发提效与核心业务全流程,形成良性循环,不仅能提升 AI 落地实效,更能助力企业构筑差异化的核心竞争力。
〇 分享亮点 〇
1、企业全链路 AI 化:指将 AI 技术贯穿企业战略、业务、管理等全流程,以数据和算法驱动全链条智能化升级,重塑核心竞争力。
2、2C 产品 AI 化(新电途、周边生活助手):通过 AI 分析用户行为,实现充电服务智能推荐、周边生活信息个性化推送,提升用户体验。
3、2B 产品 AI 化(e 电千问):依托知识图谱与 NLP 技术,构建智能问答平台,快速响应企业咨询并输出方案,提升服务效率。
4、AI 提效:打造企业私有 AI 体系,赋能研发与流程管控,通过智能工具优化研发过程、实现流程自动化,提升运营效率。
5、QA
AI智能时代的业务架构演进
〇 分享简介 〇
随着大模型和智能体技术的快速发展,越来越多的企业开始拥抱AI,借此通过AI技术为企业赋能,达到增收、增效、降本的目的。但,很多企业对于AI的认知不够,特别是不知如何利用这波AI规模化浪潮。
大模型和智能体技术发展带来了架构范式的根本性变化,AI原生架构应运而生,这对于企业架构产生了重大的影响,有必要对企业架构方法进行升级,使其能够适应新技术的发展,与时俱进,更好地帮助企业开展AI应用和智能化升级。
本次分享从组织、场景和流程三方面,深入研讨AI智能时代的业务架构设计,以企业组织变革、建立新型人机协作关系为根本出发点,选取适合AI技术的高价值业务场景,并通过业务流程再造来实现落地,最后探讨业务架构基础上有效开展IT架构设计,实现业务架构和IT架构的一体化设计。
〇 分享收益 〇
目标:
1、 提出企业AI应用落地企业架构方法论,供各行业企业借鉴。
2、 掌握企业架构方法可以帮助企业更好实现战略、业务和AI技术的融合。
3、了解企业要推进智能化转型,不只是开发智能体,也需要组织变革配套推进。
成功要点:
1、在企业智能化升级过程中,精准找到适配自身业务场景的 AI 赋能方式是破局的关键。这需要深度剖析组织的核心流程与痛点,并根据人和机器各自的能力优势来设计新的业务流程,构建人机协同的新型工作关系,而不是简单的让AI替代人。
2、业务持续高效模式运转,必须通过智能化系统完成机制化固化。当协同逻辑转化为系统中的代码与规则,才能确保创新实践不流于形式,真正沉淀为组织的核心竞争力,推动工作模式从 “偶然高效” 走向 “必然卓越”。
启示:
组织变革是企业智能化升级的基础和保障。业务场景是业务、管理和技术结合的载体,都能够很好牵引智能化升级。企业运用AI技术开展流程再造,是最大幅提升企业生产效率的关键。
〇 分享亮点 〇
1、AI时代组织形态的进化
从流程型组织、平台型组织到无人组织。AI技术正推动组织形态向 “无人化”加速跃迁。无人组织以AI决策系统为神经中枢,人类角色从执行者转变为规则定义者与系统监督者。
2、业务价值是AI应用的目标
寻找适合AI赋能的业务场景,以业务场景牵引智能化升级。业务场景方法可以破解“技术炫技”与“业务实效”的脱节问题,强调 AI 赋能需遵循 “场景痛点→技术适配→价值闭环”的路径。
3、业务流程智能化再造的架构设计。
区别于传统流程优化,AI 时代的流程再造需构建 “感知-决策-执行-反馈”的智能闭环,要考虑知识类数据是否充分、大模型能力是否满足需要等多方面因素。
4、从业务架构到IT架构。
业务架构最终要通过IT架构来支撑落地,智算中心、数据湖仓、向量数据库、知识图谱、模型网关、LLMOps、智能体框架等架构组件,有效支撑了AI原生架构的落地。
5、QA
深度剖析基于Agentic RAG的Agent 构建平台架构之路
〇 分享简介 〇
Agentic RAG的Agent 构建平台正向着协同化、生态化、多模态化和专业化方向演进。其难点从核心的AI能力(规划、工具使用、记忆)延伸到复杂的系统工程(状态、编排、观测),并最终上升到顶层设计、安全伦理等问题。这是一个模型应用问题,更是一个深度融合AI研究、软件工程、基础设施、安全合规的复杂系统工程。
企业 在AI应用落地过程中,让 Agent 具备企业专属知识库的能力是核心需求,而 RAG技术正是其中关键支撑 。 它不仅能让 AI Agent 突破通用模型的知识边界,还能确保输出内容的准确性、合规性与时效性。更好地优化RAG技术架构,就成了不同平台的核心技术差异。从 0 到 1 拆解企业级 AI Agent 搭建平台的技术框架,包括Agent 核心能力层(任务编排、工具调用与插件体系等)、以及 RAG 引擎的深度集成与优化逻辑,从实战中找到开发优秀Agent系统的最佳解法。
本次分享深度解析RAG 技术架构,以 RAG 的基础技术链路到高级优化技巧,剖析企业场景中 RAG 面临的典型问题,结合实际落地案例,给出Agentic RAG新架构的模式,为 与会者进一步打造智能体平台提供技术支撑。
〇 分享收益 〇
目标:
1、掌握企业级 AI Agent 平台从 0 到 1 的技术架构设计逻辑;
2、深度理解 RAG 架构设计的技术细节与选型思路;
3、获取 RAG 落地聚类优化、检索精度等问题的可复用解决方案;
4、了解企业 AI 技术选型与工程落地提供决策参考。
成功要点:
精准找到企业 AI Agent 平台落地的核心痛点(精准又独有的知识库需求),搭配新一代RAG 技术为关键纽带,可搭建出一个高质易用的Agent平台技术框架,同时,行业典型实践案例的 RAG 架构优化与问题解决的可落地方案,促进了实现技术深度与实用价值的统一。
启示:
1、掌握企业级 AI Agent 从 0 到 1 的架构设计逻辑与 RAG 技术的深度优化方案,是突破 AI 落地知识边界、实现 Agent 精准高效输出的关键,为企业 AI 技术选型与工程落地提供核心技术支撑。
2、把尖端AI技术工程化、民主化,让开发者和企业都能以更高的效率、低成本,构建真正智能、可靠且能解决实际问题的AI智能体,也最终成为企业数字化转型和智能化升级的核心驱动力。
〇 分享亮点 〇
1、企业 AI落地的痛点
2、企业级 AI Agent 构建平台的技术架构剖析
3、RAG 技术深度解析及Agentic RAG 模式讲解
4、Agent及RAG 落地中企业的典型问题与解决方案
5、总结及展望
6、QA
让大模型落地业务:重塑金融信贷流程的智能引擎
〇 分享简介 〇
大模型正加速融入金融信贷场景,从辅助内容生成到优化决策流程,逐步成为提升业务智能化水平的重要工具。在信贷这样的高规范、高复杂度业务中,大模型不仅提升了效率,更正在改变传统作业模式,为金融机构带来更高的一致性与响应能力。
对公信贷流程长、系统老旧、合规压力大,是金融行业普遍面临的难题。在这样的背景下,汇丰科技以 Power Platform 低代码为核心,构建了新一代“电子信贷平台”,将流程数字化、工具模块化,提升了业务人员的处理效率与客户响应速度,也为系统更新与管理带来更强的灵活性。
本次分享聚焦典型业务场景,将大模型引入信贷计划书的生成过程。通过结构化集团风控标准,结合大模型的语言生成能力,打造智能计划书工具,帮助业务人员快速生成合规、专业的内容,显著提升了一线作业效率与客户服务质量。
〇 分享收益 〇
目标
1、了解银行数字化转型的现状与挑战
2、掌握大模型在金融行业的实际应用
3、提升对数字化与自动化技术的认知
4、获取实践经验与技术应用的深刻洞察
成功要点:
构建统一的数字化平台,为AI应用提供了标准化、结构化的数据与流程基础,推动业务与技术共建,确保大模型真正服务业务目标。
启示:
数字化是路径,大模型是引擎,共建共创是业务落地的关键。
〇 分享亮点 〇
1、解析汇丰工商信贷平台构建
2、分享大模型在信贷审批流程中应用的案例分析
3、分享大模型从产品概念到生产投产的经验
4、展望大模型在金融业务流程再造的远景规划
5、QA
AIGC技术的快速迭代正在重塑产品设计的底层逻辑,从“工具辅助”到“智能协同”,从“单一模态”到“多模态融合”,从“被动响应”到“主动决策”,AIGC产品的设计范式正经历一场“黑箱化”的进化——技术能力与用户需求之间的交互逐渐复杂化,各行业不仅思考AIGC设计的通用逻辑和行业特异性,还要从技术+场景双视角出发,聚焦用户真实需求,核心目标从功能实现转向价值重构。
本专场聚焦AIGC产品设计的底层逻辑、交互范式、伦理边界及未来场景,通过一线产品带头人实践分享,解构“黑箱”中的技术演化与用户需求碰撞,涵盖:破局大模型商业化、AIGC视频理解生成、游戏AIGC双轮驱动、AIGC大模型资产配置、B端AIGC产品设计场景业务、RAG发展趋势和产品落地等方向议题,帮助从业者构建AI原生思维,抢占下一代AIGC产品的创新先机。
出品人:吕睿韬 Plaud.ai的AI资深产品总监、CCF专委会委员
破局大模型商业化:从炫技 Demo 到用户愿付费的产品逻辑
〇 分享简介 〇
AIGC产品任务规划影响企业发展与业务流程重构、决策模式等诸多方面的转变。AIGC技术推动企业内外流程的原子化重构,传统行业产业链和岗位将被颠覆,无论是电话客服、初中级程序员等岗位已被AI替代,企业需重新思考客户维护和产品交付模式。此外,组织架构和岗位职责面临调整,部分管理决策权可能转移至AI系统。美国初创公司已试点AI员工全流程处理任务,传统经验主导的决策方式正被AI推演取代。企业核心能力逐步向AI靠拢,AI成为评估、规划、执行和产品决策的关键中枢,管理能力标准将被重新定义。
映射出大模型技术的日新月异,从Chatbot到Agent,tool use是核心的变量,炫酷的Demo层出不穷,让用户心甘情愿地为大模型产品能力买单,是核心问题,也是企业AI应用性革命问题。 商业化的瓶颈并非技术不足,而在于未完成从“技术秀场”到“价值驱动”的关键跃迁。
本次分享将深度拆解大模型商业化的困局根源,揭示华丽的Demo往往难以转化为可持续的收入难题。基于商汤在小浣熊家族产品线的深入探索与实践,分享超越浮于表面的技术堆砌,构建真正嵌入用户业务流、创造不可替代价值的商业化产品路径, 以及从“可用”到“必用”的用户心智构建。
〇 分享收益 〇
目标:
1、破解Demo陷阱困局,获得大模型价值交付的核心思维模式
2、掌握构建用户付费意愿的实用产品逻辑工具箱。
3、洞察头部企业的落地实践,规避产品商业化探索的深水区暗礁。
成功要点:
1、追求更好的解决方案而不是完美的解决方案,关注TOB/TOC场景精度、企业端性能应用、交互LUI/GUI体验、利用好自有数据与行业数据的融合、良好的MCP Servers依赖项,将大大助力企业寻找到最优解决方案、真实痛点。
2、一切以客户价值优先,企业卓越的解决方案与落地场景,将让企业利于不败之地。
启示:
升级产品与组织能力和协作模式,在技术爆炸的洪流中,强守产品人的本心,以用户价值为灯塔,点亮大模型产品商业化的破局之路。
〇 分享亮点 〇
1、Demo的幻象与商业化的骨感
1)行业痛点直击
2)技术狂欢 vs 付费犹豫:Demo惊艳却难转化(如POC后落地难、价值模糊)
3)核心矛盾:用户不为技术买单,只为解决问题付费
2、破局关键:四大思维转向
1) 价值锚定:从“多模态感知”到“需求深挖”
2)案例:医疗大模型聚焦辅助诊断而非通用问答,直击诊疗效率痛点
3、场景深潜:从“通用炫技”到“垂直闭环”
1)路径:选择高价值场景(如工业故障预测、政务审批),端到端解决“最后一公里”问题
2)ROI透明化:从“能力展示”到“价值量化”
3)方法:将模型能力转化为可度量收益(如节省30%人力成本、降低50%错误率)
4、心智构建:从“神奇玩具”到“生产引擎”
1)策略:嵌入用户工作流(如Office插件、CRM系统),形成使用依赖
5、产品逻辑重塑:付费意愿的构建基石
1)定义不可替代的价值主张
案例:矿山AI系统通过实时煤块分析优化生产,替代人工决策
2)设计高价值感知的产品形态
关键:标准化交付(降低部署成本)+ 交互体验优化(如预测性输入)
3) 用户导向的定价策略
模式:按价值单元(如生成条数)、结果分成、分层分级
6、小浣熊家族实践:从理论到行动
1)垂直场景选择:聚焦金融风控/智能创作,以PMF(产品市场契合)验证价值
2)ROI验证案例:某客户通过定制模型提升审批效率40%,6个月回本
7、挑战与反思:动态需求响应、数据安全与伦理合规的平衡
8、结语:回归产品本质
1)核心公式:真实痛点 × 闭环场景 × 可量化价值 = 用户付费
2) 行动呼吁:做“解决问题的恒星”,而非“炫技的流星”
9、QA
AIGC时代产品经理的视觉理解生成实践
〇 分享简介 〇
AIGC时代,产品经理的视觉理解与生成能力正成为产品竞争力的核心要素。这一领域融合了技术创新、用户体验设计与商业落地的多重挑战,要求从业者兼具技术洞察力、场景深耕能力与伦理敏感度。未来,随着生成式视觉技术的进一步成熟,产品经理将更多聚焦于“人机共创”的平衡点,推动AI从工具升级为真正的创意合作伙伴。
面对AI带来的无限可能,产品经理不仅要洞察技术前沿,更需在用户体验、产品形态、以及商业价值之间,寻找最优解。视觉不仅是信息的载体,更是人机交互的新语言。尤其在 Chatbot 这样体量庞大、用户场景多元的AI Native产品内,大模型正推动对话从“文字交流”迈向“多模态交互”。
本次分享将结合文小言的真实产品挑战,分享端到端视觉理解体系的构建、可控视觉生成与编辑,以及实现理解与生成的一体化闭环。同时,基于基座模型与工程能力的进步,解析视觉模态如何重塑交互场景,以及用户需求从感官体验到实际任务完成的跃迁。最后,探讨多模态能力科学度量、建立满意指标体系,以及视觉模态对话产品可能引领的下一条增长曲线。借此为产品领域爱好者带来新的启发与行业结合的实践思路。
〇 分享收益 〇
目标
1、帮助从业者深刻理解AI浪潮下,视觉不仅作为信息载体,更成为人机交互与产品创新的新语言。
2、在多模态技术高速发展的背景下,结合实际产品历程,揭示视觉理解与生成能力如何重塑用户体验与产品形态,为行业带来可借鉴的实践框架与方法论。
成功要点
1、洞察行业趋势与用户行为:识别AIGC技术对交互范式和用户需求带来的本质改变,把握多模态成为未来竞争核心的战略意义。
2、产品与技术深度融合:以文小言作为实际产品例证,分享如何在大规模用户场景下,将前沿技术转化为可用、可感知的产品能力。
3、打造端到端闭环:打造理解与生成的一体化设计,建立科学度量体系与迭代方法
4、坚实的产品与工程落地:多模型选型与调度、Context管理、GUI与LUI取舍、同步与异步任务等。
启示
1、从技术趋势与用户需求变迁出发,洞悉视觉模态未来的产业价值与产品方向,将形成前瞻性产品思考,利于理解从技术、数据、产品设计多维协同,掌握视觉理解与生成全链路的落地方法,可构筑核心产品竞争力。
2、激发产品经理在未来视觉交互革命中的创新灵感,是探索视觉模态对话产品可能引领的下一条增长曲线。
〇 分享亮点 〇
1、视觉行业趋势洞察
1)视觉交互范式革命
2)用户行为视觉化变迁
3)技术底座升级
2、文小言产品与技术实践
1)端到端视觉理解体系
2)可控视觉生成与编辑
3)理解生成一体化闭环
3、度量与衡量
1)多模态评估与指标体系
4、未来展望:视觉模态对话产品的下一曲线
数据智能+创意智能:游戏AIGC的双轮驱动模式
〇 分享简介 〇
在当今AI技术飞速发展的时代,AI已经渗透到各行各业的方方面面,游戏产业作为创新的前沿阵地也在积极拥抱这一变革。从早期游戏NPC行为决策AI到如今的全面智能化应用,AI与游戏的结合正经历前所未有的深度融合。近年来,大型语言模型如ChatGPT、Claude以及国产的Deepseek等技术的突破,更是将游戏AI的可能性推向了新的高度。这些AI技术不仅在内容生成、角色互动和游戏性设计上带来突破,还在用户服务和运营效率上创造了新的增长点。全球主流游戏厂商纷纷加大AI研发投入,预计到2026年,游戏+AI市场规模增长态势明显。这一趋势不仅改变了游戏开发的范式,也正在重塑玩家的游戏体验和游戏产业的商业模式。
游戏+AI的命题已被放到了当前游戏从业者的核心视野中,各种应用层出不穷。从应用AI提效游戏生产管线、AI辅助游戏玩法创新,到打造智能陪玩AI队友、开发情感陪伴向AI伴侣等。然而,行业在探索过程中也面临诸多挑战:保持游戏本身乐趣的同时引入AI增强体验、平衡AI的"智能"与"可控"、解决AI应用的高计算成本与用户体验之间的矛盾,这些难点都在游戏发行及运营应用中可以落地。
研究发现围绕用户的真实诉求和痛点出发,将AI技术与项目目标价值紧密结合。这种双重目标和价值导向的设计思路,使得AI赋能游戏产品功能和辅助发行运营的策略变得尤为重要。
本次分享将结合多年服务千万级游戏用户的丰富经验,深入剖析一套经过实践验证的AI产品技术应用方案,并系统地探讨AI在游戏发行中的价值实现方法论。将从技术架构、用户体验设计、数据驱动决策等多维度,展示构建适应不同游戏类型的AI应用框架。同时,聚焦于当下爆火的各类AIGC技术在游戏场景中的落地案例,从产品和运营者的角度,分享海量用户需求场景下打造智能Agent的关键策略与实施步骤。以成功案例分析所呈现AI有效赋能游戏发行及运营,提升用户获取、留存与变现效果,最终实现商业价值与用户体验的双赢。这些成功实践经验和方法论,将为游戏行业从业者以及产品专家们,提供可借鉴的AI产品应用路径和解决方案。
〇 分享收益 〇
目标
1、了解AI+游戏融合的落地案例,面对千万级不同游戏和不同用户在不同场景时的AI产品方法论
2、深入感知AI驱动游戏发行的增长探索实践
成功要点:
AI+游戏融合实践源于精准挖掘用户痛点并与游戏发展目标深度对齐。同时,构建强大的AI产品核心能力以优化游戏内外数据表现,最终通过AI驱动游戏发行策略,实现用户价值与商业价值的双向提升。
启示:
AI在游戏场景中的深度应用不仅解决了传统运营中的效率瓶颈,更通过智能化Agent实现了用户体验与商业价值的指数级增长,重新定义了游戏发行运营的成功模式。
〇 分享亮点 〇
1、游戏+AI技术应用
1)游戏用户需求洞察与项目运营发行诉求的融合
2)AI在游戏场景的双向应用策略
3)未来AI+游戏的技术路线图
2、AI驱动游戏发行增长
1)游戏发行面临的增长挑战
2)AI在游戏发行中的实际价值
3)AI+游戏发行的未来空间
3、QA
通过AIGC大模型实现最优资产配置与财富自由
〇 分享简介 〇
在国内A股长期3000多点导致大多数机构和股民都亏损,过去二十多年国内房地产大涨但是最近几年很多房产不涨甚至下跌的背景下,未来通过AIGC大模型进行全球大类资产配置,包括房地产、权益类、固定收益类资产来抵御通货膨胀,实现长期稳定的高收益,是每个人、每个家庭的梦想,但是怎么实现这个梦想却很难学到。
利用先进的AIGC大模型,应用在资产配置和财富管理领域中。通过大模型对海量金融数据进行数据采集,数据处理,数据分析,数据可视化和未来趋势预测,通过训练数据和测试数据建立模型,优化投资组合并得到最优资产配置,可帮助不同风险偏好的投资者在多变的经济环境中做出智能决策。
本次分享将结合有效前沿理论以及大数据分析方法,通过AIGC大模型的分析和预测能力,AI智能体创建自动化工作流等,帮助个人、企业、投资者的财富管理提供一个全面、高效、个性化的解决方案。
〇 分享收益 〇
目标:
1、展示AIGC大模型在家庭财富管理中巨大作用,
2、探讨通过AIGC大模型的分析和预测能力、现代投资组合理论以及量化投资策略,有效地管理资产组合,降低风险,获取长期稳定的投资回报,为个人、投资者的财富管理提供一个全面、高效、个性化的解决方案。
成功要点:
通过AIGC大模型结合量化分析、现代投资理论、马科维茨均值-方差模型,有效前沿理论以及大数据分析方法,为投资者提供量化分析支持,帮助投资者构建既能有效分散风险又能实现长期稳定回报的最优投资组合,实现智能化、个性化的资产配置并最终实现财富自由。
启示:
AIGC大模型和AI智能体极大的提升了资产配置的科学性与数据分析的效率,在实现稳健财富增长和财富自由的过程中发挥了核心价值。
〇 分享亮点 〇
1、资产配置理论的基础与现代投资组合模型
1)马科维茨均值-方差模型的应用。
2)夏普比率的应用
2、AIGC大模型在资产配置中的创新应用
1)通过大模型进行数据采集
2)通过大模型进行数据清洗
3)通过大模型进行数据量化分析与处理
4)通过大模型进行数据可视化
5)通过大模型进行数据预测和趋势分析
6)通过大模型优化资产组合并计算最优资产配置
7)通过AI智能体创建自动化工作流
3、财富自由的实现路径
1)基于智能定投策略的财富增值。
2)经典资产配置策略与全球资产配置策略
3)多元分散策略(空间与时间分散等策略)
4)资产再平衡策略
5)价值投资策略与技术分析投资策略
6)如何真正实现财富自由
4、行业实例与成功案例分享
1)结合中国与美国市场的主要大类资产(包括股票、债券、房地产等)案例,展示通过AIGC大模型进行数据量化分析的优势与实践成果。
5、QA
B端AIGC破局之道:多元产品设计场景与业务规模化实践
〇 分享简介 〇
在 AI 重塑产品设计逻辑的浪潮中,产品经理既要紧跟模型能力的迭代节奏,更得在技术可行性、用户认知阈值与业务场景适配度之间,搭建精准的平衡框架。界面不只是功能的容器,更是用户理解 AI 能力的桥梁。尤其在B端场景中,大模型正推动交互从 “功能调用” 升级为 “需求预判”,让产品从 “被动响应” 转向 “主动适配” 的新形态,跳出 “技术炫技” 陷阱,让你的AI产品真正成为业务增长的引擎而非成本负担。
AIGC市场带来的爆发式增长,已然成为企业数字化转型的产品核心引擎。然而,在 B 端 AIGC产品设计容易陷入 “技术投入与业务增长失衡” 的泥潭,大模型接口接入后、算力成本重砸下,用户却反馈 “用不上”“不实用”,业务数据毫无波澜。
本次分享深度探讨产品设计锚定高价值业务场景、平衡 AI 体验与业务效率、构建可落地的成本控制模型,拆解从 0 到 1 的产品设计方法论,以京点点产品设计与实践为案例,为产品经理、业务负责人,以及技术决策者带来AI时代下,新的启发与行业结合的实践思路。同时,助力企业B 端 AIGC 产品设计与实践中,做出更合理的决策,推动企业数字化转型进程。
〇 分享收益 〇
目标
1、掌握 B 端 AIGC 产品设计中锚定高价值业务场景方法
2、提升平衡 AI 体验与业务效率的能力
3、学会构建可落地的成本控制模型
4、了解从 0 到 1 设计 B 端 AIGC 产品的方法论
成功要点
1、聚焦 AIGC 对业务流程的核心改造点,确保 AI 技术应用到能产生实际业务价值的场景中,避免陷入 “全场景覆盖” 的资源浪费陷阱。
2、深入了解业务需求与痛点,穿透技术表象,精准锚定高价值业务场景是基础。将大模型能力拆解为 “业务可用模块”,在技术可行性(模型响应速度、准确率)与业务效率(用户操作步骤、流程节点)间建立动态平衡公式。可实现AI 产品真正的业务增长引擎。
3、通过 “轻量模型覆盖高频场景 + 高精度模型攻坚核心场景” 的调度策略,设计 “技术投入 - 业务产出” 的量化追踪体系(如巧用A/B实验工具验证),是实现成本可控下的效果最大化途径。
启示
1、 B 端 AIGC 产品设计中,技术只是手段,业务增长才是核心目标,不能盲目追求技术的先进而忽视其对业务的实际价值。
2、产品设计需以用户为中心,充分考虑用户认知阈值,通过优化界面和交互方式,降低用户使用门槛,提高用户对 AI 产品的接受度和使用率。
3、从 0 到 1 的产品设计过程中,结合企业实际业务情况,紧跟模型能力迭代节奏,让技术与业务场景深度融合,确保产品设计的可行性和实用性,须注重方法论的总结与提炼,形成适合自身企业和业务场景的设计思路。
4、大模型推动下,B 端产品的交互和形态正在发生深刻变革,从业者需主动适应这种变化,以创新思维推动产品升级,实现技术投入向业务增长的有效转化。
〇 分享亮点 〇
1 、B 端 AIGC 的爆发与困境、行业现状
1)数据呈现:AIGC 市场增长曲线(突出 B 端企业投入增速)
2)核心矛盾:技术投入(大模型接入、算力成本)与业务增长(用户反馈、数据表现)的失衡
3)典型痛点:“用不上”“不实用”“成本高” 的用户反馈
4)结论:B 端 AIGC 需要跳出 “技术炫技”,回归业务本质
2、B端AIGC设计关键挑战 : 从技术到业务的鸿沟
3、B端AIGC产品设计方法论
1)锚定高价值业务场景
2)平衡 AI 体验与业务效率
3)构建可落地的成本控制模型
4)技术与业务的深度融合
4、京点点从0-1产品设计实践案例
5、成功要点总结
1)用数据锚定场景价值,而非依赖直觉
2)让 AI “服务” 业务流程,而非重构流程
3)如何建立 “效果 - 成本” 动态平衡机制
6、B 端 AIGC 产品的未来方向
7、QA
AI大模型与RAG发展趋势及国内落地产品实战
〇 分享简介 〇
当下AI早已从一个简单ChatRobot大模型的萌芽发展阶段,一路高歌猛进至AI Agent/端侧模型计算/RAG精准推理计算的三大发展方向。无论是端侧模型凭借边缘计算实现本地化高效推理,再到 RAG 精准检索外部知识库优化大模型输出,代表着AI已从实验室的概念验证,进化为能在企业实战中降本增效、革新流程的强大生产力解决方案,重塑产业格局。
但目前在整个国内市场中,还没有建立起一个清晰的AI落地路径,整个行业AI的渗透率还不足5%,且在AI技术投产中对于模型的使用仅保留在单一模型的使用,而目前最新发展方向早已迈入的长上下文记忆体与多模态融合概念,相比于国外来说AI应用已存在代差,而且在投产的AI项目中对于多端对齐,模型幻觉等AI模型常见问题也缺少工程上的解决方案
本次分享当前国外美国市场对于AI最新的发展趋势以及发展方向,包括open AI为代表的闭源大模型技术下一步迭代方向。同时,基于现有大模型能力美企的产品落地探索以及最新的AI产品演进趋势。最后,结合国内某TOP级服装企业的大模型落地应用案例实际企业场景落地实践,整体使用工程化的思路解决现有大模型技术的现存问题以及实战的避坑指南。
〇 分享收益 〇
目标
1、了解美国AI市场的研究和分析,帮助听众了解美企最新 AI发展路线和近三年发展趋势。 以及产品化落地思考的分享。
2、通过实战案例,了解当前国内AI的最新落地工程化解决方案。
成功要点:
帮助企业AI领域负责人构建对国外前沿AI方向的最新发展趋势视角认知,并从产品视角探讨国内市场大模型的落地路径及对企业的具体化收益。
启示:
以OpenAI等头部AI企业发展方向,拆解全球大模型应用实战落地路径,抢占 AI 技术红利制高点,开启企业增长新引擎!
〇 分享亮点 〇
1、AIGC发展趋势近况
1)25年美国人工智能企业的发展现状与落地方向
2)OpenAI基于GPT产品群发展新动向
2、基于RAG技术大模型实战咨询案例分享
1)以A企业为例的大模型落地实战
2)A企业中大模型落地中常见的幻觉/多用户输出一致性等产品化解决方案
3)A企业AI化改造效率与收益复盘
3、大模型实战经验提炼
4、QA
近年来,大模型的突飞猛进极大地推动了人工智能技术在各行各业的广泛应用。从数字化转型到智能化跃迁,企业正面临AI工程化落地的系统性挑战:从预训练算力瓶颈、分布式训练稳定性、推理服务SLA保障、多模态、Agent系统架构设计等关键环节,都对AI基础设施和工程化能力提出了生产级要求。
面对这些挑战,工业界与开源社区积极探索解决方案,基于容器化、Kubernetes调度、微服务等云原生核心技术构建AI系统,提升高性能计算、存储、网络资源利用率,扩大数据处理任务规模,改善分布式训练效率,优化推理服务性能,统一管理AI负载全生命周期,并与已有业务应用和云服务无缝集成。
本专题将聚焦云原生与AI工程化的深度融合,邀请各行业代表性企业与技术专家分享他们在这一领域的实战经验与最佳实践。从底层基础设施优化到上层应用落地的全方位探索,包括:分布式AI系统软件构建、容器集群、GPU AI平台建设、流量治理中枢、多样化智能体工具、端云协同、AI数据架构方向帮助参会者深入了解借助云原生技术打造高效、灵活、可扩展的AI工程化平台,从而加速智能化创新的步伐,驱动业务增长与变革。
出品人:张凯 阿里云容器智算方向负责人、阿里云智能资深技术专家
基于通用Severless计算平台构建的分布式AI系统软件实践
〇 分享简介 〇
为了实现AI负载在云环境的高效运行,除了对模型运行性能进行优化之外,分布式系统方面的配套优化也非常重要。同样的模型和算子实现,配套不同的分布式系统后,整体运行性能可能相差数倍之多。在LLM落地的过程中,企业已经投入大量人力在服务化、任务调度、分布式数据缓存等系统优化上,未来随着Agentic RL、多模态的发展,AI分布式负载更加复杂化,构建高效的分布式AI系统软件已成为AI落地的关键问题。
分布式AI系统软件解决了AI负载在云环境上高效运行的诸多问题,例如大模型推理服务的快速伸缩、负载均衡、PD分离、历史缓存加速,强化学习的多模型任务高效调度、训推参数快速切换,训练任务高可用,AI Agent的快速安全执行等。在企业落地实施上,通常一方面对现有的各种系统比如微服务系统进行增强,另一方面针对具体场景构建ad hoc的解决方案,基础能力难以跨场景复用。
本次分享以一种全新的解决思路,以分层架构构建分布式AI系统软件,统筹考虑大模型推理、强化学习、分布式训练、Agentic AI等场景的分布式系统软件优化诉求,有效一站式地解决这些问题,并在企业落地过程中取得良好的实践效果。
〇 分享收益 〇
目标:
1、了解大模型推理、强化学习、分布式训练、Agentic AI对分布式系统的主要技术诉求
2、了解将大模型推理服务的弹性伸缩速度从分钟级优化到秒级、构建PD分离的大模型推理系统、以及实现X千卡高效强化学习调度的落地实践
成功要点:
采用分层架构构建分布式AI系统软件,基础部分能力通用性很强,通过扩展支持大模型推理、强化学习等多种场景,不但可以有效地实现软件复用,而且非常适合Agentic AI这种多样负载共存的场景。
启示:
构建分布式AI系统软件,可以有效解决在大规模集群上运行分布式AI负载时面临的性能、成本、效率等问题。
〇 分享亮点 〇
1、分享分布式AI系统软件的整体框架
2、大模型推理实践:弹性伸缩、负载均衡、PD分离等
3、强化学习实践:训推全异步调度、参数重排、推理采样动态负载均衡等
4、AI Agent实践:安全沙箱快速启动、高并发异步调度等
5、分布式训练实践:分片CKPT快速保存/恢复
6、QA
大规模GPU容器集群故障智能诊断与自愈、稳定性建设
〇 分享简介 〇
过去几年,随着大语言模型和 AIGC 领域的跨越式发展,人工智能正在迅速改变世界,并极大的推动了 AI 分布式训练和推理技术,以 GPU 为代表的智能算力正在逐渐成为 AI 领域不可或缺的一部分。随着 AI 模型变得越来越复杂,上层AI 应用和框架层出不穷,对 GPU 以及大规模 GPU 集群的需求只会越来越高。构建大规模、稳定性的 GPU 集群是现代企业所面临的新的关键性问题。
提升训练效率、降低成本、保障业务连续性等大模型时代的命题,帮助企业通过实时监测GPU利用率、带宽和日志刷新率等指标,可快速定位性能瓶颈(如通信异常或硬件故障),实现秒级恢复,避免单节点故障导致数百台GPU空转。智能诊断系统来精准定位故障节点,减少人工排查时间。基于LSTM模型预测GPU故障(准确率92.3%),动态调整算力分配,避免因突发流量导致的响应延迟。诸多技术难点,都将有足够的集群策略管理和应对。
本次分享将基于大规模GPU 智算集群下, 通过云原生方式对 GPU 智算集群进行统一管理,涵盖故障检测,故障告警,故障自愈,可观测,profiling 等手段提升智算集群的稳定性建设,帮助企业构建高效稳定的 GPU 训练与推理集群,提高模型训练效率保证有效训练时长,增强模型推理服务的稳定性。
〇 分享收益 〇
目标:
1、了解全方位覆盖GPU 等场景故障检测项
2、通过可扩展的交互协议,以及故障告警通知,构建完善的从故障发现,到自愈,以及上层业务平台感知处理的自愈体系。
3、提升大规模GPU集群的资源使用率,有效提升训练时长。增强模型推理服务稳定性。
成功要点:
实现大规模GPU集群的故障快速恢复处理,提升集群管控面稳定性,可根据具体业务运行情况,执行用户授权的自愈恢复操作,从而建立完善的 GPU 故障应对机制和备份方案,保障计算资源的稳定运行,构铸强大智算底座。
启示:
构建强稳定、故障快速恢复的大规模 GPU 集群,有利于提升资源使用率,增强企业竞争力、缩短产品上市时间、降低运营成本,确保高可用性和可靠性,支持未来扩展和技术演进。
〇 分享亮点 〇
1、云原生Kubernetes 容器支撑智算底座
2、异构资源统一管理
3、GPU 可观测,以及故障自愈处理
4、AI Profiling 问题排查
5、QA
大规模AI平台建设:利用云原生高效使用GPU
〇 分享简介 〇
随着 AI 浪潮的席卷,企业对 GPU 的需求日益增长,随之而来的 GPU 资源成本也持续攀升。在多样化的 AI 应用场景和不断演进的 AI 框架下,构建一个能够灵活支撑各类业务、实现高效 GPU 资源利用的平台,成为企业需解决的核心问题。企业不仅要关注 GPU 的供给与调度,还要思考通过云原生技术,实现资源的弹性分配与精细化管理,提升整体算力利用率,降低运维和成本压力。
GPU 的使用场景与传统的 CPU 存在本质差异。在 AI 平台的实际应用中,算法团队、产品团队和工程团队对 GPU 资源的需求各不相同。在模型训练和推理等不同场景下,不同的推理模型框架下,GPU 的使用方式和资源分配策略也存在明显差异。实现这一目标,需要平台具备灵活的资源调度能力、精细的权限与配额管理,以及对不同业务场景的深度适配,从而为企业的 AI 创新提供高效、可持续的算力支撑。
本次分享将重点探讨 GPU 资源的精细化调度运营、资源提效与配额管理。在满足企业内部多样化业务需求的基础上,如何进行 GPU 混部,资源超卖,此外还将结合 Serverless 技术,将未被占用的 GPU 资源通过分时包月、按量计费等方式对外公网售卖。充分利用闲置资源,为企业有效降低算力成本。
〇 分享收益 〇
目标:
1、基于 Kubernetes构建云原生AI平台。
2、了解企业不同业务场景的GPU使用情况。
3、构建实现推理、训练复用体系。
4、利用Serverless构建GPU内网外分时售卖体系,提升GPU利用率,提升企业收入。
成功要点:
根据不同业务的GPU使用特性,对GPU构建专属资源、潮汐资源、弹性资源体系,充分利用GPU空闲资源,提升企业利润。
启示:
GPU使用特征与利用率提升方式,与CPU有显著不同,充分了解业务特性,才有利于构建适合GPU的利用率提升方案,让GPU得到充分利用,降本增效。
〇 分享亮点 〇
1、 基于Kubernetes构建云原生AI平台。
2、 GPU 配额体系管理介绍。
3、 GPU 资源分级介绍。
4、利用Serverless技术,实现内外部用户分时复用GPU资源。
5、QA
构建企业级 AI 中枢:APISIX AI Gateway在大模型流量治理中的实践
〇 分享简介 〇
企业拥抱 AI 浪潮,面临大模型接入混乱、安全合规风险高、多模型管理复杂、传统业务与 AI 服务割裂等核心挑战,亟需统一治理中枢。兼具传统API治理能力与AI专用扩展的演进型网关,成为企业混合架构首选。
独立 AI Gateway 市场萎缩,传统 API Gateway通过插件扩展 AI 能力,形成“AI+API”统一治理中枢,融合架构对企业极大降本。AI Gateway 会经历从“连接器”到“智能编排中枢”的定位转变。Token 级请求管理控制,MCP 为代表的协议标准化,将成为 AI Gateway 核心必要能力。APISIX 团队基于云原生网关技术沉淀,提出 “AI Gateway” 架构理念,将 API 治理能力延伸至 AI 领域,实现从“学习使用 AI”到“搭建 AI 中枢”范式升级。
本次分享将系统解析 APISIX AI Gateway 如何助力企业构建 AI 中枢,通过统一网关解决安全、可观测、流量调度及传统业务融合问题,推动 AI 原生基础设施建设。
〇 分享收益 〇
目标:
1、了解行业标准化 AI 服务治理框架,为企业安全可控的 AI 应用创新提供保障。
2、了解企业搭建 AI 中枢、统一管理多个大模型常见的解决方案
3、了解企业选择开源产品统一治理 API+AI 流量,洞悉 AI Gateway 发展趋势。
成功要点:
1、 技术整合:以云原生网关为底座,无缝扩展 AI 治理能力(如 LLM 鉴权、敏感词过滤);
2、统一管控:支持多模型动态路由与自动降级,提升服务韧性;
3、生态兼容:通过 MCP 协议一键集成传统 HTTP 服务,打破技术孤岛。
启示:
企业通过轻量化 AI 中枢实现“模型即服务”,在保障合规性时更多帮助企业提升资源利用效率,释放 AI 规模化价值。
〇 分享亮点 〇
1、 AI 落地困局:企业多模型管理混乱、安全合规缺失;
2、 APISIX AI Gateway 核心能力:安全防护/多模型调度;
3、MCP 协议实战:传统应用秒级接入 AI 服务;
4、开源生态共建:AI Gateway 与云原生社区协同进化路径。
5、QA
利用多样化的计算平台灵活部署 AI Agent 和工具
〇 分享简介 〇
随着Agentic AI的发展,AI智能体正在带来一场被形容为与互联网出现同等重要的技术变革。AI智能体极大的扩展了AI的能力边界。通过多任务编排和操作外部工具,AI智能体可以解决复杂问题、重塑现有工作流程以及为各行各业创造新的可能性。AI智能体已经开始从根本上改变人们的工作和生活方式。
在 Agentic AI 的工作流程中,AI智能体自身需要有一个安全,稳定,高隔离性的运行环境。同时,AI 智能体需要调用各种外部工具来扩展其能力边界,这些工具也需要合适的运行环境。而选择合适的计算服务(如虚拟机,容器,函数计算,MicroVM 等)以承载这些工具,是大规模推广 AI 智能体的前提条件。
本次分享将以亚马逊云科技计算服务和开源技术举例,通过 AI Agent 和AI 工具(如 MCP 服务器)的运行环境选择,以及涉及AI Agent 和 MCP 服务器的运行环境需求,常用的计算服务(容器,函数计算,MicroVM),包括利用计算服务部署 AI Agent 和 MCP 服务器的最佳实践和快速上手解决方案,全面帮助开发者灵活部署 AI Agent 和工具。
〇 分享收益 〇
目标:
1、了解到AI Agent和 AI 工具(如 MCP 服务器)的部署最佳实践
2、了解本地部署和云端部署的区别,以及如何选择正确的部署方式,更好的应用大规模部署
成功要点:
1、AI应用会逐步从开发人员本地部署转变为大规模云端部署,需要准备基础设施以适应这一趋势。
2、不同的AI应用和工具需要使用不同的基础设施,需要灵活选择计算服务以适配不同场景的需要。
启示:
企业应摒弃单一计算模式,依据不同业务场景需求,借助多样化计算平台灵活部署 AI Agent 和工具,以此提升业务处理效率、降低成本,增强自身在市场中的竞争力与适应性。
〇 分享亮点 〇
1、分享AI Agent 和工具的云上部署
2、分享AI Agent运行沙箱和计算平台需求
3、分享MCP 服务器部署方式和计算平台需求
4、分享常见的计算服务(容器,函数计算,MicroVM)
5、AI Agent 和 MCP 服务器在亚马逊云科技计算服务的部署实践
6、QA
字节跳动端云协同实践与思考
〇 分享简介 〇
随着移动端传感器成熟、模型小型化与芯片算力跃升,端智能已具备落地基础。凭借其低成本、低延迟特性构筑差异化优势,已然成为头部科技企业的关键命题。
在传统场景中,字节跳动通过端云协同探索出可行路径,以感知智能领域以终端实时能力填补云端延迟短板,平衡体验与成本;数据智能领域则迁移部分云端推荐系统至终端,优化推荐效果、用户触达与应用体验。同时,针对端云协同的高门槛,可以构建端智能基建体系,标准化研发流程、提升迭代效能。
本次分享面对大模型浪潮,进一步探讨端侧LLM与Agent的业务应用挑战、演进思路。旨在帮助与会者,建立对终端优势的体系化认知,解析端云协同的落地方案,让企业找到结合业务需求规划适配最优路径。
〇 分享收益 〇
目标:
1、系统性理解终端与云端在数据、算力场景上的异构性本质,明确二者在能力和场景上的边界与分工协同逻辑。
2、借助标准化基建实现高效协同落地。
成功要点:
1、通过任务间与任务内的精细切分,以有限精度损失和可控成本增长,实现对价值/延迟敏感型场景的覆盖,进而提升业务变现效率与用户体验。
2、依据数据敏感性与传输成本,调整处理位置,以及处理终端原始隐私数据(设备/行为日志),云端聚合脱敏特征,均可通过联邦学习实现合法数据价值释放,规避合规风险。
3、依托端智能基建适配端云团队的协作边界,从而控制端云协同的复杂性,继而通过标准化机制保障服务稳定性下限,借助自动化工具链提升研发效率上限,可显著缩短方案落地周期。
启示:
终端作为承载用户实时交互、沉淀原生数据的 “近场节点”,其低成本、低延迟的特性已成为挖掘差异化优势的关键。能否通过端云协同充分释放终端潜力,将是头部科技企业在智能时代构筑竞争壁垒的核心命题。
〇 分享亮点 〇
1、分析端云协同的现在式
1) 端智能的三要素:数据、算力、模型
2) 感知智能中的端云协同
3) 数据智能中的端云协同
4) 端云协同的意义:智能与体验的平衡
5) 效能优化:Pitaya 端智能基建
2、分享端云协同的未来
1) Scaling Law 的影响
2) SLM 应用场景与部署挑战
3) 边缘 Agent 的现状与前瞻
3、QA
云原生环境下超大规模AI数据的架构实践
〇 分享简介 〇
随着人工智能特别是大模型技术的不断演进,数据已经成为推动模型训练和推理性能持续跃升的核心要素之一。数据规模的指数级增长,叠加对实时处理能力和成本敏感性的提升,使得传统存储架构在灵活性、性能和可管理性方面面临前所未有的挑战。与此同时,Kubernetes 已成为 AI 工作负载调度和资源编排的主流平台,带动了“云原生 + AI”架构的加速融合。
在这一背景下,完成对海量 AI 数据的组织、调度和共享,已经成为行业内普遍关注的问题。对于上万个 Pod 的大规模业务,企业在存储消费方式上选择各异——有的使用 CSI,有的依赖 Fluid,有的通过 hostPath 直连以满足特定的管理需求。然而,不同方案在可扩展性、性能瓶颈与后期架构演进上的差异显著,如何在灵活性、性能和可维护性之间取得平衡,已成为设计 AI 数据基础设施时的关键价值点。
本次分享将深入剖析对象存储与传统文件系统在云原生环境中的适配局限,分享 JuiceFS 面对Kubernetes 中海量存储规模的挑战,并结合生产级案例,探讨通过自动化配置、多级缓存、观测性增强等手段,提升大规模集群下的资源利用率和系统稳定性。为正在构建 AI 数据基础设施的开发者与架构师,提供可落地的技术路径与架构参考。
〇 分享收益 〇
目标:
1、探讨大规模 AI 训练中的存储挑战,以及在 Kubernetes 环境中企业可能面临的存储问题。
2、了解现有存储方案的优缺点,帮助企业更好地选择适合的存储架构。
3、了解业界私有云、混合云及公有云托管的 Kubernetes 平台,可将 JuiceFS 集成项目、部署在云环境中,JuiceFS 发挥了云原生环境的基础设施和软件架构的最大价值。
4、了解AI数据存储实践,以多个大规模集群的生产环境,促进整个社区的技术共享与进步。
成功要点:
云原生方式只是 JuiceFS 的一种客户端消费模式,与宿主机进程、S3 网关、SDK 等方式并行存在。完全开源的策略吸引了大量社区用户共同使用与优化,将实践经验不断回馈社区,形成了正向循环,推动了项目快速迭代与广泛落地。
启示:
在大规模 AI 存储云原生实践中,面对不同形态的业务有多种接入的方式,不能只谈最佳实践,也要契合企业本身的现状。而JuiceFS更多的价值在于基于统一的存储底座,灵活适配多种接入模式,使架构既能契合业务特点,又能在演进中保持性能与可扩展性。
〇 分享亮点 〇
1、AI 训练关键场景的 I/O 模式与存储挑战
2、Kubernetes 环境中的大规模数据集群存储挑战
3、JuiceFS 及其 CSI Driver 的架构设计
4、案例: Kubernetes 集群运维实践
5、QA
在数字化转型浪潮中,实时计算与业务数据服务化已成为企业释放数据价值、驱动业务创新的关键路径。AI技术的引入也将为数据质量治理与平台化服务注入新动力,通过智能算法提升数据准确性、一致性和可用性,助力企业实现数据驱动的精准决策。
该领域最显著的特征是技术融合与协同发展。实时计算和离线批处理的界限将进一步模糊,流批一体化架构将成为主流。企业不再满足于将数据处理分为实时和离线两个独立的流程,而是追求在一套统一的计算框架下,既能处理实时流入的数据,又能对历史数据进行高效的批量分析。这种融合不仅提高了数据处理的效率,降低了系统的复杂性和运维成本,还使得企业能够更全面地洞察数据,从实时的动态变化到长期的趋势演变,实现对业务的全方位监控和决策支持。
业务数据不再局限于单一的结构化形式,而是涵盖了文本、图像、音频、视频等多种模态。实时计算需要具备处理这些多模态数据的能力,并将其与业务逻辑深度融合。这种融合更好的服务于业务场景,精准预警、实时分析、迅速相应。
本专场将深入探讨通过大数据基础技术、基建优化以及AI赋能,构建高效、智能的数据服务体系。从技术底层出发,剖析实时计算引擎的架构演进与性能优化,分享流批一体、湖仓架构等前沿技术实践;同时,结合大数据基建的资源调度与成本管理,探讨如何打造高可用、弹性扩展的数据基础设施(Agent 架构、Data Agent数据应用、数据集市、数据处理)。解读实时计算与数据服务化的落地挑战与创新路径,为数字化转型中的企业提供技术指引与实践思路。
出品人:陈昱康 bilibili大数据架构团队负责人
流批一体建设与Flink 引擎维护、优化实践
〇 分享简介 〇
当前数据和计算实时化是整个业界的趋势,自然的证明了可以产生极大的业务价值。在实时计算方向,Flink 为事实标准,也广为业界采用。为了支持丰富的业务,Flink 引擎的优化对大规模应用是不可或缺的。业界上主流趋势为流批一体,Iceberg 作为数据湖存储的事实标准被广泛用于流批一体的建设。尤其伴随越来越多的业务接入实时数据,已经采用实时数据的业务也在将更多的场景迁移到实时计算上,在降本增效的背景下,资源持续紧张已经成为常态,在这种情况下,业务特别是高优业务要求的稳定性成为一个日益严重的挑战。
基于上述背景,我们认为应该充分跟随业界的技术趋势,并结合B站的实时计算的现实和环境,从业界引入新的技术和架构设计,并充分吸收,来解决业务面临的痛点,充分发挥基础架构对业务的支撑作用。
本次分享将结合Flink 引擎建设、基于 Iceberg 的流批一体建设、稳定性保障建设等方面,帮助大数据从业者深入了解和洞悉计算实时化的最新突破和研究,为业界的实时计算方向和技术发展提供一定的参考。
〇 分享收益 〇
目标:
1、掌握B站实时计算体系架构与落地方法
2、洞悉B 站在 Flink 引擎建设、流批一体实践和稳定性建设方面的技术细节。
3、了解B站在云原生(Flink on Kubernetes)领域的探索,为技术选型与架构升级提供前瞻性指导。
成功要点:
立足 B站实时计算现实,充分利用业界的最新技术,通过技术优化,架构设计,解决实时计算面临的痛点,为业务创造价值。
启示:
通过系统性理解并精准应用新技术、新架构,结合企业实际业务场景与痛点需求,构建技术落地闭环。将技术创新与业务目标深度绑定,以场景化实践驱动技术迭代,可最大化对基础技术业务增长、效率提升与用户体验优化的核心价值,实现技术投入与商业回报的良性循环。
〇 分享亮点 〇
1、B 站实时计算介绍
2、实时计算痛点和需求分析
3、B站Flink 引擎维护和优化实践
4、B站流批一体建设实践
5、B站实时计算稳定性建设实践
6、未来规划
7、Q&A
MCP x Data:Vibe Data Processing(沉浸式数据处理)
〇 分享简介 〇
在AI原生范式的战略目标下,厘清 MCP与 Vibe Coding 的能力边界,借助AI大模型能力,更加合理地设计端到端的数据流水线,是实现“数据即算力”新愿景的关键。
火山引擎 AI 数据湖 LAS(Lake for AI Service),将大数据技术沉淀,融入 AI 场景,其在MCP与Vibe Coding领域结合行业深入的数据探索,可解决用户使用大数据产品的诸多难题,自由拼装出符合业务需求的数据流水线。重塑了从数据摄取、治理、特征工程到模型训练、推理、迭代的整条价值链,让数据科学家和算法工程师第一次可以用“搭积木”的方式自由拼装端到端的数据流水线。助力上游模型训练与应用落地,成为新时代的AI原生解决方案。
本次分享将深入拆解 以 AI 原生视角重塑数据价值链,从异构数据秒级入湖、Serverless 弹性计算、到基于 MCP 的可观测,最终让数据流水线像调 API 一样简单。同时,展望 AI 数据湖在AI大模型时代的演进蓝图。
〇 分享收益 〇
目标:
1、了解AI时代下多模态数据处理的新方案
2、了解LAS结合MCP技术在数据管理、数据处理、模型训练上的实践
成功要点:
大语言模型与数据增强技术的深度耦合显著加速了大数据处理范式在AI系统研发场景的工程化落地,同时,模型驱动的数据反哺机制重构了数据治理与价值闭环。
启示:
作为构建AI Coding(智能编程)的底座,全栈数据管理将推动开发者生态向更实时、更开放的方向演进,决定数据处理平台能否在《代码即数据》时代持续保持高可用。
〇 分享亮点 〇
1、背景:AI时代带来数据存储、管理、计算的变革
2、面向AI时代的数据湖整体方案:LAS与Vibe Data Processing
3、Vibe Data Processing技术架构
4、MCP 技术方案与链路
5、DEMO_PROJECT如何与IDE深度融合
6、一站式数据管理与数据处理解决方案
7、MCP x DATA技术与业务生态展望
8、演示如何使用
9、QA
企业数据集市建设实践与应用探索
〇 分享简介 〇
在企业数字化转型加速的背景下,金融企业经营在由产品销售视角转向客户经营视角的同时,普遍面临数据分散、标准不统一、应用场景割裂等挑战。传统数据管理模式难以支撑精准客户画像、智能运营决策、场景化产品创新等需求,业务增长诉求与数据应用之间的矛盾日益凸显,亟需构建标准统一、高效智能的数据支撑体系。
寻找数据价值之路亦是不断探寻数据与业务场景结合点的过程,数据中台化、数据应用最终离不开业务价值这个锚点。
本次分享基于微众银行企金数据集市真实案例,解析在金融领域背景下的数据底座建设和业务应用过程,同时对AI技术与数据研发、数据应用的结合实践进行探讨,帮助从业者更深的获取数据价值。
〇 分享收益 〇
目标:
1、了解数据底座与数据应用的设计和研发实践
2、了解在金融领域下的数据应用案例
3、探讨AI对数据研发和数据应用的赋能
成功要点:
实现从业务数据服务化到数据服务反哺业务的闭环,是企业数据底座与应用落地的关键。
启示:
企业数据应用的核心是寻找业务价值锚点,以此为指引,深度挖掘数据潜力,将数据转化为切实可行的业务策略与行动,助力企业实现高质量发展。
〇 分享亮点 〇
1、数据集市建设背景与挑战
2、数据底座与应用介绍
1)数据集市设计范式
2)标签和指标体系介绍
3)业务数据应用-以客户智慧经营为例
3、数据质量治理实践
4、大模型时代背景下的数据应用
5、QA
Apache GeaFlow 流图 Agent 架构设计与应用探索
〇 分享简介 〇
随着大模型技术的兴起,AI 工程技术的发展如火如荼,如 RAG、AI Agent 等。同时大模型训练对大数据工程提出了更高的要求,如数据仓库、数据湖等。
Apache GeaFlow 作为行业唯一的流图引擎,为企业未来大规模实时知识图谱的构建与分析提供了关键技术基建。同时, Chat2Graph 作为首个图原生智能体系统,增强了传统图计算系统的智能化水平。结合两者的优势,为当下 GraphRAG 技术中图谱规模受限、数据实时性偏低、推理能力不足等问题提供了新的解决思路。
本次分享深入探讨流图引擎 GeaFlow 和 图智能体 Chat2Graph 的系统设计和技术原理,以及流图 Agent 的应用解决方案,并探索「Graph + AI」融合技术的更多可能。
〇 分享收益 〇
目标:
1、了解流图计算引擎的设计与原理
2、了解图原生智能体核心设计
3、了解Graph + AI 技术结合思路
成功要点:
1、图计算基建对 AI 工程、数据湖等领域有深远价值。
2、善用符号主义,能为 AI 推理效果提升带来新思路。
启示:
Less Structure, More Intelligence; More Graph, Less Hallucination.
〇 分享亮点 〇
1、Apache GeaFlow 流图计算原理
2、Chat2Graph 图原生架构设计
3、流图 Agent 的构建与应用
4、Graph + AI 未来展望
5、QA
众安Data Agent数据应用落地实践
〇 分享简介 〇
大模型作为AI领域的一次重要突破,带来了一种新的技术变革趋势,而企业级的智能体成为大模型应用的主流形态,各类场景化的数据垂类Agent将成人类的工作伙伴。通过数据智能体可以把数据资产、知识体系、决策规则进行整合从而构成独特的技术护城河。
众安作为金融企业,首先需要考虑的就是数据的安全性,随着DeepSeek的横空出世,借助本地化的DS可以解决金融机构的数据安全问题,从而可以加速AI的快速落地,而为企业数据决策服务的数据智能体首当其冲,DataAgent实现大模型,数据,平台,分析能力的融合,通过自然语言处理实现了普通用户与复杂数据的无缝交互,能够通过意图识别理解用户需求,借助大模型自动生成数据查询语句,使用数据平台获取数据,成为易于理解的方式展示结果。
本次分享深度解析DataAgent在众安的数据应用实践,以完整链路、关键技术点,全面剖析使用AI降低数据使用门槛,释放数据价值,帮助千行百业的企业沉淀分析经验。
〇 分享收益 〇
目标:
1、了解数据智能体搭建的完整链路
2、了解做好数据智能体的核心能力
3、了解在金融领域下的AI应用案例
成功要点:
找准问题导向的核心场景,依托高质量知识库提升取数准确性;引入Prompt优化机制,构建可控、可调、可迭代的机制是企业数据智能体落地的关键。
启示:
拥有LLM 不等于有智能体,关键在于是否把“LLM能力+数据知识库+执行工具”整合成完整闭环,Prompt工程、任务规划、执行链路设计都是产品工程能力,初期回答不准是正常的,但要有机制实现数据飞轮。
〇 分享亮点 〇
1、数据智能体的架构思路
2、数据知识库的落地方案
3、关键数据场景实践案例
4、QA
从实时多租户到向量数据湖:AI原生应用生命周期中的数据基建服务化演进
〇 分享简介 〇
在数据基建中注重数据与模型的紧密结合,根据模型的需求进行数据的预处理、特征工程等操作,会使数据更好地适配模型训练和推理,提高AI应用的性能和效果。服务化的数据基建有着预先构建好的组件和功能模块,便于搭建数据处理和存储的基础架构,可快速获取所需的数据资源并开展应用开发,大大缩短了项目的开发周期,使AI应用能够更快地进入市场。同时,将复杂的数据操作封装成服务,简单API调用,降低开发的技术门槛和难度,使开发者能够更专注于业务逻辑和AI模型的开发,提高了整体开发效率。
AI原生应用演进呈现两阶段特征:初期通过实时多租户服务获取海量用户,对数据库的并发、隔离、成本提出挑战 ;成熟期则利用积累的海量向量数据训练模型、构筑壁垒,需要PB级数据处理能力,都大大超出了传统向量数据库的设计范畴。Zilliz视其为连续的“数据基建服务化”过程 。Milvus正在演进为同时支持从大规模多租户的在线计算引擎,也能够作为向量数据湖助力产品迭代,以统一架构支撑AI应用全生命周期。
本次分享将剖析Milvus通过云原生架构、创新的多租户解决方案及向量数据湖技术为AI应用提供服务化、可演进的数据基础设施。让企业获得践行落地的多租户方案设计模式与性能调优方法实践。
〇 分享收益 〇
目标:
1、通过向量数据库的演进,了解AI应用全生命周期的“数据基建服务化”。
2、了解向量数据库作为未来AI技术栈核心支柱的演进趋势。
3、通过架构优化大幅提升系统稳定性与效率,了解支撑大规模实时计算服务的关键架构设计与工程实践。
4、通过真实案例讲述从在线计算到离线查询的数据服务化场景。
成功要点:
1、面向大规模模型训练的“向量数据湖”设计理念,可开放架构与大数据生态集成,平衡成本与性能。
2、服务化的数据基建有利于促进产业链上下游企业之间的协作和创新。通过开放的数据接口和共享平台,不同企业可以共同参与到数据生态的建设中,实现资源共享、优势互补,共同推动AI技术在各行业的应用和发展,加速产业的数字化转型和升级
启示:
1、数据基建服务化优化资源、促进数据的共享和资源的复用。不同应用可以共享同一数据基建服务,避免了重复建设和资源浪费,提高了数据的利用率和价值。也方便了企业内不同部门之间的协作和数据流通,打破了数据孤岛,提升了企业的整体运营效率。
2、帮助企业避免后期昂贵的架构重构,构建统一与可演进的AI数据平台,支撑业务从实时服务到模型训练的平滑过渡,让企业获得践行落地的多租户方案设计模式与性能调优方法实践。
〇 分享亮点 〇
1、向量数据库简介
2、AI原生场景的数据服务化生命周期:从在线到离线
3、多租在线计算场景带来的挑战
4、向量湖应对海量模型训练数据
5、复杂的搜索方式和DataModel解决多模态难题
6、QA
大数据离线引擎架构和智能化提效实践
〇 分享简介 〇
企业数据量增长和降本增效的背景下,构建稳定高效和智能化的离线计算引擎已成为大数据基础设施的核心竞争力。云原生、慢任务的根因诊断和优化,正成为离线引擎发展的关键挑战和共同趋势。面对上述业务和趋势带来的挑战,企业应意识到,在实践中,SQL Shuffle的性能和稳定性瓶颈制约云原生落地,慢任务诊断高度依赖专家经验并且效率低下。
因此,企业选择深度参与开源生态和自主创新的策略,一方面,参与社区Apache Uniffle项目的开发,主导和贡献了其中的Tez模块代码,推动高性能Remote Shuffle服务的成熟与落地,为云原生落地扫清关键障碍。另一方面,自主研发智能诊断系统,彻底变革传统依赖人工的低效诊断模式,在夜间核心任务OnCall、白天每日止血、日常用户答疑等场景显著节省人力成本并提升运维效率。这些都代表了企业在解决行业共性痛点上的深度思考和落地实践。
本次分享货拉拉在离线引擎发展历程中,Remote Shuffle的设计理念和落地实践,自动诊断的核心技术和最佳实践。为同行提供可借鉴的落地经验和方法论。
〇 分享收益 〇
目标:
1、了解货拉拉离线引擎的发展历程,以及期间遇到的痛点和解决方案。
2、了解Remote Shuffle在离线引擎的落地,以及技术难点和技术细节。
3、了解AI与自动诊断的结合和落地实践,以及方案的思考和AI使用场景。
成功要点:
1、通过与Apache Uniffle社区共建实现Tez Shuffle功能,既站在巨人肩膀上避免重复造轮子,又回馈代码方案促进社区发展,更重要的是通过技术创新实现Tez模块。
2、企业的自研创新需结合公司业务痛点,自研慢任务诊断系统,来提升诊断和工作效率,可改变依赖人工专家经验的低效运维模式。
启示:
聚焦公司降本增效的目标,采取社区共建与创新自研的方式,既避免重复造轮子,又发挥技术专业能力,加速离线计算引擎的升级迭代。
〇 分享亮点 〇
1、业务背景
1)分享货拉拉大数据和离线引擎框架
2、. 建设实践一:Remote Shuffle Service
1)解析项目背景
2) 分享建设过程:和Apache Uniffle社区共建、代码开发
3、建设实践二:自动诊断
1) 分享项目背景和痛点
2)分享项目自研过程、架构等技术细节(和AI结合)
3)分享项目上线收益和业务价值,供同行参考引擎演进方向。
4、QA
多模态LLM作为AI迈向AGI的关键路径,正通过整合文本、图像、音频、视频等多模态数据,重塑AI技术的边界。其凭借丰富的应用场景、活跃的算法创新与持续的数据累积,也展现出巨大潜力和挑战。
多模态LLM的未来将呈现“技术统一化、应用垂直化、部署轻量化、治理规范化”的特点。其核心挑战在于平衡性能与成本、解决数据稀缺性,以及实现深度语义理解。随着硬件算力提升与跨学科协作深化,多模态大模型有望接近人类水平的综合感知能力,成为推动社会智能化转型的核心引擎。
在应用层面,多模态大模型深度渗透至智能交互领域,华为等智能眼镜重新出发,体验大幅提升;多模态智能客服让语音助手与智能客服的沟通更自然流畅;AI设计赋能内容创作,为影视、游戏产业高效输出多元素材;在智能辅助场景中,既能帮助残障人士感知世界,又能提升办公自动化效率。此外,在医疗、教育、电商、金融等行业,多模态大模型同样发挥关键作用,实现了医疗影像分析、智能辅导、虚拟试衣等功能。
在算法创新方面,谷歌Gemini, Deepseek VL-2,Qwen-VL新的模态融合方法不断涌现,跨模态学习深化了模型对多模态数据的理解、强化学习(RLHF)和指令微调(MM-IT)深化了模型对复杂指令的响应能力,解决长尾场景的泛化难题。同时,模型架构持续优化,通过增大输入分辨率、引入混合专家架构等方式提升性能;预训练与微调阶段的技术迭代,如采用优质数据与自动化偏好排序,也为模型能力提升提供助力。数据积累上,大规模多模态数据的收集与数据质量优化、标注方式改进同步推进。但多模态大模型发展仍面临诸多挑战,数据异构性增加了融合难度,跨模态对齐需突破语义关联瓶颈,模型复杂度带来计算与训练压力及解释性难题,安全与伦理问题也亟待解决。
本专场将结合行业最新研究成果与实践,探讨多模态大模型关键应用与行业上,探索模型的训练方法的优化、技术内涵、技术难点,涵盖:GUI Agent技术路线、多模态大模型OVIS、视频理解的Agentic系统、细颗粒多模态理解力、垂域领域语音大模型、教育领域多模态、具身多模态RoboBrain与RoboOS等方向议题,揭示多模态大模型在场景应用上的发展创新。
出品人:杨浩博士 华为2012文本机器翻译实验室主任
GUI Agents技术路线、问题挑战与发展演进
〇 分享简介 〇
长期以来,图形用户界面(GUI)始终是人机交互的核心,它通过直观的视觉驱动方式让人们访问数字系统并与之互动。随着大语言模型(LLM)尤其是多模态模型的出现,GUI自动化迎来了新时代。这些模型在自然语言理解、代码生成和视觉处理方面展现出卓越能力,为新一代具有LLM智能的GUI代理铺平了道路。
这类代理能够解析复杂的GUI元素,并根据自然语言指令自主执行操作,实现了人机交互的范式转变,用户通过简单的对话命令即可完成精密的多步骤任务。其应用范围涵盖网页浏览、移动端应用交互和桌面自动化等领域,彻底重塑了个人与软件的交互方式,带来变革性的用户体验。这一新兴领域正在快速发展,学术界与工业界均取得重大进展。
本次分享对具有LLM智能的GUI代理技术展开综述,深入探讨其演进历程、核心组件与前沿技术。通过整合基础知识与前沿进展,旨在为研究者和实践者提供指引,助力突破技术瓶颈,充分释放具有LLM智能的GUI代理的全部潜能。
〇 分享收益 〇
目标:
1、了解GUI Agents研究为行业带来的三重核心价值:
a) 交互革命:通过自然语言指令替代复杂手动操作,大幅降低软件使用门槛;
b) 效率跃迁:自主执行多步骤任务的能力将重构工作流程,显著提升人机协作效率;
c) 生态演进:推动从"人适应软件"到"软件理解人"的范式转换,为下一代智能操作系统奠定基础。
2、认识到GUI Agents将为人类社会带来实现数字普惠这一核心收益及其背后的巨大价值:显著降低的数字工具使用门槛,将使儿童、老年人、残障人群及技术薄弱群体都能平等享受数字化服务,从根本上推动数字包容性社会建设。
成功要点:
GUI Agents技术的广泛应用将促进公共服务智能化升级(如医疗、政务系统)、应急响应效率提升等重要社会应用场景的发展,最终构建更高效、包容、人性化的数字文明生态。
启示:
GUI Agents是人机交互和数字自动化领域的下一代范式革命,其价值在于“数字劳动力”属性,替代和辅助大量重复、繁琐、规则的计算机操作服务,从而在千行百业中释放巨大潜力。
〇 分享亮点 〇
1、分享GUI Agents的定义以及现有GUI Agents的框架模块和两大技术路线
1)基于提示的方法:利用大语言模型(LLM)执行指令驱动任务;
2)基于训练的方法:通过微调多模态模型适配特定应用,此外还将分享增强GUI Agentst性能的辅助技术。
2、 分享人近期GUI Agents相关的工作实践:UI-R1;
3、分享GUI智能体技术领域的几项关键挑战及发展演进方向,为推进GUI代理的技术发展提供重要见解。
4、QA
Ovis多模态大模型:结构对齐下的视觉语言融合
〇 分享简介 〇
近年来,大语言模型(LLM)取得了显著进展,为通用人工智能(AGI)带来了曙光。然而,纯文本信息难以涵盖人类智能的复杂性与多样性。为此,多模态大型语言模型(MLLM)应运而生,赋予模型感知和理解视觉信息的能力。目前,主流开源MLLM通常以预训练LLM和ViT为基础,分别通过索引嵌入表生成文本嵌入、通过MLP生成视觉嵌入,导致文本嵌入与视觉嵌入在结构上存在差异,影响多模态信息的深度融合。
针对这一挑战,阿里国际提出了新型MLLM架构Ovis。Ovis借鉴LLM的文本嵌入策略,引入可学习的视觉嵌入表,将视觉特征转化为概率化的视觉token,并通过多次索引加权生成视觉嵌入,从而实现视觉与文本嵌入的结构化对齐与高效融合。
本次分享将重点研讨Ovis的架构设计、训练策略、性能表现及开源进展,结合其在电商等典型业务场景下的应用案例,深入探讨Ovis在实际落地过程中的技术创新与挑战,并展望多模态大模型未来的发展趋势。给予AI从业者借鉴,共同推动智能化行业技术进步与创新实践。
〇 分享收益 〇
目标:
总结Ovis项目的核心理念和实践经验,为推动多模态AI技术的普及与落地提供有价值的参考。
成功要点:
1、架构创新:借鉴LLM的文本嵌入策略,设计可学习的视觉嵌入表,实现视觉与文本嵌入的结构化对齐。
2、分阶段训练:采用多阶段训练流程,充分利用大规模、多样化的数据集,逐步提升模型的多模态理解与推理能力。
3、开源与迭代:坚持持续开源和迭代,不断吸收社区反馈,完善模型能力,提升行业影响力。
启示:
有效的分阶段训练和数据策略,是提升模型泛化能力和实际应用价值的关键。持续开源、快速迭代及与社区共同成长,有助于技术的快速完善与行业生态的良性发展。
〇 分享亮点 〇
1、详细解析模型架构
Ovis通过创新的视觉嵌入表设计,实现视觉与文本嵌入的结构化对齐。
2、分享模型训练流程策略
Ovis的多阶段训练流程,以及如何构造多样化的训练数据,逐步提升模型的综合能力。
3、分享性能表现与典型模型能力:
展示Ovis在多个主流基准测试中的优异表现,同时呈现典型案例以直观体现模型能力。
4、开源情况与进展
Ovis从1.0到1.5、1.6、2.0的版本迭代历程及其开源情况。
5、QA
面向视频理解的Agentic系统与Infra技术实践
〇 分享简介 〇
视频理解作为当前多模态大模型应用的关键场景之一,在安防监控、体育赛事分析、教育评估及智能交通等领域具有重要的应用价值。业界当前主要聚焦于时空特征高效建模、动态冗余压缩、多模态CoT推理等核心技术方向。随着AI Agent的快速发展,Training-free方案与视频Agent的创新研究日益受到广泛关注。
当前,超长视频输入、多模态RAG融合与Agentic AI新范式带来的挑战,对视频理解技术的系统级优化以及多模态Infra在计算效率、资源优化等方面提出了更高要求。中兴通讯针对视频理解模型和智能体、配套Infra等技术领域持续深耕,通过系统性创新实现了从全栈技术突破到多场景落地的全链条最佳实践。其中,中兴通讯的技术实践主要包括下列三个要点:
(1)自研多模态大模型训练框架,支持多模态序列并行、样本packing等,从而推动模型的长视频理解能力提升;
(2)自研NebulaVideo大模型,支持视频时空定位等困难任务,可从小时级视频中精确定位事件与主体目标;
(3)设计与自研Agentic Video框架,结合开源推理大模型能力和自研的多模态RAG数据库与标准多模态Agent,免训练提升视频理解的精度和效率。
本次分享将探讨视频理解场景下,多模态大模型和相关智能体技术的算法与Infra的发展历史、技术演进趋势与中兴通讯的研发优化和应用落地的实践。
〇 分享收益 〇
目标:
1、梳理视频理解任务在多模态大模型发展过程中的关键技术价值。
1、探讨过去视频理解的技术挑战与关键突破,并指出未来可能的研究趋势。
成功要点:
在多模态训推Infra领域不断优化下,多模态大模型SFT、强化学习和Agentic AI等算法方向持续的创新,才得以发展出一套成熟的面向视频理解的多模态算法与应用框架。
启示:
推动视频理解能力提升,要从数据构建与结构化、模型架构与训练推理范式演进、训推Infra加速和应用场景赋能等多个方面协同创新。
〇 分享亮点 〇
1、视频理解任务的核心价值与发展历程
2、多模态大模型处理视频的范式发展与对比
3、中兴在视频理解算法及Infra上的技术实践
4、中兴在视频理解场景的行业应用实践
5、视频理解技术趋势与展望
6、QA
细粒度多模态理解能力探索
〇 分享简介 〇
随着大模型技术的突破,智能交互系统在技术层面实现了显著革新,相关应用领域进入了爆发式增长阶段。以DeepSeek、通义千问、豆包等为代表的前沿实践,不仅推动了多模态模型在语义解析和跨模态对齐方面的能力跃升,更通过多模态感知与生成技术的融合,为扩展大模型的应用边界提供了新机遇。
多模态大模型对互联网领域的大量多模态数据(如图像和文本),进行处理,衍生了大规模图像、文本对齐的需求。传统跨模态CLIP模型虽在全局语义对齐上表现优异,却难以捕捉图像与文本中局部细节的微妙差异(如纹理、姿态、属性关联),这限制了其在互联网图文检索、开放世界目标检测、细粒度理解等领域中的广泛应用。
本次分享将探讨细粒度图文对齐方法,包括模型结构设计、数据构建、特征工程等,并展示其实验结果与可视化分析,验证其在图像文本检索、开放世界目标检测等任务中的优越性能。为AI从业者更好的探索深层次的多模态理解。
〇 分享收益 〇
目标:
1、了解多模态理解的技术现状
2、学习细粒度图文对齐的方法解析
3、结合行业场景案例分析,学习评估和改进现有的多模态模型,提高在下游任务中的性能。
成功要点:
利用多模态大模型反哺跨模态图文对齐能力,通过多阶段多层次数据训练提升模型细粒度多模态能力
启示:
细粒度多模态理解是互联网搜索、智能监控场景下的一个未来趋势,通过与最新的LMM技术结合衍生的跨模态基座模型是实现这一目标的核心方法。
〇 分享亮点 〇
1、细粒度图文对齐的模型方法
2、基于基于大模型的长描述样本生成:从“短文本”到“细粒度语义”
3、高质量区域对齐与难细粒度负样本工程:从“简单对比”到“语义区分”
4、实验成果验证与多维可视化洞察
5、QA
语音大模型在垂直领域中的应用与落地
〇 分享简介 〇
多模态大模型在垂直领域中的应用趋势呈现出多元化和深入化的特点。以往文本大模型结合行业知识库、模型微调、提示词工程等低成本技术,推动了垂直领域的轻量化应用。同时,视觉和语音模态的突破更拓展了应用的边界,多模态大模型正加速融合语音、视觉能力,驱动交互升级,在营销、智能客服等场景催生出丰富多样的交互体验。与此同时,轻量定制化设计的引入,则为医疗、司法等高专业性领域精准赋能。
在语音模态上,尤其是随着GPT-4o等模型的发布,语音大模型迎来爆发式增长。众多企业在探索应用时,都普遍存在一个核心痛点:突破“闲聊”的局限,将语音大模型技术能力真正落地到具体的垂直行业场景中,解决业务难题、创造实际价值。企业可聚焦语音大模型三大核心能力:识别、合成、理解与对话,进行了深入的行业场景实践探索,通过具体项目验证了可行性,积累可复用的落地方法与实践经验。解决语音大模型行业难点。
本次分享将聚焦语音大模型这“三大能力”展开,深入探这些能力赋能于不同行业的具体业务场景,并结合实践经验,着重分析落地过程中面临的关键挑战、风险与可行的解决思路,为构建可落地、有价值的行业语音智能应用提供一些专业性参考。
〇 分享收益 〇
目标:
1、了解当前端语音大模型几种关键形态和核心功能
2、在端到端语音大模型范式下,在实际项目中高效落地相关方案;
成功要点:
1、识别大模型可实施热词、可定制领域语言模型,有效解决识别大模型定制成本高的特点。
2、Multi-Token Prediction:通过多token预测技术提高语音合成大模型的预测速度,降低部署成本。
3、主语种和少量语料其他语种数据交叉混训,充分利用基模的语言迁移能力。
启示:
模型可实施,可定制,可迭代仍是行业应用的关键要素,在端到端模型的基础上可以沿用部分之前传统方案来辅助,均需要从业务需求充分挖掘基座模型的潜在能力,方可构建专业完美模型。
〇 分享亮点 〇
1、分享语音大模型当前演进方向与趋势
2、语音识别模型应用实践
通过语音识别大模型提升销售效率,结合传统识别技术助力语音识别大模型高效落地实施;
3、语音合成大模型与应用实践
以AI销售对话场景为例,展示语音合成大模型打造沉浸式购物体验,减少语音合成大模型的部署成本;
4、语音对话模型应用实践
结合多方言翻译软件场景,探讨语音对话大模型的应用价值、端到端实施的痛点及优化思路。
5、QA
多模态Agentic 教育领域落地应用实践
〇 分享简介 〇
多模态大模型教育落地作为当前行业最具挑战也最具价值的场景之一,其技术演进正深刻重塑“教-学-评”全链路。业界当下聚焦于模态对齐、跨模态推理与隐私计算三大硬核方向;随着通用智能体(Agent)的兴起,Training-Free 自适应与边缘-云协同架构正成为突破算力与合规瓶颈的关键。
超长序列同步、多模态RAG 检索与 Agentic AI 的新范式,对教育场景的实时性、准确性及合规性提出系统级挑战。已形成从算法、框架到 Infra 的全栈闭环实践,核心提炼为三大要点:
1. 基于 DeepSpeed 的训练框架:在 DeepSpeed ZeRO-3 与序列并行基础上,自研异构对齐、差分隐私训练插件,显著降低推理和合规成本;
2. 以 Phi 为基座的大模型:在 Phi-3.5-vision 之上引入 Cross-Attention 细粒度对齐与 RAG-Plugin,可在超长图文上下文基础上在特定领域实现高可信度易用;
3. Edu-Copilot Agent:零训练集成 Edu-Copilot 与校内边缘知识库,通过链式 CoT 与多模态工具调用,实现“自动化备课-个性化授课-自动评测”全链路自适应。
本次分享将系统回顾多模态大模型在教育场景下的算法-Infra 协同演进,并深度解析从核心技术攻关到真实课堂规模化落地的全链条最佳实践。
〇 分享收益 〇
目标
1. 用技术视角梳理在多模态大模型演进中的关键价值与拐点。
2. 复盘过去多模态理解的技术挑战与关键突破,尤其是低容错场景下的引用优化,给出下一步可落地的研究路线。
成功要点
在 DeepSpeed ZeRO-3 序列并行、差分隐私 CUDA kernel 等训推 Infra 持续优化下,才让 Phi-3.5-vision 的 SFT、强化学习与 Edu-Copilot Agentic AI 的算法创新,真正在课堂场景跑通“长视频-长文本-多传感器”一体化闭环。
启示:
多模态Agentic 教育领域成功落地,需要打通一个端到端的闭环,这个闭环始于将原始多模态数据转化为可解释、安全的训练集的数据工程,贯穿于对Phi+Cross-Attention架构、训练及推理范式的持续迭代,并依赖于边缘-云混合基础设施的加速,最终以教师端Agent这类应用的成功落地来检验其价值。
〇 分享亮点 〇
1、从“智能批改”到“全链路 AI 助教”的演进:长序列、多模态、合规性
2、典型方案对比::BERT-ViT、BEiT-3、GPT-4V、Phi-3.5-vision、Edu-Copilot 架构
3、大模型算法与训推 Infra 深度拆解(基座,框架,推理)
4、多模态Agent行业落地实践
5、垂直大模型技术趋势与展望
6、QA
具身多模态大脑大模型RoboBrain与具身跨本体框架RoboOS
〇 分享简介 〇
随着AI技术的快速发展,智能机器人正从实验室走向产业化应用的关键节点。当前企业面临的核心痛点在于:传统机器人系统在复杂开放环境中缺乏可靠的空间理解能力,故障检测多采用被动响应模式,多智能体协作存在系统性瓶颈,从感知到决策的端到端智能化程度不足。这些技术局限严重制约了机器人系统在工业制造、服务场景中的大规模部署和商业化进程。
基于对具身智能技术发展趋势的深入思考,我们提出了全栈技术解决方案的研究路径。通过构建RoboBrain 2.0异构基础模型、RoboRefer空间推理技术、RoboOS协作框架和Code-as-Monitor故障预防机制,形成了从感知、推理、执行到监控的完整技术栈。这一研究突破了传统分割式技术发展模式,实现了系统性的技术整合创新。
本次分享旨在展示智能机器人系统全栈技术演进的最新成果,分析从实验室技术到产业化部署的完整路径,探讨通过技术创新解决当前行业痛点,为具身智能的产业化提供可行的技术方案和实践经验,推动机器人技术向更高可靠性、更强适应性的方向发展。
〇 分享收益 〇
目标:
1、了解AI和机器人行业提供系统性技术整合的方法论,
2、通过全栈技术架构的成功实践,解决技术孤岛问题,为行业提供从单点技术突破向系统性能力构建转变的参考路径。
3、探索具身智能产业化的企业提供技术选型、架构设计和工程落地的完整解决方案,加速行业从实验室技术向商业化应用的转化进程。
成功要点:
1、系统性架构设计:通过7B+32B双版本模型的差异化部署和分层解耦设计,实现了成本性能最优平衡并避免了传统单体架构的性能瓶颈。
2、范式转换的彻底执行:将被动故障处理转变为主动预防机制,通过Code-as-Monitor将故障检测抽象化,并针对3D空间理解和多智能体协作的核心痛点实现精准技术突破。
3、工程化落地的严谨实施:采用数据驱动的双重验证和渐进式部署策略,从核心模块到完整系统分步实施,有效降低工程风险确保技术方案稳定落地。
启示:
1、RoboBrain与RoboOS为具身智能系统产业化带来的价值是系统性和革命性的。构建了从技术验证到商业部署的完整实施框架,为类似项目提供了可操作的落地指南。同时,通过主动式故障预防和异构部署策略建立了有效的风险控制机制,为大规模具身系统的稳定运行带来可靠保障。
2、RoboBrain与RoboOS结合可以成为机器人的“Windows+GPT”时刻,一个统一了硬件底层的操作系统,加上一个赋予其认知和理解能力的超级大脑,共同引爆机器人行业革命。
〇 分享亮点 〇
1、异构架构设计在复杂AI系统中的应用实践:RoboBrain 2.0双版本模型(7B轻量级+32B全功能)的差异化部署策略
2、三维空间推理技术突破传统VLM局限性: RoboRefer通过专用深度编码器实现精确空间指向推理的技术原理
3、主动式故障预防的范式创新与工程实现: Code-as-Monitor将故障检测转换为时空约束满足问题的创新思维
4、多智能体协作框架的系统性解决方案: RoboOS层次化具身框架实现跨具身适应和动态任务分配。
5、QA
企业级AI Agent的价值创造,将从“效率提升”表层,深入到“模式创新”的核心层。它从一个工具演进为数据核心资产和竞争壁垒,它将是CEO、业务领导者,从战略高度审视的、驱动数字化重塑的核心力量。
在当前数字化转型和人工智能的浪潮中,企业级AI Agent正成为各种行业的关键驱动力。这些智能代理通过结合大型语言模型(LLM)专用算法,能够自动执行复杂任务、分析海量数据并提供智能建议,帮助企业实现数字化、自动化、低成本、高精度的服务。
在客户服务领域,AI Agent可以全天候提供实时支持,解答用户疑问并提升整体客户体验。在制造业,它们可以优化供应链流程、预测设备维护需求,降低运营成本。在金融服务行业,AI Agent能够进行市场趋势分析、风险评估以及个性化投资建议,助力决策者做出明智选择。通过集成到企业的现有系统中,AI Agent不仅提高了效率,还增强了业务连续性和创新能力。随着底座大模型和AI生态相关技术的不断成熟,企业级AI Agent将会更广泛地应用,从而推动新一轮的商业变革。
本专场将邀请行业头部专家,深度解读企业级AI Agent实践场景应用,涵盖:多层级智能体构建、人力AI Agents、Agent生成式营销、金融客服体多Agent协同、AI原生企业编排Agent、解析Strands Agent深度技术、垂域领域智能问数AI Agent方向议题,为各行业带来最有价值的借鉴,共同推动企业LLM大规模应用落地。
出品人:陈祖龙 阿里巴巴企业智能算法负责人,资深算法专家/韩艾博士 京东集团算法总监、京东零售数据与算法通道委员
基于OxyGent的企业级多层级智能体的构建与优化
〇 分享简介 〇
企业智能体开发面临门槛高、效率低、多智能体协作弱、决策可视化不足及缺乏评估进化闭环等挑战,传统方法难以应对动态复杂场景,制约业务创新。
现有智能体框架多为“1拖N”架构,扩展性和稳定性受限。OpenAI Agents SDK易用性佳,AutoGen强于可视化,LangGraph扩展性好,但尚无全能框架,且缺乏开发-部署-进化的完整闭环。
本次分享深入探讨OxyGent多智能体协作框架,通过原子算子(Oxy)实现灵活扩展,结合决策可视化与“构建-推理-进化”闭环,促进多维度工具召回及SFT/强化学习优化。同时,基于四大基础动作解耦业务需求与通用能力,并通过双层动态图工具网络和ReCoT逆向思维链解决大规模Tool Calls落地难题。以此多层智能体构建,为企业智能化提供最前沿的实践参考。
〇 分享收益 〇
目标:
1、了解业界前沿、先进的多智能体协作框架
2、了解以业务需求和能力为基准的多层智能体构建实践
成功要点:
1、传统方法难以应对动态复杂业务场景,企业智能体开发面临高门槛、低效率、协作弱等挑战,OxyGent框架以模块化设计、决策可视化和闭环进化机制,显著提升开发效率和系统稳定性,助力企业智能化转型。
2、多智能体框架在POP、自营等业务场景落地,以模块化设计和业务解耦能力降低开发门槛,整体可复用的智能化实践范例,为推动业务创新与高效运营得以借鉴。
启示:
OxyGent的原子算子(Oxy)灵活扩展特性,将多智能体决策可视化和“构建-推理-进化”完整闭环。创新的双层动态图工具网络和ReCoT逆向思维链技术,有效解决大规模Tool Calls落地难题。
〇 分享亮点 〇
1、行业痛点与智能体开发挑战
2、智能体开发框架现状对比分析
3、OxyGent框架创新架构与核心能力
4、OxyGent在企业级场景的落地实践
5、未来展望与企业智能化建议
6、QA
智力资源的双重重塑:人力资源视角下的AI Agents
〇 分享简介 〇
AI正在进入内外部招聘流程,也正在进入人的能力模型。人与AI的双向进化,正在共同塑造新一代的企业智力体系。HR领域 多年以来一直有着“从资源视角看人”的倾向,所以才有“人力资源”或“人力资本”的提法。如果我们把人力资源简单分为人力体力资源和人力智力资源的话,AI Agents 可以被看作一种“新加入的智力资源”,“新旧资源”之间必然会形成竞争与合作并存的关系,在这个动态竞合过程中,AI Agents在不断被人们调整和塑造的同时,也将不可避免地重塑已有的“人力智力资源”,此所谓双重重塑。
企业构建招聘场景下的多种智能体项目实践中, 不仅HR的相关流程与能力模型在被智能体重塑,更将影响用人经理、技术Leader乃至每位求职者的行为边界与认知方式。直接表现是,智能体将会影响人如何定义“岗位需求”、如何进行“人才发现”与“人才判断”,甚至如何思考“组织构成”。
本次分享通过以“招聘场景下的智能体”的设计与演化为切入点,讨论技术实现的核心挑战、通用框架,以及实质性推动企业“人力智力资源”的重塑和演进。
〇 分享收益 〇
目标:
1、探索AI Agents作为“智力资源”参与招聘全流程,重塑人岗匹配、人机协作、组织结构认知。
2、为技术产品团队提供智能体在企业应用中落地与演化的参考范式。
成功要点:
1、以终为始,为交付结果而设计,避免过度设计的陷阱。
2、通过岗位与人才画像结构化建模,构建智能体的“理解力”基础,建立高质量数据上。
3、上下文工程+记忆机制,实现“越用越准”的AI副手。
4、避免讨好型人格设计,打造真正可信任、可协作的AI Agent。
启示:
1、人机关系正在转向“共建智力生态”,不仅仅是替代或工具。AI Agent的设计要关注协作接口、认知边界与情感连接。
2、技术同质化且竞争激烈的背景下, 人的情感与归属感是产品的高级护城河。可更多关注”性格+记忆”的工程实践。
〇 分享亮点 〇
1、分析从资源管理到智力协同的范式转变趋势
AI Agents不是工具,而是正在成为组织中的“智力资源”新成员。
招聘场景,正是人机协作的“前沿试验场”。
2、真实落地:五大典型场景案例穿透抽象概念
1)简历筛选、自动沟通、AI测评、面试辅助、内部人才搜索
2)每个案例都体现“人如何用AI”,以及“AI如何反塑人”的双向关系
3) 不只是“替代”,而是行为方式与决策逻辑的重构
3、技术方法论:支撑智能体演化的底层工程能力
1)上下文工程:让AI真正“懂业务”“懂岗位”“懂组织”
2)记忆工程:让AI具备可成长的个性和稳定协作的能力
3)人机接口设计:强调多轮澄清、人格约束、决策透明等信任机制
4、认知升级:AI推动“人”的能力模型与组织角色再定义
1)从“执行任务”转向“定义任务+调度智能体”
2)每位员工都将成为一个“AI调度者”
3) AI的普及正在提升组织的“协作密度”与“智力杠杆率”
5、总结
6、QA
智能Agent在生成式营销中的落地闭环
〇 分享简介 〇
在生成式AI迅猛发展的当下,营销行业正面临前所未有的剧烈变化:内容需求倍增、生命周期缩短、平台生态加速演化,企业普遍面临内容产能不足、策略分散、效果不确定等落地困境。我们观察到,单靠内容生成已无法应对“从洞察到转化”的营销挑战。
面对媒体环境变化与内容竞争加剧,生成式营销正从“爆发式尝试”进入“系统化演进”阶段。围绕这一趋势,大模型与智能Agent在营销感知、认知与行动各环节中的协同角色,可以形成一套完整的“智能Agent驱动的生成式营销落地闭环”理论与实践体系,可为多行业系统案例给出成功的验证。
本次分享基于感知+认知+行动三位一体的系统性框架,借助智能Agent从内容洞察、创意生成到精准投放,实现真正意义上的自动化营销落地,助力企业打造构建更具演化力的营销能力。
〇 分享收益 〇
目标:
1、围绕“感知-认知-行动”智能体框架,剖析构建企业专属的内容智能体,提升内容生产效率、优化投放效果、强化策略闭环,为行业提供一套可实践的智能化内容运营路径。
2、帮助企业从流量焦虑走向内容驱动增长,构建自己的AI内容生产与投放闭环。
成功要点:
1、智能体的落地需要内容技术与业务逻辑的深度融合,通过构建覆盖社媒、用户、竞品的感知系统,提升内容洞察力;
2、通过训练企业私域认知模型,增强内容判断与策略适配能力;还需要借助智能体实现创意剧本生成、视频混剪和RTA智能投放,推动内容从创作到执行的全链协同。
启示:
通过构建具备“感知—认知—行动”能力的营销智能体,企业能够更敏捷地响应市场变化,实现内容的高质量规模化生产与智能投放。同时,验证在AI智能体快速发展的背景下,生成式营销不再是AI工具堆砌,而是基于数据、模型与机制协同下的系统性演化路径。
〇 分享亮点 〇
1、分享营销环境的变化和营销智能体趋势
2、解析营销智能体机制:
3、经典行业案例验证营销智能体价值:
4. 新营销时代中持续演化Agent展望。
5、QA
重构金融客服体验:大模型与多Agent协同的全场景跃迁实践
〇 分享简介 〇
在金融业数字化加速的背景下,传统客服面临体验割裂、长尾需求难覆盖、人效瓶颈等核心挑战。企业通过系统性解析大模型与多Agent协同技术,构建覆盖客户服务全生命周期的智能化跃迁方案:从进线前的意图预测与主动服务,到进线中的多Agent任务协同与复杂决策,直至人工坐席端的Copilot实时赋能,可主动实现从“被动响应”到“主动关怀”、从“单点提效”到“全链路重构”的智能体验升级。
从用户进线前,主动服务引擎通过分析行为数据预测意图,精准介入办理流程卡点、账务异常等高价值场景,从源头降低问题发生率;从用户进线后,多Agent智能中枢依托路由中枢动态调度问题咨询、信息查询、操作指引、任务处理等专业化Agent集群,实现跨产品、跨渠道的复杂需求一站式解决;从服务转接人工时,坐席Copilot系统基于前期交互自动生成工单,提供前情诊断、用户关注点聚焦的决策建议与合规话术,赋能坐席从执行者升级为决策主导者,均可构建全流程智能化闭环。
本次分享将深入解析大模型与多Agent协同技术驱动的全场景智能化跃迁实践,将结合金融机构的落地案例,揭示技术如何驱动服务效率、用户体验与业务价值的三重跃迁,为行业提供可复用的智能客服升级范式。
〇 分享收益 〇
目标:
1、了解全场景重构方法论:掌握金融客服“预测-协同-赋能”三阶跃迁的完整技术路径,覆盖从用户未进线到人工服务的全链路闭环设计。
2、掌握多Agent落地实战策略:获取可复用的Agent分工架构(路由/业务/决策Agent协同模式)及金融合规性保障方案,规避技术踩坑。
3、效能提升量化证据:基于金融机构案例,验证主动服务降低进线量、Agent中枢提升解决率、Copilot缩短处理时长等核心指标。
成功要点:
本方案的成功非依赖单一技术突破,而源于:精准场景解构 × 原子化Agent能力 × 闭环数据驱动 × 合规深度嵌入,四位一体构建的技术协同体系,其经验可快速迁移至医疗、保险、政务等高合规要求场景。
启示:
构建“预测-协同-赋能”的全流程智能化闭环,将客服系统从成本中心升级为持续创造体验价值与业务增长的核心引擎。
〇 分享亮点 〇
1、破局点:金融客服的体验困局与智能化机遇
2、技术底座:大模型驱动的多Agent协同架构设计
3、全场景跃迁实践:从预测到闭环的智能进化
4、未来展望:从能力构建到生态赋能
5、QA
AI as Service:跨越AI编程的AI原生企业编排Agent
〇 分享简介 〇
多数企业的业务应用上线都是基于独特的框架、知识体系构建程序提供相关的工具和服务出来使用,普遍情况下从业者通过低代码、AI生成代码来提升效率,快速开发出一个企业需要的功能或工具出来。但,很多大企业只要是开发功能就需要走一系列的上线流程,效率是亘古不变的难题。
每家企业内部有着大量独立的知识体系和系统架构,通用的智能体仅在通用办公等场景下使用,导致企业内部自研的应用基本无法使用,这意味着通用大模型同样缺乏企业内部知识库,难以理解企业内部知识信息。
本次分享企业智能编排Agents,其构建基于MCP工具、数据元素信息、数据、企业内微服务来实现。通过Multi-Agents,将微服务、数据服务结合、并穿插相关的企业自定义工具,让AI智能编排整个服务。该智能体还可通过不同的任务拆解解决企业的权限问题、业务逻辑的执行的问题、以及提升执行的效果。原本需要通过代码实现的业务逻辑通过AI直接编排串联出来,并执行相关的工具服务,做到自然语言即应用的效果。
〇 分享收益 〇
目标:
1、构建企业AI Agents解决复杂业务场景执行正确性的问题
2、提升AI Agents识别MCP工具的准确率
3、改善交互提升用户体验和弱化使用者自然语言提示词复杂度的问题
成功要点:
通过分层、向量检索用来保证AI在企业应用中工具识别准确性,以及元数据的精准管理及优化交互体验可以大幅提升AI的效果。
启示:
一个好的企业Agent需要的能力不仅仅是AI,更是工具、交互、环境的精雕细琢。
〇 分享亮点 〇
1、 企业应用的常用做法
2、 构建企业Agent的困难
3、 AI Agent构建主要思路
1)提升MCP工具准确性与可配置化
2)元数据和服务的管理与智能化
3)AI可执行环境空间
4) AI引导性交互的实现
4、 企业Agent的未来之路
5、 QA
告别复杂工作流,Agentic AI重构开发新范式
〇 分享简介 〇
传统Agent框架强制预定义工作流,不仅开发体验割裂、迭代缓慢,还无法充分释放现代LLM的自主规划能力,特别在构建多Agent协作系统时更显臃肿与低效。
AWS开源的Strands Agent代表了Agent开发的范式转变,从复杂的工作流编排转向现代化的Model-Driven架构。通过深入研究现代LLM的推理、规划和自我反思能力,我们发现Agent本身具备了成为智能构建工具的潜力。Strands将Agent视为"在循环中使用工具的模型",通过简洁的Agent Loop设计,结合MCP协议的标准化工具接入,实现了从简单chatbot到复杂Multi-Agent系统的无缝扩展,让"AI构建AI"成为现实。
本次分享将深度解析Strands Agent通过现代化设计理念重新定义,以及Agent开发体验。展示利用其核心的Agent Loop机制实现模型动态调用,通过MCP协议简化工具集成,借助四种Multi-Agent模式(Orchestrator/Swarm/Graph/Workflow)快速构建复杂协作系统。同时,分享从开发到生产的完整实践路径,包括可观测性监控、安全防护、云上部署等生产级能力,帮助开发者告别传统的复杂工作流编排,拥抱Agent开发的新时代,加速企业AI应用的落地进程。
〇 分享收益 〇
目标
1、详细分享Strands Agent的核心理念和技术架构,包括简化的Agent Loop设计、丰富的工具集成机制、多种Multi-Agent协作模式(Orchestrator、Swarm、Graph、Workflow)以及生产级部署方案。
2、通过对比分析传统框架与Strands的差异,帮助开发者理解如何利用现代LLM的能力构建更灵活、更强大的智能系统,把握Agent技术的发展趋势和实施路径。
成功要点:
通过几行简单的代码就能构建AI Agent,获得直接的原理和工具。掌握新的开发工具,也可根据不同的开发场景,选择和实现氛围编程或spec开发。为AI工程师、架构师、产品开发者赋能,有效直接应用于当前项目,加速AI能力在业务中的落地与创新。
启示:
Strands将Agent视为"在循环中使用工具的模型",通过简洁的Agent Loop设计+MCP协议标准化工具接入,可实现从简单chatbot到复杂Multi-Agent系统的无缝扩展,让"AI构建AI"成为现实。
〇 分享亮点 〇
1、开发范式的转变
2、Strands Agent深度技术分解
3、多Agent协作模式
4、氛围编程与spec开发实践
5、总结与QA
企业级垂直领域智能问数AI Agent落地实践
〇 分享简介 〇
企业在垂直领域中构建智能问数能力时,常面临诸多挑战,常见在技术与业务需求难以对齐、对准确率和可解释性的高要求、领域数据稀缺、用户问题复杂多样,以及数据基础设施的局限性等难题上。
企业不断优化问数的整体架构和算法模型,通过深入的落地实践,并对垂直领域的知识进行分层解构,从不同维度将专业知识注入问数能力中。同时,在产品交互设计等方面持续改进,验证出,可以显著提升问数的准确率和可解释性。
本次分享将深入探讨阿里集团在行业内已建成的、具备显著竞争力的问数能力建设经验进行系统化总结,为同行提供可复现的实践思路与方法,助力行业整体智能化水平的提升。
〇 分享收益 〇
目标:
1、了解行业内已建成的、具备显著竞争力的问数能力建设经验进行系统化总结,
2、为同行提供可复现的实践思路与方法,助力行业整体水平的提升。
成功要点:
通过多场景实践打磨问数架构设计,结合垂域知识分层注入提升问数能力专业性,同时明确架构下各模块能力边界,并构建模型自反馈链路与可追溯的错误修正机制。
启示:
以“问数”的维度,激活企业数据的潜在价值,可让数据真正“灵动”起来,为企业决策和业务创新提供强有力支持。
〇 分享亮点 〇
1、分享行业垂域问数的难点与挑战
深入剖析技术与业务对齐、数据稀缺性、问题复杂性等核心痛点。
2、核心解决思路与创新
1)提出针对垂域问数的关键解决路径与方法论
2)深入分析设计背后的思考与逻辑
3、系统架构与模块设计详解
1)详细解读问数的整体架构设计
2)各功能模块的核心能力与协作机制
4、技术选型与模型优化实践
1)探讨问数模型选型、Post Training 策略
2)模型性能优化的关键环节
5、落地实例与成果展示:通过真实案例展示问数能力的实际应用效果
6、QA
大模型的出现为软件研发带来了全新的变革与机遇。大模型凭借其强大的语言理解、生成和逻辑能力以及对海量知识数据的学习融入,正逐步渗透到软件开发的各个环节,推动着软件研发向智能化方向大步迈进。
大模型在代码生成方向的发展尤为迅猛,软件工程也正在发生智能化的跃迁,越来越多的代码助手、编码智能体、测试智能体、数字员工层出不穷。在这些工具的帮助下,开发人员只需用自然语言描述和澄清需求或问题,大模型就能迅速生成相应的代码甚至直接生成产品,发布上线。这些智能研发的发展,需要开发人员掌握使用工具的能力,来提升效率与竞争力,作为企业,更需要通过研发智能化的落地转型,提升企业研发效能和创新能力,保持行业竞争力或实现弯道超车。
本专场将聚焦软件研发智能化,邀请行业先进企业的相关负责人及推动人,从组织转型构建,到工具赋能使用,全方位探索软件研发智能化的发展和落地方案,涵盖:代码大模型后训练方法、未来产品形态探索、Agent自动构建、Trae 智能编程助手、Vibe Coding 、代码智能体等方向议题,帮助企业智能化转型,加速创新和业务增长。
出品人:彭云鹏 百度智能研发副总经理
Kwaipilot:以代码大模型为核心,重塑研发生态与体验
〇 分享简介 〇
代码大模型引领的研发范式变革将重塑软件开发行业,提升效率和质量,拓展应用领域。主要体现在技术能力提升上,代码生成与补全更精准,能处理复杂逻辑;多语言支持更全面,涵盖主流及新兴语言;代码理解与分析更深入,可检测错误和优化建议;上下文感知更智能,保持项目一致性。同时,开发流程融合集成到持续集成与交付流程,实现自动化流转;也同样提高智能化自动化与更多应用场景扩展,都将实时提供智能推荐与提示,提升开发效率和质量,促进工具与平台整合,帮助企业形成统一生态系统,加速推动开源与催生新商业模式。
Kwaipilot 应用快手自研的代码大模型,将大模型能力贯穿研发全生命周期,可进行智能编码助手、智能问答引擎和智能体开发平台三大 AI 研发产品应用。通过构建程序语言的形式化表征和逻辑推理链,并在国内大厂中首次将 MoE 架构成功应用于预训练代码大模型,取得了显著的线上收益;并从代码续写模型逐步丰富到 Code Embedding、Code Agent、Code/Math Instruct 等模型矩阵,在 HumanEval、CoSQA、SWE-bench 上取得 SOTA 表现。与此同时,在快手内部实现“编码即标注”数据飞轮,借助数据增强后的模型效果,在快手方言代码的语义理解和生成场景上超越 GPT-4 10%。
本次分享将 Kwaipilot AI 研发工具产品,围绕快手研发全生命周期场景进行探索、落地实践及对应结果,剖析背后的以开发者体验驱动的 AI 原生研发工具产品设计实践和启示。为热爱开发以及从业者提供参考和借鉴。
〇 分享收益 〇
目标:
了解围绕代码大模型构建智能编码工具,系统性推进研发范式变革,以及工程实践中围绕编码智能化进行探索与落地的实际经验。
成功要点:
1、从 Copilot 式的被动局部增强过渡到与 Agent 的主动任务协作,以解决更复杂的研发场景,助力最终实现端到端的提效。
2、构建以私域数据为核心的数据飞轮,强化代码大模型对内部代码和上下文的理解,实现超越通用大模型的私域生成效果。
启示:
企业级编码智能化要真正实现研发提效,必须坚持用户驱动和数据驱动,深入理解不同工程角色的真实需求。面对复杂多变的企业级场景,只有构建垂直场景下的 know-how,才能在不确定性中寻找确定性。
〇 分享亮点 〇
1、分享快手 Kwaipilot AI 研发工具产品家族
2、Kwaipilot在快手应用落地现状和研发提效
3、从代码续写到对话式代码生成的两个阶段背后的实践剖析和启示
4、快手在 AI 研发工具产品领域的持续探索与展望:未来软件开发趋势与下一代产品化探索
5、QA
文心快码智能化Coding Agent实践
〇 分享简介 〇
随着大模型技术的蓬勃兴起,各行各业正以前所未有的热情拥抱人工智能的浪潮,智能编码作为落地最快和效果最佳的场景,受到了广泛的关注。多年沉淀中,智能代码助手不断演进,研发工程师的智能编码需求也不断升级,关注重点从早期的补全,变成了预测改写以及代码智能体等。
当前行业的智能编码助手都在不约而同的向编码智能体方向发展,研发行为在逐渐向对话式编程靠拢。用户只需要输入需求,智能体就能够独立思考、拆解并执行完整任务,是当前阶段最先进的形态。
本次分享将结合百度在智能研发领域的深刻洞察、创新解决方案及丰富实践案例,剖析智能编码助手及编码智能体的上下文理解、工具链调用等技术难点及解决方案。帮助从业者提升与梳理全流程开发体验和效率。
〇 分享收益 〇
目标:
1、掌握百度从各个环节落地智能化研发实际提效的方法
2、了解建立成熟企业智能化的研发工具链方案
3、了解智能编码助手及编码智能体的技术难点及解决方案
成功要点
1、智能编程助手正处于技术红利与市场需求叠加的爆发期,要凭借技术敏感度、敏捷开发和生态整合能力,抓住AI重塑软件开发流程的窗口期
2、基于大模型和实际落地经验构建的智能研发助手,通过帮助工程师实时续写、生成代码、注释、单测等能力,可以有效提升工程师的研发效率和质量。
3、在基于发展不确定性较强的大模型底座之上,抓住编程助手的核心竞争力,设计更加有效的脚手架和产品
启示:
智能体形态是当前最接近下一代智能研发工具的形式,未来的智能体必须满足充分连接, 独立思考, 自主学习, 反思纠正,多智能体协作等等能力,由单能力、单环节向多能力、全流程的方向迈进,也将给开发者带来更加流畅与高效的开发体验。
〇 分享亮点 〇
1、研发智能化的机遇与挑战
2、百度研发智能化探索
1)代码推荐准确率提升
2)智能体建设
3、多端复用
4、百度研发智能化落地实践
5、Devops全流程提效
6、落地效果
7、思考与展望
8、QA
从Workflow到自主决策:构建端到端企业级自主智能体
〇 分享简介 〇
从workflow到Agent的转变,是企业从数字化走向智能化的核心飞跃。随着manus的爆火以及reAct、openmanus等技术的横空出世,带来了非常惊艳的智能体产品形态:自主决策智能体,一时间,Agent仿佛都迈向了自主决策、自主任务执行、自主记忆的自主智能体时代。
然而在企业构建自主决策型智能体的过程中,经常面临智能体幻觉严重、大模型工具使用不稳定、过程无法干预等问题,同时由于缺乏云原生容器横向扩展能力,也会出现产品排队、执行时间长、资源不足异常退出的问题,严重影响自主智能体的投产和业务应用。
本次分享以网易自研自主智能体平台CoreAgent出发,深入研讨通过自主思考Agent与MCP协议,运行沙箱,长短记忆管理,最佳实践等技术构建一个自主智能体产品实践,帮助从业者打造高可用、运行稳定、结果可控的智能体构建的思路。
〇 分享收益 〇
目标:
1、了解自主智能体的发展和适合的应用场景,帮助企业选择适合的场景落地,达到最好的收益。
2、掌握构建一个稳定可控的自主智能体平台,包括模型自主决策能力,云原生沙箱能力、最佳实践能力的建设,并解决模型运行不稳定的问题,给出可复制的实现思路帮助相关产品能力提升方案。
成功要点:
1、以知识召回及记忆管理机制,保证智能体运行的稳定,避免幻觉,形成自助智能体构建的最佳实践,
2、通过沙箱能力的建设,如沙箱生命周期的管理、沙箱的存活时间、沙箱跟外界的通信,沙箱环境启动速度的加快和预热等解决自主智能体稳定运行,横向扩展的问题。
启示:
1、借鉴人类的记忆和思维体系,辅以互联网时代成熟的云原生技术,构建生产可用、越来越“聪明”的自主智能体平台,让智能体技术为企业决策和业务创新提供有力支持。
2、构建企业级Agent对企业而言是范式升级的价值,,它是一个系统工程,是企业从数字化走向智能化的核心飞跃,是重新想象和设计业务流程本身,是战略性的业务转型,塑造了企业核心的智能竞争力。
〇 分享亮点 〇
1、智能体和自主智能体技术的发展
1)智能体的概念和智能体的发展
2)编排类智能体的劣势和自主智能体的优势
3)自主智能体能力展示
2、自主智能体技术背景
1)自主决策介绍-reAct/plan&execute 智能体
2)网络化协作 vs. 工作流编排的优劣
3)经验、反思与持续学习:驱动agent能力进化的引擎
3、自主智能体技术实现
1)产品整体架构
2)模型能力选择
3)MCP管理和接入
4、运行时沙箱介绍
5、工具细节-browser use
6、工具细节-文件管理
7、 记忆的管理和优化
8、QA
Trae 智能编程助手落地实践
〇 分享简介 〇
人类开发软件的方式正在极速改变。AI 辅助编程从最初的代码补全,到单次问答的智能助手,再到具备自主规划与执行能力的Coding Agent,IT行业正经历着开发模式的革命性转变。
随着大模型迭代速率变快,Coding Agent 产品开始涌现,企业在这个浪潮里做好Agent效果,相伴而来的整合传统编程工具,在效果与成本的均衡下给用户最好研发体验的产品是所有Coding Agent 绕不过去的关键点。
本次将分享Trae Agent 的核心设计理念、工程能力构建方法、以及与 IDE 的深度集成实践。通过实际案例的演示,探讨智能助手在代码理解、生成、优化等场景中提供的有效支持,展望未来落地过程中字节的经验与洞见。
〇 分享收益 〇
目标:
1、了解大语言模型在研发领域的实践路径
2、了解行业主流的产品趋势,以及Trae 在 Coding Agent 丰富的探索和实践经验。
成功要点:
1、大模型能力正处于爆发期,通过良好的Agent工程架构,快捷的PE调试平台,数据飞轮建设,能够敏捷迭代是做 CodingAgent必不可少的基础能力
2、通过精准的上下文获取和控制,良好PE结构的设计,多Agent协作的架构,是效果和成本均衡绕不过的一道坎。
3、Coding Agent与传统工具的深度结合,带来一体化智能研发体验,可以给工程师带来非常高的编码效率和质量提升。
启示:
在代码智能赛道上,敏捷的迭代能力,良好的工程架构,精准上下文利用能力和传统编码工具深度整合能力,以及在此之上效果和成本的均衡策略,是构建一款Coding Agent产品的核心竞争力。
〇 分享亮点 〇
1、大模型产品在 Coding 领域的发展趋势
1)大语言模型带来的机遇
2)当前研发效率痛点与市面上主流的产品分析
2、Coding Agent 技术架构与核心能力
1)Agent 架构设计
2)Prompt 设计与调优
3)IDE 系统集成和工程落地
4)上下文感知引擎设计
5)记忆管理设计
6)AI 服务端设计
3、Coding Agent 实践效果与案例分享
1)典型应用场景展示
2)真实案例演示
4、智能化研发经验总结与展望
1)常见问题与解决方案
2)未来 Agent 发展展望
5、QA
领域知识驱动的代码智能体实践与思考
〇 分享简介 〇
代码大模型正在深刻地改变软件开发,带来提升开发效率、降低技术门槛等诸多好处。近期代码智能体成为学术界和工业界的热点,相关研究和产品层出不穷,其中大部分工作并不针对特定领域下的开发任务,对于领域知识的运用也停留在知识检索、辅助生成这一传统RAG范式上。
随着鸿蒙操作系统的普及,鸿蒙应用开发成为业界热点,通过代码智能体提升鸿蒙应用开发效率,降低鸿蒙应用开发门槛成为关键挑战。代码智能体应用于鸿蒙开发场景的独特之处在于:
1)在模型思考中准确获取并运用鸿蒙领域相关知识;
2)赋予模型正确调用鸿蒙领域工具链完成调试调优等开发任务的能力;
3)通过受控生成等方法保证生成的代码符合鸿蒙规范;
4)应对旧生态向新生态的应用高效迁移问题。
本次分享将结合代码智能体的挑战,工具、生态,以及代码智能体在鸿蒙开发场景下的优秀实践,把通用模型能力和鸿蒙领域知识相结合,助力企业借鉴,提升端到端开发效率,解决新生态应用开发的实际问题。这些都将是华为2012实验室团队基于领域知识驱动构建鸿蒙领域代码智能体的深度思考与实践。
〇 分享收益 〇
目标:
1、了解代码智能体在鸿蒙开发场景下的优秀实践,将通用模型能力和鸿蒙领域知识相结合,提升端到端开发效率,解决新生态应用开发的实际问题。
2、帮助IT开发者,深入理解代码智能体的原型生成、生态,更好的把握企业智能开发方向。
成功要点:
1、以鸿蒙应用开发场景的真实业务诉求出发,将通用的代码智能体技术和业务特点相结合,将通用代码大模型能力和传统方法融合,可以有效解决Vibe Coding落地难、效果差的问题。
2、基于主、从多智能体架构,构建由开发者、IDE智慧化内核、开发智能体共同组成的双环迭代架构,是实现从需求到代码的人机协同决策式开发的关键。
3、通过基于代码智能体领域化建模对多来源多模态的需求在内部进行统一表示,可以允许开发者通过自然语言、图片、设计稿、代码仓等多种方式表达需求,提升开发效率和开发体验。
启示:
企业仅靠大模型的能力,尚不足以处理软件开发领域中复杂多样的任务,在AI4SE这一赛道上,需要在充分理解大模型的能力和局限性的基础上,充分运用领域知识在内的各种资源,才能更好的解决开发者面临的真实问题和痛点。
〇 分享亮点 〇
1、分析软件开发的新时代现状与挑战
1)代码大模型带来的改变
2)代码智能体带来的改变
2、鸿蒙开发场景下的挑战
1)新生态的启动问题
2)旧生态的迁移问题
3、领域知识驱动的代码智能体
1)鸿蒙领域UI设计知识
2)鸿蒙领域API文档知识
3)鸿蒙领域工具调用知识
4)鸿蒙领域开发通用知识
4、毕方IDE在鸿蒙场景下的实践
1)页面UI代码的快速原型生成
2)通用鸿蒙应用代码生成
3)其他生态向鸿蒙生态的代码迁移
4)鸿蒙应用性能优化辅助
5、总结与展望
6、QA
代码大模型后训练方法与未来产品形态探索
〇 分享简介 〇
在代码大模型从"能用"到"好用"的演进过程中,后训练技术已成为突破效果瓶颈的关键路径。
当前,尽管代码大模型在生成效率与基础能力上已取得显著进展,但在企业落地实践中仍面临领域适配性不足、长尾问题优化困难等核心挑战。研究发现,这些问题的解决不仅需要模型能力的持续提升,更需要建立模型与产品协同迭代的闭环机制。
本次分享将系统性地探讨代码大模型后训练的实践方法论,结合腾讯在通用研发场景和垂直业务场景的落地案例,深入解析如何通过模型优化与产品迭代的深度耦合,构建双向促进的效能飞轮。同时,基于实践经验,将展望未来智能编程的产品形态演进:从追求"全能模型"的单一范式,逐步转向构建多个"场景化专家模型",最终实现企业级代码生成在效率与质量上的双重突破。
〇 分享收益 〇
目标:
1、了解代码大模型后训练的核心技术路径与工程化实践
2、了解模型能力适配不同专业编程领域的范式
3、获得复杂业务场景下的效果优化方法论
成功要点:
成功的AI模型落地需要聚焦三个核心维度:首先通过案例分析实现关键技术突破,精准匹配不同后训练技术与应用场景;其次以场景化思维驱动开发,针对领域知识、私有化框架等具体需求进行定向优化,而非盲目追求全能模型;最终构建数据飞轮闭环,通过持续洞察用户行为和编程模式实现模型迭代升级
启示
代码智能化在企业中真正提升研发效能, 需要充分结合一线团队的业务知识和编程场景,建立可复用的训练方法论。未来,低代码+大模型融合,是让非技术用户高效定制生成逻辑,拓展AI应用边界的必经之路。
〇 分享亮点 〇
1、分享大模型后训练技术
1)分享代码大模型的不同阶段的后训练技术
2)结合案例分享模型优化方法
2、模型能力定义产品
1)模型协同产品的范式拓展,专家场景定制化
2)拓展AI应用边界
3、QA
从理念到落地:Vibe Coding 赋能企业级研发协同
〇 分享简介 〇
传统“开发-测试-运维”模式存在协作割裂、效率低下、创新不足等问题,难以支撑当前企业对高效研发的要求。Vibe Coding 作为融合即时协作与智能辅助的新一代开发范式,正逐步帮助技术团队学习并转向更具协作性与智能化的开发流程。
Gitee DevOps 一体化平台,将 Vibe Coding 融入日常研发流程,结合“人-工具-流程”形成更高效的协作模式。在实践中,智能场景的实施协同不仅打破了代码墙,开发者可在统一平台上实现智能补全、AI Review、实时协同编程等功能,有效提升协作效率和代码质量。目前该技术能力已覆盖多个核心研发团队,支撑高频率迭代和大规模协同研发,成为提升整体交付效率的关键支点。
本次分享拥有大量实践,提供了一种编码协作智能化的落地范式,旨在为企业在引入 AI 编程助手、推进智能 DevOps 转型过程中提供技术路径参考与工程实践依据。
〇 分享收益 〇
目标:
了解 Vibe Coding 技术体系嵌入企业级 DevOps流程中,实现代码开发、协作与交付过程的智能化与自动化,提升端到端的研发效率与代码质量。
成功要点:
1、将 Vibe Coding 与 CI/CD、静态代码扫描、Pull Request 等核心 DevOps 流程深度集成,使 AI 能够在关键流程节点提供上下文感知的智能反馈与建议。
2、实现基于角色的智能协作机制:如通过 AI Review 提前发现潜在缺陷,通过多人实时共编机制优化复杂模块的协作开发,技术侧打通 IDE 插件、代码托管平台与后端模型能力。
3、识别并固化“协作点”模型,在研发流程中嵌入可编排、可追踪的协作触发机制,并配合代码语义理解与依赖分析能力,实现协作精度与覆盖面的双提升。
启示:
智能化编码协作并非替代人工,而是通过技术增强开发者在关键环节的洞察与决策能力。实现 DevOps 智能化转型需打通工具链与数据链,构建具备上下文理解与持续学习能力的智能系统,推动研发闭环持续优化。
〇 分享亮点 〇
1、企业软件研发的“效率瓶颈”与协作痛点
1)多地协作、多人并发、知识沉淀困难
2、Vibe Coding 的核心理念与技术演进
1)即时协作 + 智能辅助 + 工具融合
3、在 DevOps 一体化平台中的集成实践
1)与代码托管、IDE 插件、Review 流程的打通方式
4、落地效果与团队反馈
1)提效数据(PR 平均合入时长下降、协作冲突减少)
2)一线研发人员与管理者的实际感受
5、落地经验与关键成功点总结
6、工具不是全部,文化与流程演进同样关键
7、QA
在AI驱动的数字化浪潮中,通过智能化转型重塑生产流程、提升效率并构建核心竞争力是时代留给企业的一道命题。聚焦AI技术在生产端的深度应用,通过智能算法优化供应链管理、自动化生产流程、提升质量检测精度,以及如何利用数据驱动的决策系统赋能企业敏捷响应市场变化,是需要行业深度探寻的。
AI正在从技术探索,全面进入“业务价值驱动”和“规模化生产”的新阶段。它不再是一个模型,而是将AI技术转化为可度量、具有商业化价值的业务解决方案。对于企业而言,未来的竞争很大程度是AI生产化能力的竞争。战略上,AI将是核心业务能力,由业务价值驱动;组织上,需建立融合业务、数据、算法、工程人才的跨智能团队;技术上,投资云原生的MLOPS平台和数字化基础设施。
本专场邀请行业顶尖专家与企业实践者,分享AI在智能制造、柔性生产、智能预测等领域的前沿案例与创新思路,涵盖:企业专属模型精调、Agent效果调优、Agent平台架构、AI数字员工、AI素材技术框架与生成、豆包大模型娱乐应用、数字分身智能客服、Agent知识管理平台等方向议题,助力企业突破传统生产瓶颈,实现从“制造”到“智造”的跃迁。无论是技术决策者还是业务创新者,都将为您揭示AI成为企业竞争的新引擎,可开启智能业务的无限可能。
出品人:谢睿 趣丸科技CTO
从数据到模型:基于PAI平台的企业专属模型精调实践
〇 分享简介 〇
当前,随着大模型(LLM)能力的爆发,企业希望将其快速接入业务场景。但行业普遍发现,通用大模型虽强,却难以直接满足垂直领域的知识和语境需求,存在领域适配不足、数据隐私与合规压力、推理效率与成本平衡等痛点。
阿里云基于 PAI 平台,构建了覆盖数据清洗、增强,到模型蒸馏与强化学习的全链路后训练体系。在行业实践中,依托高质量的数据与自动化工具链,实现了数据可控合成、高效训练,并建立与业务同步的持续精调机制。经过实践总结表明,精调成效依托三大关键:以高质量的丰富的领域数据,以高效稳定的蒸馏和强化学习技术提升泛化性与性能,通过平台化工具与评测闭环确保模型效果持续进化。
本次分享将聚焦大模型落地的实践经验,全程实战案例为主,展示MAAS平台上,如何利用丰富工具和功能进行领域大模型精调与评估,帮助企业从0到1完成大模型精调与部署,最终用大模型解决实际业务问题。将与业界大模型关注者探讨LLM领域的无限可能。
〇 分享收益 〇
目标:
学习可复制的领域大模型精调方法论,形成企业通用大模型转化为行业生产力的方法。
了解应用大模型精调的工具和功能,以及解决业务问题的思路。
成功要点:
大模型的领域化过程中,高质量、多样的领域数据是能力迁移与精调成效的基础。结合科学的后训练路径,包括蒸馏、SFT、强化学习等方法,不仅能注入行业知识、提升模型在垂直场景的准确性与稳定性,也能在算力成本与交付周期之间取得高性价比的平衡。实践证明,“以数据为核心,辅以合适的后训练方法体系”,是将通用模型转化为可用行业模型的关键能力。
启示:
当企业具备成体系的方法论、易用且高性能的工具链,以及覆盖全生命周期的评估与迭代闭环,就能在数据准备、模型训练、效果验证到上线运营的全环节实现流程可控与成本可控。这种能力使得企业能够在更短周期内完成领域大模型的定制,并且在后续迭代中保持高效演进,从而让大模型真正持续创造业务价值。
〇 分享亮点 〇
1、从业务需求到领域模型目标
2、高质量行业数据构建
3、精调技术路径选择与经验
4、 MaaS平台与工具链实战
5、总结与展望
6、QA
企业级广告AI素材技术框架与生成创新探索
〇 分享简介 〇
当前数字营销领域面临广告素材需求爆发式增长与创意生产效率滞后的核心矛盾。企业普遍存在三大痛点:人力成本高(设计师日均产出仅2-3组素材)、创意同质化(人工创作难以满足千人千面需求)、迭代速度慢(从选题到上线平均耗时72小时+),直接制约广告投放效果与ROI提升。
企业若构建了结合用户画像、历史投放数据及创意标签的素材推荐引擎,可进一步提升投放素材爆量概率。基于Qwen-VL系列进行指令型微调,额外加入音频信息&视频Tags,提升大模型对视频内容更细颗粒度理解。通过多模态技术+混剪算法,搭建文本-图像-视频跨模态素材生成管道,可大大实现高质量视频素材生产。
本次分享将展现构建企业级AI素材工厂的技术框架,以跨模态对齐解决方案、混剪算法核心思路,更好地人机协同模式提升创意采纳率。让听众有效直接地应用AI素材,提升广告效果以及人机协同成果。
〇 分享收益 〇
目标:
1、趣丸AI素材生产技术框架全景图
2、了解实现素材混剪核心算法,不止素材拼接
3、了解设计有效的素材生产人机协同流程
成功要点:
1、视频细颗粒度内容理解:构建高质量视频分析数据集,基于Qwen-VL指令微调模型,融合音频文本和视频帧内容识别标签,实现秒级素材语义解析;
2、以数据闭环驱动的分镜推荐机制:引入LLM视频摘要+RAG,结合相似素材匹配用户画像建模,精准挖掘视频中的潜在爆款片段,提升新素材起量概率。
3、人机协同的双轨流程设计:设计师聚焦创意,通过调整脚本细节和剪辑思路,注入素材核心卖点和剪辑风格;AI负责量产,自动裁剪片段,智能匹配BGM、字幕等元素,批量混剪输出,可覆盖80%以上常规素材需求。
启示:
以多模态大模型构建跨模态理解-生成闭环,以数据流驱动“AI量产+人类精调”协同范式,实现广告创意从主观灵感向客观数据决策的范式迁移,解决广告素材生成中个性化内容与规模化生产的矛盾冲突。
〇 分享亮点 〇
1、视频生成任务当前核心问题
1)方案1:AI素材混编生成
2)方案2:AI素材混剪生成
3)方案3:AI素材工厂人机协同
2、未来思考及展望
3、QA
AI数字员工助力企业实现数智跃迁
〇 分享简介 〇
数字员工基于人工智能技术构建的数字化虚拟实体,是AI技术的集大成者(视觉、语音、理解),具备人类工作行为和业务流程的能力;
随着AI技术的快速迭代发展,数字人在生物特征和用户交互层面已经实现高度的拟真、自然,LLM技术赋予数字人聪慧的大脑和丰富的工作技能。
数字员工目前已经有了非常丰富的落地场景和行业案例,助力企业提升效率、优化作业流程和创新应用场景。AI智能体与数字员工二者融合,可构建“全场景智能伙伴”。数字人提供拟人化用户交互,AI Agent负责逻辑决策与跨系统协作,实现“情感化沟通+智能化执行”的无缝衔接,重构人机协作模式。
本次分享从数字员工的核心技术架构、行业应用实践、未来发展趋势三个方面,探讨数字员工助力企业实现数智跃迁,新技术、新工具提升工作效率,智能协同提升业务流程自动化,数据系统赋能决策。全面为与会者实施数字员工应用带来借鉴。
〇 分享收益 〇
目标:
1、了解智能体数字员工在领域内的探索成果、技术发展动态
2、展示智能体数字员工技术落地的有效路径。
3、以不同行业数字员工的成功应用案例,提供企业用户在实施数字员工项目中的思路借鉴。
成功要点:
为各行业提供数字化转型的借鉴意义,以数字员工核心技术进展、应用场景及数字人与 AI Agent 结合的趋势,给予行业可明晰技术应用方向,辅助其优化自身业务流程,提升数字化运营水平。
启示:
智能体数字员工的应用将为企业带来显著的业务价值增长,包括如下维度:
1、降本增效:提升业务处理效率,缩短流程耗时、提高任务完成准确率。
2、优化服务质量:能实现7*24 小时不间断服务,快速响应客户需求,增强客户满意度和创新用户体验。
3、释放人力价值:人机协同放大每个人的“稀缺价值”,提升企业整体创新能力。
4、助力数字化转型:为企业提供技术应用参考,帮助找准转型切入点,推动业务流程数字化升级,提升企业在数字化时代的竞争力,以适应未来发展趋势。
〇 分享亮点 〇
1、智能体数字员工的概念及技术发展
2、智能体数字员工的行业应用和业务价值
3、智能体数字员工的发展趋势
4、QA
扣子罗盘: Badcase驱动的Agent效果调优实践
〇 分享简介 〇
25 年开始,AI Agent 真正进入爆发期,尤其是随着 manus、扣子空间的推出,Agent 的热度进一步增加。随着 Agent 能解决的问题越来越多和越来越复杂,激活 Agent 系统的优化潜能,才能让AI Agent 真正驶向深水区。
而 Agent不仅只是搭建,更要持续的优化、迭代和全生命周期运营。
传统的经验驱动调优方式往往面临效率低下、效果有限、缺乏系统性等挑战,如何建立科学、高效的效果优化体系成为关键问题。Badcase 驱动的调优方法能够直接针对实际失败案例,通过数据化分析和系统化优化,实现 Agent 效果的持续改进。
本次分享将结合扣子平台的真实调优挑战,分享端到端的 Badcase 收集体系构建、多维度问题分类与分析,以及实现发现与优化的系统化闭环。同时,探讨 Agent 效果科学度量、建立质量评估指标体系,以及 Badcase 驱动的调优方法及工具平台。借此为AI Agent领域从业者带来新的调优思路与工程实践的方法指导。
〇 分享收益 〇
目标:
1、了解扣子平台在 Agent 效果优化中的成功实践进行系统化总结,以及系统化 Badcase 调优方法论建设,形成可复制、可推广的 "扣子罗盘" 调优平台。
2、通过真实案例和具体操作流程,为技术团队提供从问题发现到效果提升的完整解决方案,为同行提供可落地的实践指导,帮助行业整体 Agent 调优水平的提升。
成功要点:
通过多场景 Agent 调优实践打磨 驱动架构设计,结合分层问题分类体系提升调优精准性,同时,明确收集 、分类 、分析 、 优化各环节能力边界,并构建持续监控反馈链路与可追溯的效果评估机制,是Agent效果调优最佳方案。
启示:
激活 Agent 系统的优化潜能,让每个失败案例都成为改进的 "导航仪",可为企业的产品效果提升和用户体验优化,提供强有力的数据支撑。这些系统化的问题驱动方法,将让企业实现 Agent 从 "能用" 到 "好用" 的全面升级。
〇 分享亮点 〇
1、AI Agent 开发过程中的问题与挑战
深入分析Agent落地过程中的核心痛点问题
2、核心问题的解法思路
1)Agent调优的核心思路
2)如何进行Badcase问题挖掘
3)如何进行科学的效果评测
4)如何高效解决Prompt效果问题
3、实践案例分享
1)简篇 :自动化评测保证业务效果
2)抖音电商 : 借助线上真实case提升prompt效果
4、总结与展望
5、QA
基于Agent的数字分身智能客服模式跃迁路径
〇 分享简介 〇
客服3.0时代,客户触点多元分散、客户需求从满足基础服务向情感服务跃迁,因此,为客户提供管家式、全渠道、全业务的3A服务(Anywhere Anytime Anything)是必然发展趋势,同时,带来服务成本的大量提升。针对行业内AI客服替代简单服务已进入深水区、人工客服技能高度隔离、金融监管严控LLM生成面客等痛点,基于Agent+LLM的数字分身是当前最佳解决方案。
企业可通过AI育人/AI辅人→AI替人3步走,平稳过度,走向人机共生,产能翻番。
A:通过AI诊断-AI知识宝典-AI出题4大agent,实现线下AI育人闭环,解决客服行业流动性强、针对性培训难问题。
B:通过AI服务档案-全链路智能操作-智能话术推荐-智能话务总价,实现在线服务产能进一步提升。
C:数字员工模式探索,基于Agent+RAG,简单场景数字员工端到端服务、复杂场景数字员工完成诉求沟通、核身环节服务、数字员工辅助人工完成后续服务,实现人工从直接面客转型后台监督,1.v.N产能翻番。
本次分享将展现大模型时代的战略规划、产品设计、技术方案、人员转型思路,助力企业平稳过度到人机共生阶段。转型过程中面临的监管要求严、客户体验差、模型成本高3大挑战,提出应对方案,推动客户行业Agent应用。
〇 分享收益 〇
目标:
1、明确当前大模型能力边界、预判大模型赋能未来发展趋势、锚定智能客服行业下一步规划方向
2、了解大模型在严肃场景赋能时的挑战与解决方案
成功要点:
1. 战略规划层面,需结合社会发展阶段、通信技术发展、AI技术发展整体分析,持续洞察,看清客户需求变化,为客户提供管家式、全渠道、全业务的3A服务
2、转型过程中两条腿走路,Agent帮人、Agent育人大规模覆盖,实现效率提升;Agent替人聚焦部分场景,MVP验证可行性,逐步替代
3、技术规划层面:Agent帮人/育人方面,贴近实际业务,建立系统性数据分析体系,聚焦当前人工作业高占比、多断点、技能差异大的环节;同时充分发挥大模型推理、总结的擅长点,设计解决方案
4、Agent替人方面,RAG准确性为核心难点,通过Query改写→检索增强→SFT微调+DPO强化学习,实现通过客户口语化表达直连知识片段并生成针对性回复话术。通过置信度进一步分流,任何风险人工随时切入辅助,做好兜底
5、在组织转型层面,客服人员将向知识专家和技术专家方向转型
启示:
数字分身赋能过程中,AI native思维尤为重要,企业的业务流程设计、系统设计需从围绕人工操作为核心转变为以Agent操作为核心,而非将Agent嫁接在当前流程、系统上,才能实现倍数级的产能提升、业绩增长。
〇 分享亮点 〇
1、智能客服:在哪里?
1)行业发展趋势预判
2)服务模式跃迁方向痛点分析
2、基于Agent的数字分身-去哪里
1)Agent自主性L1-4分级
2)数字分身跃迁路径分析
3、基于Agent的数字分身-怎么去
1)L1/2级Agent落地应用案例
2)离线育人技术方案
3)在线帮人技术方案
4)L3级Agent落地应用案例
5)健康险数字分身技术方案
6)严肃场景落地Agent的挑战级解决方案
7、QA
从屏幕到心跳:豆包大模型在互动娱乐场景的 “开挂” 应用
〇 分享简介 〇
随着大模型能力的持续演进,AI正在重塑社交娱乐的产品形态与用户体验。相较于其他场景,社交娱乐具备需求强烈、用户黏性高、交互容错率高等天然优势,正在成为AI应用率先实现规模化落地的主战场。
自大模型爆发以来,AI陪伴应用的率先兴起,是目前落地相对较快、热度较高的AI应用赛道,潜在市场空间广阔,行业内已诞生多款千万MAU级别的产品。当前的 AI陪伴产品中,角色经常存在“不会聊、不敢聊、聊不深”等问题。
本次分享将深入解析通过语言对话、图像理解、文生视频等大模型能力,构建更具情绪价值、互动深度与商业潜力的虚拟角色打造蕴含更强互动性与情绪张力的 AI陪伴体验。以及随着多模态模型能力的持续演进,也演变出一些创新玩法,能进一步提高用户体验。无论是初入 AI社交赛道的开发者,还是关注陪聊产品转化率的产品经理,本次分享都将带来可落地、可复制的路径参考。
〇 分享收益 〇
目标:
1、开启 AI 应用开发方面的探索之旅,展现自身的创意和想法。
2、了解 AI 陪伴聊天应用的市场潜力,并且能够快速搭建起自己的产品原型,以较低的成本和风险进入市场,寻求商业机会。
3、了解多模态模型的发展以及创新的玩法,企业可进一步延伸产品落地、创新边界和优化思路。
成功要点:
随着大模型能力的持续演进,依托强大的多模型能力、稳定的平台支撑及对行业的深刻洞见,能够将更多产品设计与玩法更好地与大模型结合并落地。
启示:
大模型在重构娱乐产业的生产范式(从人工创作到人机协同)与体验本质(从预设内容到或活态世界),提前布局多模态交互与合规框架将主导应用生态。
〇 分享亮点 〇
1、解读行业趋势、用户、市场需求和痛点
2、分享构建一个AI陪伴应用的完整流程
3、行业内常见的产品设计或玩法,以及整体与大模型相结合并落地。
4、AI行业新趋势、新玩法的产品思路
AI智能体知识管理平台的搭建
〇 分享简介 〇
随着大语言模型的普及,企业正迎来 AI 智能体的落地热潮。然而在真实的企业场景中,知识管理成为最大的痛点:传统文档管理和业务系统存在搜索难、知识孤岛、非结构化文档难以利用等问题,导致 AI 难以真正理解和服务业务。这正是当下企业转型中最迫切需要解决的关键挑战。
在过去的研究与实践中,我们探索了 AI 知识管理平台的核心技术路径,包括文档解析、向量化检索、知识图谱构建、安全与权限控制、以及大规模数据处理策略。从底层架构到具体的技术选型,再到应对复杂业务语境的微调方法,这些探索不仅解决了通用大模型无法直接适配企业知识的难题,也为大规模落地提供了工程化方法论。
本次分享结合架构设计、技术栈选择和四大核心挑战的应对方案,深度构建一个真正为企业赋能的 AI 智能体知识管理平台,从理论走向实践,分享如何打造一个安全、可扩展,面向未来的企业级“AI 知识大脑”,帮助与会者推动智能化业务转型。
〇 分享收益 〇
目标:
1、了解构建企业级 AI 智能体知识管理平台的实践。
2、了解AI 智能体逐步进入生产力核心后,企业解决知识孤岛、权限安全、复杂文档解析和大规模数据处理等策略
成功要点:
企业级 AI 知识管理平台的成功,关键在于文档能智能解析、知识能安全合规、检索能快速扩展,同时通过知识图谱和模型微调,让 AI 真正懂业务、发挥价值。
启示:
只有将先进的 AI 技术与工程化实践相结合,才能在确保安全合规的前提下,最大限度释放知识资产价值,提升企业决策与执行效率,迈入“AI 主动服务”的新阶段。
〇 分享亮点 〇
1、AI智能体知识管理平台的问题和挑战
1)知识的获取
2)安全控制
3)数据量、性能及扩展性
4)业务理解能力
2、AI智能体知识管理平台的构建
1)数据源适配层
2)数据处理与注入层
3)知识存储层
4)知识检索与生成层
5)应用与接口层
3、AI智能体知识管理平台的关键技术
1)智能文档解析
2)权限控制和检索过滤机制
3)数据处理的性能基线及优化
4)知识图谱的利用
5)智能体模式的选择和应用
4、QA
AI驱动下的商业变革正在为企业开辟新的发展前景。产品创新正逐渐从传统的功能导向转向以价值和体验为核心驱动力的发展模式,充分使用AI能力,企业能在产品态势中探索更多创新业务模式、升级客户体验、业务增长。
在产品研究中,用户因海量数据驱动与行为数据、偏好,有着个性化、定制化的场景需求,AI可精准地了解每个用户的独特需求、痛点和期望,实现产品的个性化定制;跨领域终端,AI 将与其他前沿技术如物联网(IoT)、虚拟现实(VR)、增强现实(AR)等深度融合,为用户创造更加沉浸式和个性化的体验。NLP技术的不断进步,产品与用户之间的交互也变得更加自然、流畅和智能化。语音、文字、手势等多种方式与产品进行交互,无需复杂的操作流程和指令输入。语音助手、智能车载,智能穿戴,多模态交互技术也让视觉、听觉、触觉等多种感官信息融合在一起,为用户带来更加丰富和生动的交互体验。当下,技术势能转化为用户可感知的价值,并打造兼具竞争力与温度的产品。
用户体验和业务价值驱动产品整体规划和运营,好产品需实现良好的用户体验和持续价值创造,明确产品建设方向。本专场将汇聚科技产品管理者、技术领袖与产品负责人,通过AI挖掘用户深层需求、平衡AIGC等前沿技术带来的体验升级、精细化产品场景管理、运营内容数据闭环产品价值。涵盖:软硬件的全新产品观、企业智能办公AI产品、人机交互的AI智能体、个性化的AI智能体、AI短视频的效与能、AI金融产品创新、业务内容智能场景应用方向等议题,来不断持续驱动产品优化和创新。
出品人:苏杰 资深产品创新领域独立顾问,良仓孵化器创始合伙人
当AI Agent 实体化:跨越软硬件的全新产品观
〇 分享简介 〇
自生成式 AI 及大语言模型向全网开放普及后,AI 硬件产品的关注者及参与人也不断增多,海外多家研究机构预测,未来民用 AI 硬件产品的规模会以 20% -30% 的复合增长快速发展。无论是专注于 AI 模型建设、 AI 应用场景还是原先的 IoT 领域企业,都会面临 AI 硬件开发技术的拓展融合。
不同于传统软、硬件的产品设计和开发,AI 相关的技术逻辑和用户体验都存在新的变革,在实际对接客户中,我们看到非常多产品停留在有好的想法,但不了解该如何落地;或看到了问题,感受到AI 硬件的“不够聪明”,却不知道问题出在哪里;亦或是对AI 硬件和 Agent有所了解,便急于根据行业表象进行复制借鉴,错失打造有价值产品的机会。
本次分享期望将 AI 硬件及对应 Agent 的设计和落地方法论,以通俗易懂、生动有趣的方式进行演绎,基于多年物联网平台产品及AI 硬件产品设计经验,向更多已经入场或即将入场的行业伙伴分享前瞻性、落地性、开放性及用户体验深化方面的全新产品观,期望能进一步推进 AI 硬件行业发展,带来更多优秀的 AI 硬件产品。
〇 分享收益 〇
目标:
1)建立可快速理解的“AI 硬件心智地图”: Device / Edge / Cloud+Data / Agent 四端极简架构 ,帮助产品角色快速理解和构建创意,不在技术细节里绕圈
2)理解 AI 硬件满足人类的需求本质,避免“不合时宜的技术堆砌”,寻找当下适合入场的 AI 硬件类型
3)尝试一套全新的 AI 需求到 Agent 落地的方法论,看明白 Agent 开发平台在做什么,并理解 AI 硬件市场真实价值的关键点
4)了解AI 硬件项目启动,早期可能会被忽略的其他问题
成功/教训要点:
1)IoT 技术无法隐身,让硬件“开口说话”没有想象中那么简单,选择正确的连接手段可以少走很多弯路
2)需求层次的反常识:神奇的“马斯洛倒挂”,先出来的爆火 AI 产品,是从顶层需求向下实现的,背后的核心原理: AI 是来补充人类世界,而非替代
3)需求实现:人类在 7 岁之后会克制将物体赋予生命,AI 硬件产品要克制这种克制
4)隐私安全合规、 AI 幻觉、测而不全……一份教训大汇总:众人踩过的荆棘,终会被磨平铺就一条康庄大道
启示:
AI 发展是动态系统,每一个产品经理都可能回到起点重新出发,在 AI 金手指的帮助下,重要的不是那些标准而成熟的知识技能,而是一种全新的、可逆的、更尊重“生命”的思维方式
〇 分享亮点 〇
1 、破冰:在质疑声中快速搭建了一个新的平台
2 、AI 硬件的“产品基础架构”
3 、AI 硬件的“需求诞生”
4 、AI 硬件的“需求实现”
5 、AI 硬件不能太 AI
6 、容易忽略的其他问题(隐私安全合规、注入破解、测试的挑战、避免过分依赖 AI、上下文的“灾难”等)
7 、总结和展望
8、QA
企业智能办公场景AI 产品实践
〇 分享简介 〇
打造企业智能办公场景的AI产品,能够从效率、成本、决策、体验等多个维度为企业带来显著价值。这种变革不仅是工具升级,更是通过认知革命重构组织运行逻辑,当AI接管确定性任务后,人们得以专注于创造性思维、情感联结和战略突破。这正是未来企业的核心竞争力所在。明显优势呈现在提升运营效率、降低综合成本、赋能科学决策、重塑用户体验、构建竞争优势壁垒、长期战略价值延伸等。率先部署AI办公体系的企业,更易获取政府数字化改造补贴;开放平台生态吸引开发者共创行业解决方案,形成商业闭环。 企业将智能办公系统向战略延伸,也将带动整个价值链数字化转型,效率周期跨越式递进。
当下,企业数字办公有其用户少、专业深、领域广、交叉多、链路长、权限多、安全高、响应快的特点,在数字化发展过程中,带来了大量的信息和数据沉淀,企业平均拥有超过 1000 应用,只有 29% 的有效通信并共享数据,AI的发展为跨越数字鸿沟提供了可能。企业办公从PC 时代的门户,移动时代IM+工作台,到 AI 时代办公AI Agent 连接万千应用和数据,涉及到员工和企业工作界面的变革,如何在这个过程中平滑的切入办公场景,综合成本和内部企业应用现状发展,解决员工办公效率和体验问题,是企业数字化团队面临的一个挑战。
本次分享以阿里典型办公产品结合 AI建设的实践,深度研讨企业数字化建设者理解大型企业员工服务和协同办公场景下的 AI实践,让产品焦点从“功能点的多少”转向“AI理解的深度、执行效率和安全性、体验”,提高产品技术壁垒,为与会者带来数字化建设、产品AI转型、提升智能办公场景数字化的最新落地思考与探寻。
〇 分享收益 〇
目标:
1、帮助企业数字化建设者理解大型企业员工服务和协同办公场景下的 AI实践。
2、帮助企业提升企业办公场景数字化服务的规模、效果和满意度水平。
3、帮助企业提升高频办公场景的员工体验。
成功要点:
企业将办公场景结合AI产品能力建设深度结合,从场景建设的办公意图、结构化知识、Agent 协作的实践深入,不仅形成建设办公场景的 AI反馈链路和评测体系,更打通了与内部应用协作和平台能力建设的路径,有利于AI到 AI原生的产品设计思路的转变和尝试,进一步增强智能办公场景的高度,赋能产品数字化建设。
启示:
1、AI不是单一功能,而是生态体系,多模态和自主智能,是未来十年最重要的技术产品趋势。将是一场生产力、组织模式和商业价值的彻底重塑。催生下一代伟大的企业软件公司。
2、智能办公结合AI技术的演变趋势,以客户优先原则解决办公场景问题,对于企业而言,构建了一个不断自我优化的数字生态系统;对于员工而言,从重复性、低价值的工作中解放出来,将创新决策和情感连接等高高价值的创造力工作,整体提升。同时,产品焦点从“功能点的多少”转向“AI理解的深度、执行效率和安全性、体验”,技术壁垒提高,全场景适应VUCA时代的市场变化节奏。
〇 分享亮点 〇
1、分享企业办公的机遇与挑战
1)智能办公发展阶段
2)AI在办公领域解决的难题
3)智能办公场景具体问题解析
2、办公AI产品的实践
1)不同的建设阶段和问题
2)产品构造上的变化:FAQ\RAG\意图\知识库\agent\场景选择等
3、分享设计办公场景下的反馈链路和评测体系
1)智能+人工+产研结合
2)指标的一些变化
4、开放和集成
1)数字办公和AI应用
2)未来架构和定位
5、QA
人机交互协作新范式:AI智能体链接全网
〇 分享简介 〇
人工智能正经历从"技术展示"向"价值创造"的关键转型期。行业发展呈现三大趋势:大模型能力从实验室走向业务场景深度融合,协作模式从单点AI工具向群体智能生态演进,人机关系从简单替代向深度共演升级。特别是在强化学习理论驱动下,AI智能体与人类智能体的协作正朝着自适应、可进化的方向发展,预示着一个全新的智能协作时代即将到来。
在实践中,企业普遍面临五大挑战:数据处理压力巨大、大模型技术难以业务落地、劳动力成本高、人机协作效率低、员工情绪耗竭。现有自由职业平台和任务众包模式,常因撮合静态、匹配不精准、管理成本高等问题,难以实现智能体与任务的双向成长。行业痛点在于:让AI能力真正转化为业务价值、构建适应超级个体的灵活组织,让“冷技术”具备“情感温度”。基于当下困境,我们认为唯有基于清晰任务定义、持续进化的群体智能协作生态,才能打破“技术悬浮”与“生产关系滞后”的双重壁垒。
本次分享将深度解析结合伏羲机器人的产品和实践,分享「人机共演」创新范式-基于清晰的任务定义,通过强化学习机制链接全网AI智能体和人类智能体,构建群体智能驱动的双螺旋迭代进化生态。核心突破点包括:生产力革命:智能体精准锚定业务场景,实现AI能力的确定性价值释放;生产关系重构:打造数字游民2.0+液态组织新模式,让”一人公司=万人产能"成为现实;生产价值升级:通过具身智能的情感接口技术,让冷技术承载人性温度。最终愿景为构建机器承担重复劳动、人类专注价值创造、算法与情感和谐共生的未来工作新生态。
〇 分享收益 〇
目标:
1、了解实际业务中让大模型能力真正产生商业价值
2、了解构建能够适应超级个体崛起的组织形态
3、了解通过技术设计赋予机器人以情感温度
成功要点:
1、通过基于清晰任务定义的任务拆解,实现了AI与人类智能体的高效协作与动态评价,发挥了群体智能的复合叠加优势。
2、打通了大模型“通用—细分—边缘部署”的落地路径,使模型能力能够精准赋能不同场景。
3、推动数字游民2.0与液态组织形态的实践,让个体与团队之间形成更灵活、更契合未来生产力结构的新型劳动关系。
4、借助虚实迁移的创新方法论,把游戏引擎等低成本试验场与真实业务闭环链接,实现技术的快速验证与规模进化。
启示:
1、只有回归业务本质、以业务痛点为驱动力,才能真正选对技术、用好AI。“液态化”成为组织发展的重要趋势,是数字游民时代自然而然的结构调整。同时,虚拟与现实的交互、情感接口的引入,使得技术能够超越工具角色,成为兼具效率与温度的生命型协作伙伴。
2、AI与人的群智进化也遵循着“可拆解、可验证、可持续进化”的原则,只有构建动态、可信的多元协作体系,才能不断释放智能社会的巨大潜能。
〇 分享亮点 〇
1、AI时代的双重困局与破局
1)当前行业面临的核心挑战
2)人机共演范式的核心理念
2、群体智能协作的实践突破
1)视觉人机审核案例深度解析
2)群体智能的核心优势
3、大模型业务化落地的金字塔法则
4、超级个体时代的人机协作重构
1)数字游民群体的崛起趋势
2)液态组织的生产关系升级
5、游戏引擎驱动的虚实迁移创新
6、具身智能的情感接口革命
1)技术温度化的必要性与可能性
2)双循环情感接口的技术实现
7、构建人人时代的未来工作
8、QA
打造情感陪伴与用户记忆构建的个性化AI智能体
〇 分享简介 〇
大模型正从简单的对话机器人,走向“有工具、有记忆、会协同”的智能体形态。情感陪伴AI将完成“工具”到“伴侣”的进化中,国内外萌生许多养成式机器人、陪伴式机器人,以及虚拟场景。行业上,在医疗、教育、养老领域成为基础设施,“脑机接口”实现生物情绪级理解、伦理框架初步建立;未来,作为“数字家人”有可能性重构社会关系、个性化商业模式。
当下,企业在用户长期价值沉淀和情感粘性上尚有落差,AI常停留在功能层,难以被用户长期依赖。围绕“个性化分身+多Agent协同”,我们以“记忆检索—反思—行为”闭环为核心,验证如何在C端以“有用/有趣/有价值”驱动留存,并通过数据边界与上下文压缩实现低成本可持续体验。
本次分享研讨个性化AI智能体的定位与场景、记忆与反思机制的落地方法、多Agent对话编排实践,以及面向C端的增长与商业化启示,为与会者提供相关方向的思路与借鉴。
〇 分享收益 〇
目标:
1、用“记忆+反思”重构个体化体验,沉淀可训练的用户画像与长期价值。
2、以多Agent协同提升复杂任务的编排与可解释性,打造“可围观”的交互新范式。
3、在C端以“有用(功能)+有趣(情绪)+有价值(数据)”形成增长飞轮。
成功要点:
成功落地个性化AI智能体,关键在于以“近期性、重要性、相关性”三个维度进行了高效的记忆检索,并配合Reflection机制把个性特征抽象出来,确保分身在连续交互中的一致性与连贯性;同时在C端应用中,综合考虑成本边界、游戏化机制、价值分层和上下文压缩,以平衡用户体验与算力开销,并借鉴Paradot、Me.bot等在“情感陪伴+个性化服务”上的实践路径,持续探索可行的商业化模型。
启示:
个性化AI智能体的落地,可遵循“定位—场景—机制—运营”的四段式方法论,在出海和年轻人等细分市场中快速验证,并通过A/B测试与快速迭代不断打磨产品形态,拓展具备成长潜力的商业空间。
〇 分享亮点 〇
1、智能体进化路线:从提示词到上下文工程的体系化能力。
2、个性化分身的三大特征:用户画像与长期记忆、记忆检索、Reflection个性抽象;示例:心理咨询/塔罗占卜/星象解读中的连续性对话体验。
3、多Agent编排实践:让机器人能有序开聊、维持真实感的流程设计与规则设置,支持可围观的社交玩法。
4、C端产品策略:以“有用、有趣、有市场”拆解功能价值、情绪价值和数据价值;对标Paradot、Me.bot的个性化与主动服务思路。
5、成本与增长平衡:通过限定数据边界、上下文压缩、游戏化激励、用户价值分层解决成本控制和体验提升的平衡问题。
6、市场与人群:出海+Z世代验证窗口(年龄/国家分布样本),以轻量场景切入、快速小闭环迭代。
7、QA
AI时代下短视频传播的“效与能”
〇 分享简介 〇
在人人都是创作者的时代,短视频已经成为企业营销非常重要的一部分,AI加速了内容行业创作的效率,学习短视频和AI的结合已经成为企业加速发展的一大杀器。不仅可以帮助企业低成本获客,还能增强企业在整个媒介环境的影响力。
当下,AI重塑了短视频的生产逻辑与传播路径,更在重构整个数字内容产业的生态格局。未来的发展将更加注重人机协同的创作平衡、技术伦理的价值引导以及跨场景的服务延伸,最终形成以用户需求为中心、技术创新为驱动、社会效益为导向的新型传播体系。
本次分享深度拆解短视频行业发展情况,帮助企业提升“能”与“效”。从短视频底层的传播规律分析、企业及个人如何打造爆款,包括短视频帮助企业获客等方面,让企业理解AI短视频领域的应用进展,以及掌握企业和个人通过短视频获客、营销的秘密,预判未来AI应用在内容行业的深度思考。
〇 分享收益 〇
目标:
1、了解短视频传播的底层逻辑及传播方法论。
2、了解AI在短视频领域的应用
3、了解AI思考预测及未来内容行业预判
4、掌握使用系统思维去拆解短视频背后的那些秘密
5、了解企业应用AI及短视频的传播方法,掌握爆款短视频方法,打造现象级获客方式。
成功要点:
1、通过精细化设计的算法系统、平台能够深度挖掘并释放用户行为数据的潜在价值,实现多方共赢的效果。
2、病毒传播=人类行为学实验场 × 媒介特性放大器。抓住“趋利避害、寻求归属、渴望表达”三大原始动机,用算法思维解构感性需求,可实现指数级扩散。
启示:
1、爆款的本质是可复制的流量密码+不可复制的真实感。坚持优化细节、深耕用户价值的创作者,将在算法世界中脱颖而出。
2、企业想掌握爆款短视频的核心逻辑并打造现象级获客方式,需要结合内容策略、算法机制、用户心理和运营技巧进行系统性布局。采取精准定位、明确目标与差异化优势、构建长效运营护城河、平台算法破解、放大流量裂变、优化数据复盘体系等多种策略。
〇 分享亮点 〇
1、信息传播及内容的底层方法论
2、以一当十的短视频团队如何构建
3、人人都是“指挥官”
4、上帝究竟会握住谁的手
5、创作与创造,短视频打造增长飞轮
6、AI与短视频结合的秘密
7、QA
业务驱动下的内容产品智能场景应用提效
〇 分享简介 〇
随着大模型技术的飞速发展,千行百业应用日益广泛。银行业作为金融行业的核心,内容运营对于提升用户体验、增强品牌价值和实现业务增长具有重要意义。然而,传统的内容运营方式已难以满足日益增长的市场需求,因此,探究AI,尤其是大模型技术在银行内容运营中的深度应用及未来趋向具有重要价值。
某股份制银行,一方面在手机银行、企业微信等多端引入图文、短视频等内容,并配合进行埋点和A/B测试,从而实现针对用户内容点击行为的数据采集与分析,识别用户的内容兴趣偏好,补充完善用户画像。另一方面,借助抖音、小红书等内容平台每天产生的上亿条内容,利用大模型对短视频的分析能力,甄别出每天/每周与公域百大兴趣族群(如骑行人群、夜钓人群),相匹配的兴趣热点,再将该热点与大零售部门所能提供的各项权益进行匹配,例如:将《黑神话·悟空》的热点与持有的Steam满减权益相匹配,再借助人工智能生成内容(AIGC)的能力快速生成相应海报或banner(横幅广告),在自有或外部渠道进行投放。
通过这样的方式,实现内容获客的同时抓取用户行为,迭代完善用户兴趣画像,并指导下一轮热点提炼,实现在“数据飞轮”下的热点内容识别、客群深入理解、物料精准投放,从而最终实现转化,助推AUM提升。
本次分享深入探讨AIGC的时代背景下,以同花顺自营运营的经验、金融业务探索的历程,提升用户转化的业务场景、配套内容的供给策略,以及不同形式的内容(音视频、直播)在金融场景的具体应用,包括内容生态平台的构筑策略,整体对金融机构进行业务赋能,提升一系列业务数据转化与提效措施。
〇 分享收益 〇
目标:
1、了解金融领域的数字内容服务认知升级;
2、了解金融领域大模型和通用大模型的差异性和行业优势;
3、了解金融领域大模型的智能应用
成功要点:
以金融大模型和金融数据为核心驱动力,通过AIGC平台实现内容生产(模板/辅助/自动创作)、审核(多模态合规检测+人机协同)、分发(个性化推荐)全链路智能化,同时结合金融垂类数据(如财报、行情、研报)与专家知识,解决了内容生产效率低、合规风险高、用户体验不足等痛点。
启示:
随着大模型在Agent、多模态等方面的快速发展,可以预见银行未来会有更深刻的用户洞察、更到位的客户服务,在更好地满足用户金融需求的同时,也为用户带来充分的情绪价值,而这一切都需要由内容和体验来承载。
〇 分享亮点 〇
1、金融核心需求与AI技术赋能
1)核心诉求:金融数据/知识精准召回、专家级分析框架、风控合规落地
2)通用大模型VS金融大模型优势
3)构建“多模型生态+数据飞轮+服务平台+业务场景渗透”体系,覆盖投顾、投研、投教等核心场景
2、智能投资助理核心实践:
1)能力亮点:聚焦股/基/期等领域(90+技能)、意图识别准确率>98.6%、支持单技能定制与内容框架自定义
2) 三大应用场景: 金融查询、投顾建议、事件解读
3、AIGC驱动的内容生产与运营升级
1)AIGC平台演进:从“单一场景拼接”到“Agent驱动全流程”
2) 内容质检与优化
3)AI魔毯
4)Auto-Flow:全自动化快讯运营(AI驱动+人工审核)、Agent驱动要闻运营
4、个性化推荐体系构建
1) 内容知识库(KYP)
2)推荐引擎(CAMS)
3) 用户画像(KYC)
AI大模型混合架构驱动的金融产品创新实践
〇 分享简介 〇
近年来,金融行业数字化转型持续加速,AI大模型的引入推动了智能服务从“黑盒响应”走向“工程可控”。2025年以后,“精准”与“低幻觉”成为金融智能应用的基本要求,合规、可追溯、可度量的多层AI架构正成为金融产品创新的新趋势。行业主流正从依赖单一大模型的探索阶段,转向多层协同、多Agent、分布式治理、知识库合规的工程级智能体系,实现对客户体验、服务专业性和监管要求的全面兼顾。未来,谁能率先落地端到端可信AI生产体系,谁就能占领金融智能服务的竞争高地。
在当前的金融科技领域,融合大模型的小模型混合部署技术,将强大的自然语言理解、个性化推荐等AI能力嵌入银行App、微信小程序、智能客服等C端场景,可让用户体验到更懂他们的智能助手与服务;这些AI应用展示大模型能力支持下,客户服务实现更精准的客户意图理解与应答,同时,也可通过小模型在特定环节实现高效、低延迟的自动处理。
本次分享聚焦于“AI大模型混合架构”在金融类产品中的创新应用,系统讲解“四层可信智能架构”落地实践,从产品前端,到智能体分工、再到模型调度与知识库治理,层层把控服务的精准性与安全性;同时,引入多Agent协同创新、工程级Prompt管理与触突型上下文感知,有效降低AI幻觉率,确保服务专业与快速响应;最后,通过知识库分层治理与小模型校准,为金融业务场景实现“零幻觉、强理解、合规可审计”的AI智能助理产品。
〇 分享收益 〇
目标:
1、了解大模型和小模型在C端金融产品中的组合应用实践,快速赋能智能业务场景。
2、探索金融类产品研发在AI时代的体系化变革路径,从团队协同、模型迭代到运营闭环的最佳实践。
3、获取大模型+小模型混合部署策略与架构优化方案,兼顾创新能力、响应速度与安全合规。
成功要点:
通过创新的四层可信架构,将不可控的AI黑盒系统化地改造为可度量、可回滚、可信任的金融级工程化服务流水线。
启示:
在金融领域,AI应用的成败不在于模型大小,而在于能否构建一个系统性可信的工程体系
〇 分享亮点 〇
1、AI行业应用挑战和形态
1)C 端客户服务与体验痛点
2)传统产品研发体系瓶颈
3)用户洞察与需求设计
2、产品架构和实现
1)“智能问答”“个性化推荐”“主动关怀”三大用例
2)大模型+小模型混合架构
3) Model-as-Service 大模型即服务
4) Prompt-as-Service 提示词即服务
3、 产品研发架构的变革
1)PM+提示词+智能体+大模型+数据的协同模式
2)工程级Agent和大模型应用经验
3)工程级提示词应用经验
4、QA
随着大模型技术的高速演变, 围绕大模型的体系结构和计算架构正在经历着代际变革。 在以智能体为核心的 AI 原生应用快速演化的过程中, 从芯片到算力集群, 再到高速互联技术, 以及以 transformer 算法为核心的超大规模分布式训练和推理架构, 强化学习等技术, 驱动着大模型分布式计算架构的快速演进。
算力的投入,对于企业而言,需以工程化思维系统推进优化,将大模型从“成本中心”转化为“利润引擎”。 大模型的计算演进是“用工程创新释放理论效能”的过程,它既是基础设施的能力沉淀,也是商业模式的创新支点。在LLM走向千行百业的当下,谁能高效完成从参数到服务的转化,谁就能在AI价值链分配中占据更有利位置。
本专题将深入分析大模型计算架构的关键技术演化和最佳实践,包括大模型算子优化, 高速互联网络, 大模型数据工程, 分布式训练和推理架构, 强化学习工程优化, 智能体应用架构等技术和实践。涵盖:大模型端到端预训练、AI原生技术架构与具身智能技术逻辑、风控模型推理、算力集群优化、大模型服务推理优化、低成本部署实践等方向议题,让参会者了解并掌握大模型计算架构技术的发展趋势和前沿动态, 帮助参会者深入了解行业动态, 借鉴成功经验, 为企业制定高效的大模型计算架构解决方案。
出品人:郑然 百度杰出架构师, 百度智能云基础云技术负责人
大模型端到端预训练优化实践
〇 分享简介 〇
当前,随着大模型(LLM)在各行业的广泛落地,企业在大模型预训练阶段面临着算力消耗巨大、训练效率低、工程实现复杂等诸多挑战。与此同时,国内深度学习框架与大模型生态持续快速发展,实现端到端的高效预训练,以及借助本地化框架进行可复现、可持续优化,成为业界关注的焦点。
随着模型规模不断扩大,单纯依赖硬件堆叠已难以满足大模型高效训练的需求。因此,业界普遍在探索包括高效分布式并行、参数高效微调、异构算力调度、混合精度训练、数据并行与模型并行结合等多种技术路线。此外,在保持训练高效性的同时,保证易用性、可复现性与灵活扩展性,也是当前深度学习框架和大模型生态共同关注的难题。为此,飞桨深度学习框架不仅基于文心4.5模型,突破了诸多大模型训练效率提升的关键技术,同时也将如DeepSeekV3等业界其他优秀实践中的关键技术进行了开源实验和进一步优化。
本次分享将围绕“端到端大模型预训练优化”,系统深入分析飞桨框架在支撑大模型训练中的工程与算法创新,以及文心 4.5 、DeepSeekV3 等开源大模型训练上的实践经验,帮助企业和开发者更好了解大模型训练技术,提升模型训练效率。
〇 分享收益 〇
目标:
1、为AI行业从业者提供大模型端到端预训练的实操经验,
2、分享主流深度学习框架(飞桨)支撑大模型工程落地,为企业自研或复现大模型提供可借鉴的解决方案。
3、掌握大模型训练的全流程优化思路
4、了解主流框架的底层创新,获得模型复现和性能调优的实用经验,提升企业AI落地与创新能力。
成功要点:
通过深入调优和工程细节优化,原生支持文心系列大模型的训练调优,吸纳 DeepSeekV3 等业界其他优秀实践中的关键技术,降低复现门槛。
启示:
1、一套可支持超大规模训练、框架原生(收敛效率优化、计算通信优化、并行策略优化、集群容错能力)的全栈大模型训练体系,拥有大量模型训练实际场景框架。
2、大模型端到端预训练优化已从技术命题升级为企业战略刚需。其价值在于: 重塑产品智能等级、重构行业竞争格局、重建技术资产壁垒。企业需以工程化思维系统推进优化,将大模型从“成本中心”转化为“利润引擎”。
〇 分享亮点 〇
1、趋势与挑战:大模型预训练的痛点与机遇
1)训练资源消耗、工程复杂性的行业现状
2)框架与生态的本地化需求
2、飞桨框架原生支撑大模型预训练
1)高效混合并行策略、混合精度训练、FlashMask,集群容错
3、文心4.5开源模型的预训练核心技术
4、基于飞桨复现DeepSeekV3最佳性能的实践
5、QA
算法驱动的AI原生技术架构与具身智能技术逻辑
〇 分享简介 〇
具身智能(Embodied Intelligence)强调智能体需通过与物理环境的交互获取感知和行动能力,近年来成为人工智能研究前沿。其发展路径可从视觉-语言-动作(VLA)系统(集中示例为两指夹爪)到高自由度灵巧手操作呈现明显演进。早期VLA研究聚焦于使智能体理解视觉信息并通过语言指令执行简单动作,如RT-1、RT-2等模型实现了基本视觉理解与机械臂控制。随着大模型技术发展,如PaLM-E、RT-X等多模态模型能够整合视觉、语言与动作表征,大幅提升了场景理解与策略生成能力。
高自由度灵巧手研究标志着具身智能迈向更复杂操作。Dexterous Hands项目展示了多指协同操作能力,而强化学习方法使得复杂抓取动作成为可能。最新研究实现了视觉引导下的精细操作,通过视觉-触觉多模态感知实现了如开瓶盖、折纸等复杂任务。当前挑战主要包括:物理交互的精确建模、现实与仿真之间的差距(Sim2Real Gap)、以及长序列复杂任务规划。未来研究方向指向多传感器融合、自监督学习与大模型驱动的任务分解能力,以实现更接近人类水平的灵巧操作
本次分享主要围绕高自由度灵巧手的实现,sim2real gap, 灵巧手操作模型,结合具身智能的进一步发展,共同为大家展现AI原生技术架构与具身智能技术逻辑,为与会者带来进一步借鉴。
〇 分享收益 〇
目标:
1、了解高自由度灵巧手在具身智能中的应用和实现方式
2、结合具身模型,为未来的可泛化操作提供思路
成功要点:
1、从结构驱动到仿生模型驱动的设计:现代机器人技术正经历从传统机械结构驱动向仿生模型驱动设计的转变,通过模拟生物系统的感知、决策和运动机制,我们能够创造出更加灵活且适应性强的智能系统。
2、Sim2real gap:模拟环境与现实世界之间的差距是一个不可忽视的挑战,需要通过域随机化、对抗训练和迁移学习等技术来减小这种差距,确保算法在复杂真实环境中的稳定表现。
3、泛化的可能性:控制算法的泛化能力决定了系统应对未知情况的表现,通过模型融合多源数据和强化鲁棒性训练,提升系统在不同环境条件下的适应性和可靠性。
启示:
在具身智能的发展中,精细操作和掌内调姿,以及工具使用是发展的必然路径,让高自由度灵巧手突破高维度输出,拟人化操作,以及使用工具,是当前具身智能任务操作体系亟待解决的难点和突破点。
〇 分享亮点 〇
1、AI与物理世界的鸿沟:具身智能的时代机遇
2、AI原生技术架构:算法驱动的软硬一体化创新
3、 核心AI算法:多模态感知与智能决策模型
4、开放生态建设:技术平台化的产业价值
5、 产业应用落地:智能制造的技术实践
6、下一代产品路线:技术展望与产业协作、以及构建人机共融的智能未来
7、QA
电商风控模型推理平台探索:打造高效、自动、智能的大数据+AI系统
〇 分享简介 〇
随着全球电商与支付领域的高速发展,实时交易数据量与复杂模型结构持续攀升,数据与模型的深度融合正逐步成为反欺诈风控体系的核心趋势。在Amazon、eBay、阿里、京东等头部平台中,模型驱动的自动化识别能力日益成为提升风控精准度与响应速度的关键。尤其是,高性能推理任务对GPU资源的依赖与争抢日益突出,通过模型压缩、推理批量化、资源池化等方式优化资源调度,成为提升系统吞吐能力的关键路径。进一步而言,行业正在积极探索模型推理工作流的自动化生成与智能调度机制,以实现数据计算、模型推理、业务逻辑与监控平台之间的高度协同。这类跨平台的统一编排,会演化为大型科技公司工程平台建设的标准模板,旨在提升系统的可复用性、可观测性和敏捷运维能力。
业内普遍实践为依托海量数据提取高质量特征,构建多阶段、多模态的混合模型体系进行推理,以准确识别欺诈行为;同时,将模型推理结果高效地服务于各类业务场景。这种模式基本能够覆盖业务需求,但在实施过程中仍然存在明显痛点:
1)模型推理需处理TB甚至PB级的数据量,特征维度高,导致推理效率低、资源消耗大,难以满足实时响应需求;
2)跨平台推理流程缺乏高效统一的调度与管理机制,增加了协调难度和延迟;
3)推理工作流的代码开发、部署成本较高,造成生产效率降低和运维复杂度上升。
这些痛点促使企业对推理计算方案及数据与模型工程架构进行深度优化和智能化改造,以整体提升系统性能和生产效率。
本次分享将围绕通过系统性工程优化,在海量数据背景下,实现复杂模型批量推理的高效执行与智能调度;在确保模型精准性的前提下,同时实现高速度和低资源消耗。包括:模型推理计算方案的选型与优化、推理工作流的自动化生成与跨平台调度、推理开发与运维效率提升等。共同为行业IT从业者带来借鉴。
〇 分享收益 〇
目标:
1、了解当前电商风控领域在大数据与模型工程交叉融合方面的最新趋势,以及模型工程未来的发展方向。
2、理解一线平台在模型推理自动化、资源优化、平台协同方面的工程落地实践。
成功要点:
1、针对不同模型结构和数据特性,合理选择与优化计算方案,显著提高推理效率和资源利用率;
2、借助自动化代码生成、可视化配置及一键式部署,使模型推理流程在多平台间高效、稳定、低成本地运行;
3、搭建交互式、统一管理的推理平台,提高工作流质量与系统的可维护性,全面增强风控体系的竞争优势。
启示:
在实现模型推理规模化部署中,持续提升其执行效率与资源使用率,是当前工程体系亟待突破的重点。
〇 分享亮点 〇
1、背景介绍
2、海量数据与复杂模型的高效批量推理
1)面向复杂模型类型、海量数据场景下的推理方案分析与选型
2)典型风控场景下模型批量推理优化与案例分析
3、模型批量推理工作流部署与调度
1)模型一键部署与工作流自动生成
2)面向模型推理复杂工作流的跨平台调度与统一管理
4、总结与展望
1)推理方案自动化选择:根据数据规模、模型类型、SLA要求,自动匹配推理方案
2)基于大模型的性能优化:利用LLM分析日志、识别瓶颈,实现智能运维,推动推理平台向自优化、自诊断方向演进
5、QA
大模型服务推理优化与工程化落地
〇 分享简介 〇
当前企业加速拥抱AI,大模型服务在企业应用中的需求激增,但推理效率与工程化落地仍然面临巨大挑战,有效平衡性能与成本,实现高性能、高可用的大模型服务,是许多企业重视、且需要解决的核心命题。
我们发现业界主要通过模型压缩、动态批处理、缓存优化技术等提升推理效率,同时借助K8s、服务网格等工程化手段增强可用性、扩展性。然而,实际落地过程中存在技术选型复杂、优化与业务适配度低等瓶颈,需结合具体场景优化全链路方案。
本次分享聚焦“高性能推理+工程化落地”,深入解析大模型服务优化的关键技术,并探讨工程化实践中的架构设计、监控运维及成本控制方法,助力企业构建高效、稳定的大模型生产级服务。将为行业展现高效、低成本的大模型服务部署方案,帮助与会者在工程推理层面,完成从实验到生产的转化。
〇 分享收益 〇
目标:
1、为企业提供高效、低成本的大模型服务部署方案,解决推理性能与资源消耗的平衡问题。
2、共同探索工程化最佳实践,帮助AI团队减少试错成本,加速模型从实验到生产的转化。
成功要点:
企业推理优化主要通过模型压缩、动态批处理、缓存优化等方法降低计算开销、提升推理速度;通过GPU虚拟化、自动扩缩容、自适应负载均衡等方法降低资源成本、提升服务可用性,提高服务稳定性,来完成工程化,是最稳妥便捷的路径。
启示:
企业在大模型服务推理优化上,若性能大幅度提升,将推理延迟降低30%~70%,吞吐量提升2~5倍,可显著优化成本(GPU资源消耗减少50%),这些将为企业带来更快的响应速度,更高的稳定性,更优质的用户体验。
〇 分享亮点 〇
1、AI平台架构
2、分享推理优化技术实践
3、分享工程化优化技术实践
4、未来展望
5、QA
异构算力集群的优化与调度实践
〇 分享简介 〇
随着AI大模型进入迅猛发展的“AGI”时代,算力需求持续攀升,对大规模、高效率、高稳定性的算力基础设施提出了前所未有的挑战。在高端GPU资源受限及国产化趋势的双重背景下,充分挖掘和利用多样化的异构算力,已成为突破算力瓶颈的关键路径。
对于复杂的异构计算环境中,大模型进行高效的训练与推理优化尤为重要。在训练阶段,通过混合并行策略、ZeRO显存优化等优化手段来提升优化效率,显著提升大模型在异构集群上的训练效率和稳定性。在推理阶段,除了探讨模型量化、剪枝等常规轻量化方法,PD分离(Pipeline-Decoupling)、大EP(Execution Provider)等进阶优化策略,可促进高效推理引擎的设计,以实现在不同硬件平台上的灵活、低成本服务部署。
本次分享基于商汤“大装置SenseCore”在国产算力优化与调度方面的思考与实践。阐述构建基础设施、平台、算法到服务的全栈一体化AI Infra解决方案,核心实践聚焦于解决异构算力“用起来、用得好”的难题。此外,也将重点分享分层集合通信、异步训练和自动负载均衡等技术,有效克服了混合集群的“木桶效应”,实现了NV与国产算力的协同高效运行,实现例如“异构混训”、“大规模EP推理”等高效训练推理方案。全面通过这些实践,为从业者共建自主可控的AI产业生态,让强大的异构算力成为普惠资源,帮助企业加速AI的产业化应用。
〇 分享收益 〇
目标:
1、了解当前国产异构算力的现状,并获得务实可行的国产算力适配与优化策略,业务迁移至国产算力的可能性和商业可行性。
2、学习提升混合硬件集群效率的关键技术与架构思路。
3、 洞察AI算力基础设施的未来发展方向与国产化趋势。
4、了解异构算力的核心能力、性能特点及适用场景,以及针对场景和方案来进行技术选型、算力规划和预算决策。
5、了解PD分离(Pipeline-Decoupling)与大EP(Execution Provider)等业界前沿的进阶推理优化策略。以及在最新的国产设备上进行部署和应用。
成功要点:
解决从底层硬件到上层AI应用的全链路问题,并完成异构算力调度纳管,以此揭秘业界领先的“异构混训”、“大规模EP推理”等技术在国产异构芯片上的实践,深层次分析芯片领域高效融合,利于企业发挥最大效能 。
启示:
1、结合高效推理引擎,在多样化的国产及非国产硬件上实现模型的低成本、高效率部署。以及掌握高效推理引擎的设计,可以在多种硬件上实现灵活、低成本服务部署,最终目标均可为开发者构建一套在异构算力时代,高性能、高性价比的AI系统完整参考方案。
2、对企业而言,异构算力集群的优化和调度,是从成本中心到战略赋能中心转变。决定了企业在数字化、智能化竞争中的速度和成本,是构建长期战略的关键一环;是驱动公司产品研发、数据分析和业务创新的核心引擎;更是资源视角到业务视角的效能中心。
〇 分享亮点 〇
1、背景与挑战:高端GPU资源受限与国产化趋势下,如何“用起来、用得好”异构算力。
2、异构算力的核心能力和技术选型 :主流GPU、国产AI芯片等硬件的能力与特点分析,如何根据不同AI任务(训练 vs. 推理)选择合适的硬件组合。
3、训练优化实践 :通过显存优化、并行策略优化等方式显著提升大模型在异构集群上的训练效率和稳定性。
4、推理优化实践 :通过轻量化方法和进阶优化策略在不同硬件平台上实现灵活、低成本的服务部署。
5、基于异构算力的场景落地实践 :在最新的异构算力芯片上的完整大模型场景落地全过程。
6、异构算力未来展望:构建高性能、高性价比AI系统的关键要素。未来趋势:统一编程模型、软件定义算力与智能化调度。
7、QA
基于 Intel® Xeon® 6 的 DeepSeek R1 高效低成本部署落地实践
〇 分享简介 〇
近年来,DeepSeek-V3/R1、LLaMA-4 和 Qwen 3 等超大规模专家混合(MoE)模型在大语言模型(LLM)领域表现出色。然而,这类MoE模型显著增加了内存开销,部署时通常需要8卡甚至16卡高端 AI 加速器,提高了系统成本。
Intel PyTorch 团队为 SGLang 项目贡献了 CPU 后端的支持,并提出了一种基于第六代 Intel® Xeon® 可扩展处理器的高性能纯 CPU 部署方案,成本仅为传统方案的一小部分。借助Intel AMX(Advanced Matrix Extensions)实现FlashMLA 和 MoE 模块的优化算子,在 TTFT(首次 Token 生成时间)上相比 llama.cpp 实现 6–14 倍提速,在 TPOT(总吞吐量)上实现 2–4 倍提速。大幅降低了中低并发场景下大规模 MoE 模型部署的成本。
本次分享将系统阐述内核级优化的技术细节,涵盖任务划分策略、内存访问效率优化,以及基于 Intel® AMX 实现高度优化的 GEMM 算法。重点解析以下三个关键性能热点:RadixAttention,MoE(混合专家模型)和非原生条件下的FP8 GEMM。 为与会者提供最直接的借鉴。
〇 分享收益 〇
目标:
1、探索 LLM 部署中 CPU 的应用以及 GPU/CPU 混合应用的场景,帮助企业降低部署成本。
2、解析内核优化中的关键性能热点。
成功要点:
基于 Intel® AMX 的高性能算子开发(Flash Attention, Fused MoE, FP8 GEMM),通过 NUMA 并行充分利用所有 CPU 核心资源,是企业降低部署成本的关键。
启示:
针对 DeepSeek R1、Qwen 3 等代表性 MoE 模型,可通用 CPU 平台上的低成本部署路径完成,适用于边缘部署与大规模线上推理场景。
〇 分享亮点 〇
1、SGLang 已原生支持在搭载 Intel® Advanced Matrix Extensions (AMX) 的 Intel® Xeon® CPU 上运行的 CPU 后端。
2、支持在 Dense FFN 和 Sparse FFN(MoE)中使用 BF16、INT8 和 FP8 数据格式。
3、在 TTFT(首次 Token 生成时间)上相比 llama.cpp 实现 6–14 倍提速,在 TPOT(总吞吐量)上实现 2–4 倍提速。
4、通过对 MoE 内核的高度优化,实现了 85% 的内存带宽利用率。
5、支持通过张量并行(TP)实现跨 NUMA 节点的并行计算。
6、QA
昇腾大模型推理性能优化最佳实践
〇 分享简介 〇
大模型推理优化已进入“精耕细作”阶段,不再依赖单一技术突破,而是通过架构革新、算法迭代、硬件协同和系统设计的深度融合实现效能跃升。这一过程既需要底层技术的持续创新,也依赖于工程化能力的体系化构建。
企业在解决大模型推理性能优化中,AI领域的核心挑战难点涉及硬件、算法、系统架构及应用场景等多个维度。而真正的解决方案在于构建自适应推理生态系统。通过实时剖分器监控各环节延迟分布,运用强化学习动态调整批大小、并行度和精度配置;结合因果推断识别性能瓶颈根源;最终实现从“一刀切优化”到“千人千面”的资源调度革命。
本次分享深入研讨超节点以及大规模专家并行方案,以华为的系统创新,互联优势,软件层面在算子加速库、动态调度、PD分离部署等领先领域下,将大模型推理极致性价比的推理解决方案展现,帮助与会者借鉴倍数级提升大模型推理性能实践,开创下一代AI基础设施范式。
〇 分享收益 〇
目标:
1、了解华为推理引擎对芯片、算子、推理服务化的系统优化方案与思考。
2、学习大型企业大模型推理中,性能推理优化的落地优秀实践。
成功要点:
在中心推理对高吞吐、低时延诉求不断提升时,持续提升推理性能成为各企业关键战场。华为超节点架构创新、构建互联带宽优势、构建大规模专家并行架构,都通过系统创新在MOE模型推理中,降低tokens成本,均取得了性能大幅度提升。
启示:
大模型推理优化本质是“用工程创新释放理论效能”的过程,它既是基础设施的能力沉淀,也是商业模式的创新支点。在LLM走向千行百业的当下,谁能高效完成从参数到服务的转化,谁就能在AI价值链分配中占据更有利位置。
〇 分享亮点 〇
1、解析华为超节点的框架与优势
2、分享大规模专家并行方案的原理与成果
3、分享昇腾推理引擎的技术架构
4、大模型推理的未来展望
5、QA
智能化已成为大数据产业发展的核心引擎,大模型技术浪潮正在重塑数据研发治理工作的全流程。数据平台与链路的智能化升级不仅需要突破单点技术能力,更需要构建覆盖数据全生命周期的智能体系。其中,企业数据资产的深度治理与知识沉淀是基础,而基于大模型的智能体技术则是实现知识价值转化的关键路径。
本专场将汇聚行业领军企业与前沿实践案例,重点探讨通过知识治理构建企业专属数据资产库,并借助智能体技术实现知识的深度挖掘与应用。涵盖:分析智能体架构、智能决策Data Agent、数据工程、高质量数据集、数据智能检索、因果推断挖掘、元数据增强等前沿实践。让AI深度理解业务语义,实现从找数取数到分析决策的闭环赋能,为从业者提供从技术架构设计到规模化落地的全景洞察与技术分享,共同推动数据智能从“工具赋能”迈向“生态重构”。
出品人:黎洋 腾讯大数据AI算法负责人
AI Native数据智能检索技术探索与能力建设
〇 分享简介 〇
在Data+AI的战略目标下,理解数据研发需求、构建AI原生的数据底座、以及深度分析前沿大模型技术与能力边界,从而更加合理地设计与优化AI技术,是实现数据普惠的愿景。
Data Agent作为人工智能(特别是大语言模型)在数据领域落地的革命性应用,数据检索作为Data Agent的第一个关键步骤,在大数据与复杂数据环境中,元数据质量不足、用户查询意图多样性及传统检索技术的局限性,共同构成了数据检索的核心挑战。
企业通过分析用户SQL查询历史与使用习惯,动态优化元数据描述与索引,实现“以用促搜”的闭环增强机制。同时,借助大型推理模型的深度思考能力,构建Agentic RAG框架(以DeepSearch为例),通过多阶段召回、智能推理与工具调用,精准挖掘元数据关联,可以有效应对结构化数据的层级特性与语义歧义问题。
本次分享将深入探讨通过融合大语言模型(LLM)、检索增强生成(RAG)及用户行为与知识驱动的元数据增强技术,构建智能、自适应的数据检索新范式。同时,展望数据检索技术的未来。
〇 分享收益 〇
目标:
1、了解数据检索智能化技术背景及应用场景;
2、探索大模型智能体与AI Search算法实践路径;
成功要点:
推理模型与AI智能体技术的有机结合极大地提升了智能检索技术在数据研发场景落地的成熟度,同时,数据与知识增强技术奠定了落地基础。
启示:
作为构建Data Agent(数据智能体)的基石,智能化检索将推动数据交互向更自主、更普惠的方向发展,助力企业实现全生命周期数据研发的智能化升级。
〇 分享亮点 〇
1、分享数据检索背景以及挑战
2、大模型AI检索技术带来的启发
3、分享能力建设路径与应用、案例
4、总结与展望
5、QA
人工智能高质量数据集构建实践
〇 分享简介 〇
大模型时代,人工智能快速发展,数据、算法、算力3要素中,算法、算力趋于成熟,但高质量数据仍然严重短缺,特别是复杂性、多样性的高质量数据。人工智能对高质量数据需求越来越强烈,数据需求从通用领域拓展到垂类应用。
"人工智能+”行动到哪里,高质量数据集的建设和推广就要到哪里。逐步实现从“劳动密集型”向“技术-知识双驱动”的升级,以匹配人工智能对高质量数据的严苛需求。高质量数据平台工具链建设聚焦在BAT、央国企等大型企业,有实力开展高质量数据研究、数据工具研发、数据生产平台开发等。数据标注企业以传统人力服务为主、平台建设围绕人工标注数据的工具链为主,当前数据基础服务行业处于百花齐放、还未形成大体量行业龙头情况。2022年OpenAI发布ChatGPT后,对于大模型预训练需要的知识性海量数据处理需求加速,但多模态AI治理平台缺失。高效数据治理平台工具将是实现海量高质量数据建设的工作重点之一。
本次分享将以人工智能高质量数据集构建实践为主体,深入探讨高质量数据开发建设工程框架、以平台工具链牵引的高质量数据构建案例。帮助与会者厘清高质量数据,对于企业构建AI应用的重要价值。
〇 分享收益 〇
目标:
1、通过人工智能企业级PB级高质量数据集建设实践,抽象出高质量数据集建设的平台工程、工具链技术、业务专家等系统性框架。
2、展开AI数据治理、AI数据标注的高质量数据构建实践案例,加速通用及垂类大模型需要高质量数据集建设。
成功要点:
人工智能高质量数据集建设是一个系统性工程,需要统筹规划数据生产体系、应用牵引、技术创新、人机协同平台、用工模式创新、数据质量评价及数据生产安全保障等。
启示:
1、企业需快速熟悉大模型时代,人工智能高质量数据建设的系统性方法,加深对数据建设的深度理解。有利于实现海量高质量数据建设,加快AI应用落地以便辅助业务发展。
2、高质量数据集是AI系统的石油,其建设不仅是技术工程,更是企业构建AI 核心竞争力的战略投资。未来决胜AI胜负的不是算法创新,而是数据系统的工程能力。
〇 分享亮点 〇
1、人工智能数据的需求变化
2、高质量数据开发工程框架
3、高质量数据构建案例分享
4、QA
数据智能的深水区:面向复杂决策的因果推断挖掘
〇 分享简介 〇
数据智能领域正经历着一场深刻的范式迁移,即从以“预测”为核心的关联分析,向以“决策”为目标的因果推断演进。这一趋势的背后,是业界普遍面临的增长困境:在高维复杂的业务生态中,基于相关性的机器学习模型虽能精准预测,却无法为“如何有效干预”提供科学指导,导致企业在策略制定上仍依赖于高成本的A/B测试或模糊的经验归因。
我们认为,突破这一瓶颈的关键,在于构建对业务系统的结构性理解,从数据中发掘“变量-行为-结果”之间的因果链路。
为应对这一挑战,本次分享将从因果推断的视角出发,提出一套系统的“因果驱动数据智能的三步实践框架”。深入研讨摒弃传统的关联分析,演示识别定性的因果方向以构建业务因果图为起点;进而定位影响决策效果评估的关键混杂变量;最终帮助企业个性化决策的De-Confounding Uplift算法实践。为与会者揭开业务增长背后的因果谜题,让数据真正驱动科学决策。
〇 分享收益 〇
目标:
1. 了解一套将因果推断应用于复杂业务的、从理论到实践的端到端解决方案。
2. 掌握从高维数据中构建业务因果图、识别关键混杂变量的核心方法、并应用前沿Uplift模型进行个体因果效应(ITE)评估的技术,以支撑精准干预决策。
成功要点:
基于科学剥离业务中复杂混杂因素的系统因果推断方法,从“群体平均”分析下钻至“个体增益”评估的核心技术,为实现数据驱动的精细化资源分配和个性化策略提供决策依据。
启示:
推动数据智能从模式识别的“预测”能力,跃迁至对系统内在因果机理进行建模的“决策”能力的关键命脉。
〇 分享亮点 〇
1、相关性驱动的迷雾
1)业务增长悖论
2)关联的陷阱
3)破局之道:因果驱动
2、因果推断实践现状与困局
1)因果推断的基本目标:ATE和ITE
2)面向RCT的因果推断实践
2)面向观测数据的因果推断实践
4)因果推断的实践困局
3企业因果驱动策略:三步实践框架
1)第一步:识别定性因果方向,明确业务逻辑
2)第二步:定位面向核心业务抓手的关键混杂
3)第三步:指导个性化干预的 De-Confounding Uplift 算法实践
4)马消具体案例解析
4、总结与展望
1)总结:因果驱动的业务优化
2)展望:因果驱动的AI系统
3个客户半年时间,企业智能决策Data Agent与场景化AI转型实践
〇 分享简介 〇
AI智能体在大数据领域的发展趋势呈现出多元化和深度融合的特点,随着深度学习算法的不断优化和创新,AI智能体能够更高效地处理大规模、复杂的数据集。通过改进神经网络架构、优化训练算法等方式,提升智能体对数据的理解和分析能力,是实现更准确的预测、分类和决策的关键。
多模态数据融合、RL与自主决策能力的提升,也使AI智能体在大数据中具备更强的自主决策能力。未来,AI智能体将更加注重多模态数据的融合处理,能够同时分析和理解不同类型的数据,挖掘出更丰富、更有价值的信息,为各行业提供更全面、深入的洞察。广泛渗透在零售、金融、电商、医疗、智能制造、交通运输、能源管理、农业等众多领域。结合Data+AI进行数据智能决策是企业当下的必选项,需要前置技术和业务知识储备,共同推进各行业的深度应用和变革。
本次分享将聚焦AI技术和数据建模能力,构建企业智能决策体系,实现从“经验决策”到“数据驱动”的跃迁。深入探讨企业在实际项目中构建AI辅助决策系统的场景案例,以及AI组织化转型,充分利用AI释放数据价值,帮助企业提升运营效率与战略判断力。
〇 分享收益 〇
目标:
1、了解AI智能决策的基本框架:包括数据建模、指标体系、知识建设、AI场景化应用等关键环节。
2、了解典型的AI决策场景,最新的落地进展和试错情况。
3、了解建设一个AI辅助决策平台落地实践,从0到1完成数据治理与智能化决策闭环。
4、帮助企业建立创新意识,认识AI在提升组织敏捷性与战略判断力中的重要角色。
5、充分理解AI数据决策的能力边界,做好企业的有效技术投资。
成功要点:
AI可以实现生产决策流程的自动化,减少人工干预和繁琐的操作环节,进一步提高决策效率,提高生产效率和产品质量。完善的技术选择,安全、可信、可解释的AI数据决策智能体,随学习和训练来优化决策模型,数据的积累和算法的改进,让决策模型更精准。
以数据为基础,从知识体系、数据治理、指标体系,到 AI Agent,AI数据决策对资源进行更合理的分配和调配。在企业管理中,通过对各部门的业务数据、资源使用情况等进行分析,AI可以帮助企业优化人力、物力、财力等资源的配置,提高资源的利用效率,降低运营成本。
启示:
理解AI数据决策的能力边界,可提高决策质量,精准与客观分析的完成大量的市场数据、交易数据。能够处理和分析海量的数据,挖掘出其中隐藏的模式、趋势和关联,为决策提供更准确的信息依据。
〇 分享亮点 〇
1、从“数据决策”到“AI辅助决策”
1)企业决策困境与AI机遇
2)从数据治理到知识建设
3)管理能力是核心竞争力
2、从一次实践看AI智能决策系统构建路径
1)3个月:从一个小场景突破
2)6个月:面的展开和试错
3)9个月:成功场景的复制推广
3、AI+Data场景的成功经验和案例分析
4、未来展望
1)短期,场景化的知识建设
2)中期,企业经营的标准化和敏捷化
3)长期,社会组织的AI化转型
5、QA
LLM增强元数据、重塑大数据流通应用的挑战和实践
〇 分享简介 〇
Text2SQL技术加速从学术研究向工业级应用演进,核心呈现架构模块化解耦、处理流程轻量化(多阶段流水线降低LLM依赖)、垂直领域深度定制三大趋势。
Text2SQL应用落地主要集中在小规模场景,复杂场景面临准确性不高,如spider2.0 SOTA ~40分,存在业务语义鸿沟、多表联查与嵌套聚合不准、数据安全不可控等痛点,业界多在“意图理解-模式链接-SQL生成”的范式下,基于场景构建专用术语库与查询模板的寻求突破。
本次分享京东基于多元混合业务场景的Text2SQL实践,突破传统“模式链接→SQL生成”范式,创新“元数据增强驱动”的智能开发路径。为行业提供可复用的低成本通用化方案。
〇 分享收益 〇
目标:
1、揭示大模型增强元数据的核心价值:自动化构建业务语义层,解决60%+的术语映射问题
2、解码复杂场景落地关键:轻量化多智能体架构面向亿级字段的稳定性验证
成功要点:
通过动态反馈机制(自动评估+人工验证双循环)实现模型持续迭代,并以 业务流程嵌入式设计,确保人工反馈自然发生,攻克“大模型智慧与低级谬误并存”的落地悖论
启示:
Text2SQL的本质是 Data+AI的螺旋融合,以元数据为纽带连接数据工程与业务流程,让AI理解数据,让数据赋能业务。
〇 分享亮点 〇
1、京东大数据生态的挑战与机遇
2、智能化演进:元数据增强驱动的智能化
3、智能化实践:Copilot & Data Manus
4、元数据增强:AI持续进化的燃料
5、总结
6、QA
赋能数据工程:大模型驱动的关键能力创新与应用实践
〇 分享简介 〇
在Data+AI的战略目标下,深刻理解数据工程的核心需求、构建AI原生的数据处理能力、厘清前沿大模型的技术边界,是构建智能化数据工程体系、实现数据价值高效释放的关键路径。数据工程作为数据智能的核心环节,在复杂业务场景中面临严峻挑战:如原生数据质量参差不齐、高质量数据稀缺、以及传统处理流程智能化程度低,共同构成了数据工程提质增效的主要瓶颈。
企业通过融合大语言模型技术,在数据工程领域实现了三大突破:首先,构建了人机协同的数据标注与质检流程,通过LLM实现自动化数据预标注与质检;其次,利用数据生成能力构建垂类场景开发测试流程,解决特定领域测试数据稀缺问题;最后,通过数据筛选与生成能力构建垂类数据智能体微调数据,实现领域知识的持续沉淀与优化。
本次分享将深入探讨大模型如何赋能数据工程,涵盖智能标注架构、可控数据生成等关键技术,为企业构建精准、高效的数据生产体系提供实践指导,推动数据智能应用的规模化落地。
〇 分享收益 〇
目标:
1、了解数据工程流程、技术背景及应用场景
2、探索大模型在大数据场景数据标注、筛选、生成实践路径
成功要点:
大模型技术显著提升了数据工程的自动化水平,通过智能标注、语义筛选和生成式增强,解决了传统数据处理的效率与成本瓶颈,为高质量数据生产提供了新范式。
启示:
作为数据智能的基础,大模型技术正在重构数据工程范式,其显著降低数据获取与管理成本,将数据工程从保障性职能升级为驱动数据智能应用落地的核心能力,为企业沉淀高价值、可复用的数据资产。
〇 分享亮点 〇
1、分享大数据场景下数据工程背景以及挑战
2、大模型生成技术带来的启发(智能标注架构、可控数据生成等)
3、分享能力建设路径与应用、案例
4、总结与展望
5、QA
火山引擎Data Agent:分析智能体架构与落地实践
〇 分享简介 〇
各类针对特定场景的数据Agent成为主流,每个细分领域的数据特性、知识体系和决策规则都将形成独特的技术壁垒,无论在金融、医疗、零售等不同行业,根据具体业务需求定制专属的Data Agent场景化应用更加深入。未来Data Agent将具备更强的跨平台协作能力,能够打破不同数据系统和应用之间的壁垒,实现数据的无缝流通和协同工作,整合更广泛的数据资源为企业决策提供支持,进一步提升企业的智能水平。
数据智能体 Data Agent 作为火山引擎依托大模型技术,产出的新一代企业级 AI 数据专家,“Data”深度理解和运用企业数据资产的能力,“Agent”体现其作为企业的智能代理,能够像专家一样主动思考、分析和行动。
Data Agent 经历了抖音集团内部大用户量、高并发的考验与打磨,凝聚了火山引擎数智平台对于 Data+AI 的理解。 其中,智能分析智能体基于AI深度思考与大数据分析的洞察研究专家,融合大模型的深度思考能力,运用交叉分析与归因分析等方式,以智能问数为交互基础,自动规划数据洞察大纲并执行任务,最终形成深度研究报告,达成智能洞察最后一公里,放大企业数智化基建与AI创新价值。
本次分享将解析数据分析智能体产品与技术架构,以及在域内和To B客户的落地实践,通过行业融合,帮助企业学会应用先进智能化能力,提升决策效率与质量,与数据分析、行业从业者一起深探Agent未来发展方向。
〇 分享收益 〇
目标:
1、了解数据分析整体runtime架构,text2sql技术,非机构化数据分析技术。
2、了解可借鉴的不同行业、不同业务场景下数据分析智能体的成功落地案例,业务场景落地案例。
成功要点:
数据分析智能体就是幻觉与探索性之间的博弈,明确数据分析智能体在企业内部从需求调研、方案设计、技术选型、部署实施到上线运维的全流程实施逻辑,让企业内部实施路径更加清晰化。
启示:
1、Data Agent分析智能体架构具有显著的价值和深远的意义,它正在成为越来越多企业实现数字化转型和提升核心竞争力的重要工具。Data Agent促进企业更好地管理和利用数据资产,挖掘数据中的潜在价值,从而提升企业的核心竞争力。
2、Data Agent的实现离不开先进的数据处理、AI和自动化技术。随着Data Agent的性能和应用范围不断拓展,都终将推动相关技术的创新和发展,影响企业决策、企业数据素养。
〇 分享亮点 〇
1、拆解Data Agent 整体
作为连接数据与业务的智能中枢定位、核心价值、关键特性等
2、产品与技术架构:
涵盖分析智能体整体架构及各模块协同,结构化分析的 text2sql 技术,非结构化数据处理流程与跨模态分析能力。
3、效果演示与落地
1)展示核心功能场景及性能提升
2)字节域内典型业务案例与价值:成功企业行业方案、实施案例及方法论。
4、未来展望
展望技术演进方向,包含自主学习能力、拓展应用场景至前沿领域;规划生态构建,及对企业数字化转型的影响。
5、QA
在AI领域,技术的浪潮奔涌不息。随着OpenAI-o1和DeepSeek-R1等模型的横空出世,RL(强化学习)驱动的具备long-thought和reasoning能力的大模型迎来了快速发展的黄金时期,为人工智能赋予了更强大的逻辑推理与深度思考能力,开启了全新的技术篇章。
围绕推理大模型在语言大模型与多模态大模型领域的进展展开。在语言大模型方面,具备long-thought能力的模型如何在复杂问题解答辑推理任务中表现卓越,突破以往模型的局限性;在多模态大模型领域,推理能力如何助力模型实现图像、文本、音频等多模态信息的深度融合与理解,带来更加智能、交互性更强的应用体验。无论在智能风险预测与智能决策上、个性化学习辅导上,搜索技术Deepresearch上、领域辅助诊断与治疗方案规划上,诸多行业场景,RL驱动的推理大模型都在发挥着巨大价值,重塑行业格局。
本专题将聚焦于这一前沿技术趋势,深入探讨推理大模型的最新进展。从技术维度切入,邀请行业顶尖专家与学者,剖析RL技术如何为大模型注入长思考与推理基因,解构背后的核心算法与技术突破,展现这一变革性技术的底层逻辑与发展脉络。同时,注重理论与实践的结合,通过丰富的应用案例,展示这些前沿技术在各类业务场景中的落地成果。涵盖:DeepResearch、Agentic RL、预训练和后训练的若干关键技术、开域信息Agent、深度推理模型、跨兴趣建模等方向议题,共同探索RL驱动的大模型长思考与推理能力的无限可能,把握AI发展的下一个风口!
出品人:李永彬 Qoder&通义灵码算法负责人、阿里通义实验室资深算法专家
从RAG到DeepResearch:推理模型的进化之路
〇 分享简介 〇
随着思维链(CoT)技术的发展,大模型完成了从简单的生成模型(答案直给)到推理模型(展示思考)的进化,同时,随着日渐成熟的RAG技术的融入,解决了知识时效性、上下文长度限制的问题。融合这两种策略,即RAG加上“规划-验证-反思”循环,催生出DeepResearch产品的诞生,使得模型可以像专业人士一样思考:提出假设、拆解问题、递归检索和自我矫正,大大提升了模型智能推理的天花板。
DeepResearch作为OpenAI的明星产品,赚足了市场的口碑,头部企业争相效仿。然而,DeepResearch类型的产品仍处于早期阶段,尚存在诸多问题,例如垂直领域的工具利用、监督数据的匮乏、推理成本的高墙等等。
本次分享,将探讨从RAG/CoT到DeepResearch技术的演进历程。充分的让企业理解DeepResearch技术源起何处,又会走向何方。理解DeepResearch技术和产品解析、底层逻辑、产品设计、技术要点和产业生态。同时,从DeepResearch到智能体。更深层次的帮助从业者理解DeepResearch和智能体技术(Agentic AI)的紧密联系,展望智能体技术的潜力和未来。
〇 分享收益 〇
目标:
1、理解RAG以及更加复杂的DeepResearch系统的构建与优化方法。
2、了解基于思维链的推理模型finetune技术与实践。
成功要点:
通过优质的数据、垂类行业的经验、以及推理成本优化,来支持高效能的DeepResearch推理产品,助力业务的降本提效
启示:
DeepResearch技术产品的实现思路和实践经验教训。
〇 分享亮点 〇
1、从生成到推理:inference time scaling law
2、大模型幻觉的良药:RAG
3、DeepResearch产品与系统设计
4、应用落地与优化
5、展望:持续突破智能边界
6、QA
大语言模型的若干关键技术
〇 分享简介 〇
人工智能的发展长河奔腾不息,我们将回顾前大模型时代AI的探索之路。在那个时代,人工智能呈现出“百花齐放”的态态,不同领域的任务被独立的、高度特化的模型所解决,从计算机视觉到自然语言处理,我们积累了宝贵的经验,但也面临着模型泛化能力有限、数据与知识无法高效共享的“孤岛困境”。而今,随着算力、数据和算法的突破,我们共同见证了大模型技术开启波澜壮阔的AGI(通用人工智能)时代。这不仅是一次技术上的量变,更是一场深刻的范式革命,AI的能力从“单点专精”跃迁至“通用融合”,一个统一的技术范式正在重塑整个科技乃至社会的版图。
在这场由大模型引领的变革浪潮中,我们身处其中,既感到兴奋,也面临着前所未有的挑战。当前,业界的焦点已经从“能否做出大模型”转向“如何更高效率、更负责任地构建和应用大模型”。这里的核心痛点可以归结为两大方面:其一,“构建之痛”,即预训练阶段的巨大资源消耗与技术不确定性。如何设计出更高效、更具扩展性的模型结构,以及如何通过先进的优化器技术在海量数据中“炼”出模型的通用智能,是决定模型能力基石的关键。其二,“应用之殇”,即后训练阶段如何让强大的模型“为我所用”。一个预训练好的模型如同一座潜力无限的矿山,但如何高效、安全、可控地进行“开采”(推理),并使其输出与人类价值观对齐、真正满足用户意图(强化学习),是决定其商业和社会价值的“最后一公里”难题。
为了系统性地剖析并应对上述挑战,本次分享将沿着大语言模型的技术生命周期,深入两大核心阶段。我们将首先聚焦于预训练环节,探讨奠定模型能力的基石-先进的模型结构与高效的优化器技术,揭示模型强大通用能力的来源。随后,我们将视野转向后训练阶段,深入剖析决定模型实用价值的关键技术,希望通过这次分享,能与大家共同描绘出大语言模型从诞生到应用的完整技术图谱。
〇 分享收益 〇
目标:
1、提供一张描绘大模型发展脉络的‘地图’,和一把解构其核心技术引擎的‘钥匙’,助您看清来路,更洞见未来。
2、了解大语言模型预训练和后训练的关键技术
成功要点:
在数据和计算资源不断增加的条件下,不断提升大语言模型的精度和效率,才是企业利用大语言模型打造未来竞争力的核心方程式。
启示:
熵增的预训练和熵减的后训练,以及在没有额外人类数据和外部大模型的情况下的反馈,是构建AGI的关键技术。
〇 分享亮点 〇
1、当前大模型时代的AI
2、大模型开启了波澜壮阔的AGI时代
3、大语言模型预训练的关键技术:模型结构和优化器
4、大语言模型后训练的关键技术:推理和强化
5、QA
Agentic RL驱动的推理大模型的技术进展与行业应用
〇 分享简介 〇
业界研究层面,强化学习(RL)正成为驱动推理型大模型能力跃迁的重要路径。通过Agentic RL、基于环境反馈的长程优化、以及与外部工具、知识源的闭环交互训练,模型能够逐步掌握任务拆解、检索、逻辑推理与结果校验等核心能力。近期在基于网页的推理Agent(如WebShaper、WebSailor)和零示例搜索引导(ZeroSearch)等方向的探索,显示了RL在提升模型工具调用方面能力的显著潜力。
当前,企业在复杂业务流程、专业知识密集型任务中愈发关注大语言模型的可控性、推理深度及长期任务执行能力。然而,现实痛点在于:通用模型在面对多步骤推理、工具调用及结果验证等环节时,常出现事实偏差以及效率不足等问题。
本次分享将聚焦RL驱动的推理大模型的最新技术进展与典型行业应用案例,解析其在提升模型事实准确度、跨步骤推理稳定性、以及与业务场景深度融合中的关键方法论,旨在为企业决策者和技术团队提供落地路径与研发启示。
〇 分享收益 〇
目标
1、为AI及行业应用领域提供关于利用强化学习(RL)驱动推理型大模型实现可控、可验证、多步骤复杂任务处理的可借鉴方法。
2、了解推理大模型的最新技术进展与典型行业应用案例。
成功要点:
将高质量数据与评测体系作为根基,并让强化学习有效协同外部工具和知识库,是成功构建一个稳定、可验证的推理闭环的关键,也是实现复杂任务处理能力的重中之重。
启示:
推理大模型的核心价值在于构建了一个闭环智能体(Agent)训练架构,利用强化学习优化大模型的决策策略,使其能通过调用外部工具来可靠地完成现实世界任务。
〇 分享亮点 〇
1、针对于业务场景的QA数据构建
2、真实/模拟环境中的Agent训练
3、RL驱动的推理Agent与外部工具协同
4、QA
基于Agent RL的大模型复杂推理实践
〇 分享简介 〇
基于Agent RL的大模型复杂推理技术正处于快速发展阶段,其未来的发展趋势将更加注重技术的深化与融合、性能的提升优化、应用场景的拓展以及研究与发展重点的明确。同时,随着自我进化与适应能力的不断提升,这一技术将更加智能、高效地服务于各个领域,为社会的发展贡献更大的力量。除了强化学习与大模型的融合,以及规则智能体竞相结合,规则智能体在实体识别、意图分类等方面优势,都让大模型的逻辑推理、任务规划和工具调用能力互补,共同推动复杂推理技术的发展。
这些大模型复杂推理能力的持续突破,让电商企业正加速迈入智能化决策新时代。当前,中小商家在选品组合、流量诊断、营销策略等高复杂度任务中,普遍面临规则难泛化、人工效率低的问题,亟需具备高阶理解与自主推理能力的智能体提供决策支持。围绕这一趋势,聚焦电商场景中的可控推理路径设计,通过引入强化学习优化Agent的链式推理策略,显著提升了任务执行的准确性与鲁棒性,为复杂业务场景提供更可靠的智能解决方案。
本次分享将围绕“大模型复杂推理在电商领域的落地实践”展开,深入探讨推理型AI如何助力商家实现智能经营、提效降本与能力跃迁,同时,推理能力的引入,使AI从“回答工具”跃升为“思考型助理”,赋能许多行业从操作执行走向策略决策。大模型不仅能生成内容,更能理解业务、识别风险、预判趋势,助力企业释放深层智能业务价值。
〇 分享收益 〇
目标:
1、了解提升推理大模型的可控生成能力的关键技术
2、通过RL提升大模型链式推理能力,达成复杂业务场景提供更可靠的智能解决方案。
成功要点:
1、CoT + 工具增强推理:结合Chain-of-Thought引导推理路径,并接入数据工具辅助判断,有效解决电商策略中“结论难解释”“建议不清晰”的问题
2、 Retrieval-Augmented Generation:引入电商知识库、历史案例、行业规则等信息源,使推理结果更贴合上下文、减少幻觉问题
3、强化学习优化Agent链路执行路径:通过策略学习提升模型对多轮任务规划与子任务执行的能力,强化其“感知—推理—执行”闭环
4、场景微调与人机协同机制设计:结合实际业务数据对模型进行场景对齐微调,辅以人类反馈回路增强决策可信度和可控性
启示:
1、可控性与反馈机制是大模型应用落地的关键,RL优化与有效的数据反馈可有效抑制错误传播与幻觉生成,提升模型稳定性与可验证性
2、真正实现落地,离不开工程与算法的深度协同,除了模型能力本身,还需完善的数据支撑、任务编排机制以及多角色协同体系,共同构建稳定、高效、可控的智能体应用闭环。
〇 分享亮点 〇
1、可控推理路径构建:让AI“按逻辑思考”
2、工具增强推理(Tool-Augmented Reasoning):打通AI与业务系统
3、Retrieval-Augmented Generation(RAG):结合知识库增强事实一致性
4、强化学习优化链式Agent:提升复杂任务执行能力
5、QA
从副驾到主驾:开域信息获取Agent
〇 分享简介 〇
随着大模型慢思考推理能力、Agentic端到端训练等技术发展,信息获取agent能力取得飞速进步。OpenAI、谷歌及国内大模型厂商纷纷推出自己的深度研究产品。模型可以通过与外界信息环境的深度交互,完成专业的研究报告生成,回答人类数小时都无法求解的难题。大模型的信息及知识获取模式逐步从简单的搜索增强生成往长时、多工具、复杂任务形态等方向发展。
信息获取几乎是所有复杂生活、生产任务的基础步骤,能否实现信息获取AGI,是AI技术发展阶段的重要衡量维度。信息获取agent逐步从“副驾”走向“主驾”,也将会是AI发展的必然趋势。在这个过程中, 端到端模型训练、难例数据合成,开放式任务评测等将会是整个行业需要解决的关键技术问题。
本分享将会梳理大模型信息获取Agent及深度研究技术的最新发展现状与趋势,结合华为诺亚方舟实验室在智能体上的研究实践,与IT从业者们共同探讨通往信息获取AGI的关键技术路径。
〇 分享收益 〇
目标:
1、了解信息获取Agent的发展现状
2、了解实现信息获取Agent的若干关键技术
3、通过信息获取Agent看到整个AI及智能体的发展趋势
成功要点:
经验scaling+ 推理时长scaling+群体智能scaling ,是通往信息获取AGI的关键路径,它们如同三把钥匙,为行业发展在未来的信息时代中实现更加智能、高效的信息获取和处理带来了无限的可能。
启示:
1、真正利用大规模算力scaling的方法,需研究人员具备深厚的专业知识和丰富的实践经验,需深入了解计算技术的本质,掌握各种算法的特点和应用场景,灵活调整和优化计算方案。才能确保大规模算力得到充分、有效的利用,避免资源的浪费和盲目堆砌。
2、真正利用大规模算力scaling,许多领域已然实现,它是推动智能水平实现,质的提升的关键所在,承载着未来智能社会发展的美好期望,具有不可估量的价值和意义。
〇 分享亮点 〇
1、信息获取任务定义与挑战
2、信息获取agent业界技术发展现状
3、DeepDiver:盘古信息获取Agent技术实践
4、总结与展望
5、QA
深度推理模型在辅助决策领域的应用
〇 分享简介 〇
随着强化学习技术在大模型训练和对齐过程中的持续应用与优化,当前的大语言模型正经历从“直接生成型模型”向“推理型模型”的转变。这一演进不仅提升了模型在复杂任务中的表现力与通用性,也显著增强了其输出内容的可解释性与可信度,标志着大模型在朝着更高层次智能行为发展的重要阶段。
在招标采购、合规审查、风控评估、战略规划、客户服务等诸多企业关键场景中,普遍存在规则复杂、信息不对称、决策链条长、依赖大量人工经验等共性难题。这些流程通常繁琐且重复,既耗费时间,又容易受到人为偏差的影响,导致决策成本高、响应效率低。面对日益增长的数据规模与业务复杂性,企业亟需引入更智能、更具推理与自适应能力的AI技术,以实现流程自动化、知识结构化和决策智能化,从而全面提升业务效率与决策质量。
针对当前企业或个人在决策类场景中普遍存在的规则复杂、知识碎片化、依赖专家经验等痛点,单纯依赖传统规则系统或浅层模型已难以满足业务对智能化、准确性、可解释性与透明度的更高要求。为此,关注并探索具备深度推理能力的大模型技术,特别是那些能够在复杂任务中展现“类人思考路径”的模型架构,如具备Chain of Thought(CoT)、Tree of Thought(ToT)等能力的推理模型。相较于传统的直接生成式模型,这类模型不仅能完成事实性回答,还能分步骤地解析复杂问题,有助于提升任务的可解释性、稳定性与准确性,非常契合诸如招标、审批、合规、投研等决策类场景中对“推理过程透明”与“结果可验证”的核心诉求。
当前业界在这一方向已出现积极探索,如基于多Agent协同推理、引入企业知识图谱增强上下文理解、结合RLHF机制优化多轮推理路径等方法,正逐步推动大模型更智慧。本次分享将聚焦深度推理模型在智慧招采辅助决策中的实践与探索。结合深度学习、强化学习技术,帮助AI从业者构建具有可解释性与自适应能力的推理系统,以应对合规判断、供应商筛选、异常识别、辅助评标等核心问题,给出相关研究已在多个大型国央企中应用并取得成效的方案。
〇 分享收益 〇
目标:
1、了解深度推理模型在智能辅助决策领域的应用经验,推动从“规则驱动”向“智能推理”的智能决策提供实战思路与技术启发。
2、厘清深度推理模型在AI智能辅助决策中领域的价值边界,剖析其落地路径与技术要点,并借助实际案例,启发听众使用AI能力辅助企业智慧决策。
成功要点:
聚焦深度推理模型的可解释性、任务分解和决策能力,通过引入链式思维(Chain of Thought)、知识增强、以及与业务流程深度耦合的工程实践,使AI模型在复杂决策场景中具备稳定、可靠的推理能力,从而实现了智能化辅助决策的有效落地。
启示:
深度推理能力是AI从“会回答”走向“会思考、能决策”的关键突破口,能够为企业带来高质量、可追溯的智慧决策支持。
〇 分享亮点 〇
1、强化学习技术解析
2、深度推理模型的发展
3、深入探讨剖析深度推理模型的场景特征与能力边界
4、深度推理模型在辅助决策的应用和实践
5、总结和展望
6、QA
大模型深度推理用户长周期跨域兴趣建模
〇 分享简介 〇
深度推理的兴趣建模不单是简单的标签升级,而是对企业用户理解能力的一次质变。将用户从数据点还原为有动机、有情感、有场景的鲜活个体。这种深度的用户认知能力,是企业在个性化时代构建核心竞争力的关键基础设施,可以直接驱动收入增长、成本优化、产品创新、客户忠诚度提升和战略决策的精准性,最终为企业创造巨大的、可持续的商业价值。能否有效构建和应用这种能力,将成为区分行业引领与跟随的重要分水岭。
伴随大模型广泛渗透到电商业务各类场景,如搜广推业务,各类Agent对话场景等。利用大模型推理精准的用户画像,提升业务的效果是目前非常热门的研究方向之一。针对传统建模存在的长尾兴趣丢失,跨域兴趣割裂和周期性建模不精准的问题,提出基于动态推理链生成方法,应用到广告智能圈和召回排序场景有明显提升。
本次分享将深度探讨特征提取层细化、画像构建方法、推理优化技术等建模关键内容,并针对工程化落地与算法复杂度中的Trade-Off角度给予与会者专业的落地参考,帮助企业发挥更智能与个性、高效的模型能力。
〇 分享收益 〇
目标:
1、了解LLM在搜广推的长序列建模的应用
2、探讨跨域建模落地方法
成功要点:
大模型拉齐广告主、用户、运营和算法的建模认知,企业统一建模语言,不断提升推理性能和建模效果,可实现业务增长。
启示:
利用大模型更好地理解用户,进而重构搜广推建模技术栈,是企业在这个数字化时代提升竞争力、满足用户需求的关键举措。它将为企业开启通往更高效、更智能、更个性化的服务之门。
〇 分享亮点 〇
1、传统长序列建模的方案以及遇到若干问题
比如:长尾兴趣丢失、跨域兴趣割裂等,大模型提供了另一种方案思路。
2、分享动态跨域推理链技术方案
1)特征提取层细化,画像构建方法,推理优化技术
2)构建高性能推理链设计和领域微调,TOB/C端方案落地应用场景实践。
3、分享工程、算法联合优化落地实践
1)应用落地中做了哪些联合优化,实现工程和算法的tradeoff,从而拿到线上收益
4、未来挑战和展望
5、QA
随着科技的飞速发展,大模型、智能体、MCP(模型上下文协议)、A2A(多智能体交互协议)等前沿技术正以前所未有的速度崛起,它们不仅深刻地改变了信息技术领域的格局,也将LLM技术的应用从理论研究推向了运维实践的广阔舞台。这一系列技术的融合与创新,引领着运维领域迈向一个全新的智能化时代,
在此背景下,AI原生的应用产品更丰富,它们以其独特的优势和能力,对传统的运维架构提出了前所未有的智能化挑战。运维流程的高度自动化和智能化,代表着运维理念的根本性转变--从被动响应到主动预防,从人工干预到智能决策,运维系统将能够自主感知环境变化,快速做出最优决策,并高效执行相应操作,从而实现运维管理的无缝衔接和持续优化。
同时,大模型驱动的运维创新场景也将逐渐向智能体方向发展。这些智能体不仅具备强大的数据处理和分析能力,还能够模拟人类的认知过程,实现感知、决策到执行的完整闭环。新一代的运维认知系统,通过深度学习和机器学习技术,不断优化自身的算法模型,提高决策的准确性和效率,从而推动运维场景向更加智能化、精细化的方向演进。这种变革不仅重新定义运维工程师的角色,更将推动企业数字化基础设施进入自进化新阶段。
本专场将与业界专家共同探讨,后DeepSeek时期,运维领域的架构、智能体平台、智能体应用、智能运维多场景推演与覆盖等核心命题。涵盖:AIOps训练场景 、DeRisk AI平台、SRE、LLM可观测、后训练AI Ops Agent、自决策智能运维等方向议题。为大家带来最具前沿的技术运营体系。
出品人:陈发强 蚂蚁集团数智风险负责人,DB-GPT社区创始人
AIOps在大模型训练场景的实践
〇 分享简介 〇
大模型训练是一项复杂的系统性工程,训练过程中会遇到算法模型迭代、训练框架适配、海量数据大带宽、硬件设备故障、软件兼容性问题、网络通信异常、存储写入失败等各种挑战,因此高效地完成一次大模型训练是业界普遍追求的目标。
对比传统应用使用的通用算力(CPU)资源,智算(GPU)资源不仅昂贵,在训练过程中对基础设施也提出了更加高的复杂结构性要求。为了达成高效训练的目标,企业借助AIOps快速发现训练问题、定位故障根源、快速恢复任务,进而保障了模型训练的有效时长,提升和保证资源的有效利用。
本次分享以蚂蚁在保障模型训练任务稳定性和提升训练效率方面的经验,将AIOps结合大模型训练场景,为训练过程中的异常检查、故障定位、以及任务恢复提供更加有效的手段,通过实践案例分享和行业同仁进行交流,为相关从业人员提供借鉴。
〇 分享收益 〇
目标:
1、了解蚂蚁的AIOps与大模型训练融合实践
2、掌握构建智能化、可观测控体系和高效的故障自愈机制
3、了解运维算法应用,对异常训练任务进行诊断,快速定位出发生故障原因等诸多异常的解决办法。
成功要点:
通过构建智能化的可观测控体系和高效的故障自愈机制,结合AIOps的根因分析能力,实现了训练任务的快速异常定位与自动恢复。
启示:
蚂蚁的AIOps与大模型训练融合实践,可实现智能化的训练异常自愈与效率优化,显著提升模型训练的稳定性和资源利用率。
〇 分享亮点 〇
1、分享大模型训框架及练流程;
2、通过异常检测算法及时发现训练任务异常;
3、通过相关性算法和专家知识库,对异常训练任务进行诊断,快速定位出发生故障原因和异常实体;
4、结合EDL框架及K8S调度技术,快速隔离故障实体、恢复任务,保障训练过程的有效训练时长;
5、QA
可观测的智能化:任务规划在Agent落地中的挑战与应对
〇 分享简介 〇
在现代企业系统中,随着分布式架构的普及和多样化应用服务的部署,系统生成的数据类型愈发复杂且分散,涉及多种数据格式和采集方式。同时,系统环境的动态变化以及日益严格的安全合规要求,也进一步加大了可观测性建设的难度。因此,企业需构建具备强大数据采集与分析能力、灵活数据关联与智能告警机制的高效可观测系统,以应对IT系统日益增长的复杂性和演化速度。
当前,业界面临的主要难题是实现对各种业务需求的精准拆解、生成高质量可执行的Plan,以及尽可能找到统一的规划范式,进而让Agent在面对不同场景和需求时具备更强的适应性和稳健性。为了解决这些挑战,越来越多的企业开始引入基于LLM(大语言模型)的智能Agent。智能Agent具备强大的泛化能力,可以自动适应多变的业务环境和复杂任务。而其中,任务规划(Plan)环节是实现智能Agent价值的关键。高质量的任务规划不仅关系到复杂任务的有效分解,还直接影响整个Agent系统的可扩展性和泛化能力。
本次分享将围绕“可观测的智能化:任务规划在Agent落地中的挑战与应对”主题,重点探讨Plan在智能Agent落地过程中的拆解方法、高质量Plan生成机制,以及统一任务规划范式的构建路径,助力企业在复杂多变的环境下,实现智能化转型与业务价值提升。
〇 分享收益 〇
目标:
全面了解当前行业中的智能Agent落地提供可观测性和任务规划方面的借鉴意义,帮助企业提升智能化应用的透明度、可靠性与落地效率。
成功要点:
1、明确的任务分解与规划机制,保障Agent在复杂场景下的有序执行,均是构建统一可观测平台的关键。
2、灵活组合大模型能力与规则引擎,形成技术互补,适应多样业务运维需求。
启示:
通过任务规划的调整和可观测体系的反馈,企业可以根据实际需求和情况,灵活地对智能Agent进行管理和优化,使其更好地服务于企业的业务发展。这些有效的任务规划与可观测体系能够大幅降低AI黑盒带来的风险,提高企业对智能Agent的信任度和可控性。
〇 分享亮点 〇
1、分享统一的数据互联互通,可观测平台基建能力
2、基于统一的可观测平台,打造实现智能化的可观测运维实践
3、Plan Agent 执行的方法方案
4、QA
基于大模型的可观测根因定位与告警分析实践
〇 分享简介 〇
随着AI能力的普及,OPS场景的可观测根因定位与告警分析正朝着更加智能化、自动化、实时化及业务贴合的方向发展。企业结合大模型、算法帮助提升运维工作效率,尤其是故障场景中的发现、分析、定位等环节的工作效率,均成为AIOPS行业应用趋势。
目前云计算和微服务架构的复杂性给运维工作带来了巨大挑战,当故障频发,如何提升故障解决效率成为行业热题。目前行业内主要用“1-5-10”来描述故障从发现到定位到恢复的生命周期。在故障发现方面, 我们设计了更自适应业务变化的智能告警体系,提升故障1分钟发现效率。在故障定位和告警分析方面,企业通过大模型融合AIOps小模型的技术方案,设计面向快恢的故障分析系统,帮助运维提升故障定位效率,降低人工排障费力度,进而加快故障恢复。
本次分享通过携程AIOps的技术体系解析,聚焦故障发现、故障定位、预案联动等场景的智能化实践,帮助行业者深度理解OPS结合大模型、算法来帮助提升1-5-10,进而提升运维效率和稳定性。
〇 分享收益 〇
目标:
1、了解智能告警体系建设、提升故障1分钟发现的速度,进而提升告警效率。
2、了解大型互联网告警分析和故障定位,基于大模型实现的智能根因定位。
3、了解面向快恢的故障分析系统实现策略方法。
成功要点:
1、通过设计自适应的降采样动态流式告警体系,提升了携程故障1分钟发现效率。
2、通过大小模型融合的解决方案,降低了大模型幻觉,提升了故障定位和告警分析的准确率。
启示:
成本、效率、质量作为OPS工作的三个主要方向,在效率方面,利用大模型帮助提升在故障定位和告警分析方向的工作效率,熟练使用大模型结合企业在成本、质量方面的场景并继续深化,需要全行业持续重点关注和实践。
〇 分享亮点 〇
1、告警系统体系建设
2、告警分析系统实现
3、故障快恢系统实现
4、QA
SRE主导的智能化场景落地实践
〇 分享简介 〇
随着大模型基础能力的不断提升,SRE领域在研发提效、运维提效、资源优化、系统可靠性提升等方向的智能化程度有了进一步提升的可能,大模型在 SRE 领域的发展趋势是与 AIOps 深度融合,朝着智能化运维、与业务深度结合、模型性能提升等方向演进。
大模型的自然语言处理、数据分析、预测能力等能力,均与 SRE 的各个环节结合,同时,大模型与现有的 SRE 工具链集成,这些在建设大模型平台工程中,都是SRE团队在智能化实践中思考的关键。
本次分享腾讯IEG SRE团队通过融合AI大模型技术与工程实践,落地多个智能化核心场景,聚焦研发效率、成本优化、性能分析、故障分析等方向智能化场景的实践经验和总结,帮助各企业了解SRE结合AI大模型来提升业务系统可靠性、降低成本,并为业务连续性提供技术保障。
〇 分享收益 〇
目标:
1、了解和思考SRE 可以从哪些场景着手进行智能化落地实践
2、了解和思考SRE 构建智能化场景需要依托哪些通用能力
3、了解和思考AI大模型平台工程化构建方向和要点
成功要点:
1、SRE AI大模型平台工程(包括知识库管理、智能体研发管理、MCP Server管理等)已为腾讯IEG SRE团队提供了统一的通用能力支撑。
2、代码质量检查、CDN成本分析、故障分析等场景应用有所成效,可以为企业落地相似场景提供借鉴。
启示:
大模型在 SRE领域的发展正呈现多维度渗透趋势,如何通过与业务场景深度结合,持续推动系统可靠性、自动化水平和效率的提升是需要持续关注和不断实践的重要课题。
〇 分享亮点 〇
1、SRE团队在CI、CD、CO领域应用大模型的可能性分析
2、SRE在持续集成(CI)方向代码漏洞检测分析、代码质量检测等场景智能化落地实践分享
3、SRE在持续部署(CD)方向成本分析、脚本编码等场景智能化落地实践分享
4、SRE在持续运营(CO)方向故障诊断分析、日志分析等场景智能化落地实践分享
5、SRE AI大模型平台工程存在的意义和职能定义分析
6、SRE AI大模型平台工程建设实践总结
7、QA
面向业务的智能化可观测性实践
〇 分享简介 〇
在 AI 原生时代的推动下,IT 系统正加速迈入高复杂度、高动态性的新阶段。伴随云原生架构、多模态数据、微服务与智能体广泛部署,传统运维手段正面临可视性断层、响应迟缓与根因溯源难等系统性瓶颈。
面对这一趋势,越来越多的企业意识到,仅靠工具堆叠已难以支撑业务连续性与用户体验保障。我们认为,智能化可观测性平台的本质,是通过统一的数据语义和模型治理,打破数据孤岛,实现对全栈系统状态的动态洞察与精准响应。这需要从指标定义、数据融合、因果建模等多个层面进行系统性重构。
本次分享将聚焦于统一可观测性平台在数据建模、治理与智能推理中的落地实践,围绕“以业务为中心”的能力建设,重点展示大模型在可观测性增强中的作用,以及如何借助 Copilot 与 Multi-Agent 协同机制,构建具备自感知、自分析、自决策能力的智能运维体系。
〇 分享收益 〇
目标:
1、了解统一可观测性平台的五大信号构建与湖仓架构
2、学习北极星指标体系在业务观测中的落地经验
3、掌握大模型在智能运维中的实用范式:Copilot、多Agent、自主协同
4、借鉴金融、制造、零售等经典行业案例
5、洞察从工具化到智能体驱动的 AIOps 路径演进
成功要点:
成功的关键在于以实体为中心的数据建模策略和标准化治理体系,这为数据打通、模型融合与多 Agent 协同奠定了坚实的基础;同时,借助统一采集框架与大模型推理能力,实现了全链路的可视、可问、可解、可自愈。
启示:
唯有让可观测性真正服务于业务问题的发现与决策,才能让大模型成为推动智能运维跃迁的核心引擎。
〇 分享亮点 〇
1、统一可观测性数据建模与数据湖仓
2、面向业务团队的北极星系统
3、大模型驱动智能运维升级
4、企业级行业落地案例
5、QA
大模型后训练在智能运维Agent 上的应用
〇 分享简介 〇
现代IT系统复杂度飙升,运维团队不仅深陷于海量数据带来的“认知债”,更面临着通用大模型缺乏企业内部知识、无法有效执行具体运维任务的现实鸿沟。
面对此困境,我们的答案并非在“外挂知识(RAG)”与“模型训练(微调)”间摇摆,而是打造混合架构,兼取两者之长。企业更核心的贡献是提出了一套体系化的 Agent后训练方法论,通过监督微调(SFT)为其注入专业技能,再以专家偏好对齐(如DPO)塑造其思维,最终确保大模型在AI Ops场景中行之有效。
本次分享将系统阐述后训练为核心技术,通过后训练大幅度提高运维Agent的效率和执行成功率,将一个通用大模型,锻造成一个真正能理解并解决企业具体运维难题的“内部Ops专家”。
〇 分享收益 〇
目标:
1、帮助企业洞悉大模型后训练打造私有领域的Agent数字员工
2、了解大模型后训练的在AI Ops中的常应用见场景实践
成功要点:
1、混合架构是基石:成功的关键是打造RAG与后训练协同工作的混合架构,让Agent既有专家的思考能力,又有实时的知识储备。
2、分层训练是核心:必须像培养专家一样,通过SFT、Agent RL等分层训练,系统性地提升Agent从“会说”到“会做”的综合能力。
3、高质量数据是命脉:后训练的成败直接取决于高质量、贴近场景的数据,“一份好的故障报告远胜万行随意日志”是我们的核心准则。
启示:
大模型在AI Ops领域的应用正从“对话式工具”向“自主决策智能体”深度演进。后训练正是驱动这一演进的关键引擎,它实现了知识的规模化传承,通过将资深专家的宝贵经验固化到模型内部,最终为企业打造出不知疲倦、永不离职的“数字员工”,从根本上重塑企业的运维生产力。
〇 分享亮点 〇
1、 为什么Agent需要后训练微调
2、 RAG和后训练微调的区别和抉择
3、 后训练微调的基础理论
4、 后训练微调在Agent领域的应用路线
5、 趣丸科技AI Ops Agent后训练的落地
6、 AI Ops Agent的最终目标
7、 QA
DeRisk AI原生的智能运维平台实践
〇 分享简介 〇
当下技术风险领域的防线主要是以规则引擎出发构建的风险智能防线,以及部分子领域在LLM时代的一些workflow式的技术探索。企业研发组织受限于人力资源等因素,日常还有大量的代码CR、测试、风险告警事件并没有被彻底的分析,有大量问题未能进行及时的分析发现与处理。
蚂蚁提出了DeRisk ,让每个应用系统都有专属的AI数字运维管家。DeRisk聚焦于技术风险 & 运维领域,将技术风险能力、数据、场景、经验沉淀于AI原生的风险智能解决方案中,并将其广泛的嵌入日常用户使用的流程中。借助LRM推理能力的增强以及RL在子领域的性能提升,可通过良好的架构设计和产品表现,DeRisk为每个应用系统提供一个7*24H的AI系统数字管家(AI-SRE/AI-DBA/AI-QA),并能与真人专家进行协同,7*24H处理业务问题,形成7*24H得深度护航与防护网。
本次分享面向AI Native技术关注者和DevOps从业者,深度探讨技术风险智能化建设的方案与技术,启发业界运维和相关从业者构建适合业务发展的技术风险智能体、加快AIOps在LLM时代的平滑落地。
〇 分享收益 〇
目标:
1、帮助企业构建适合业务发展的技术风险智能体
2、了解技术风险智能化建设的方案与技术实践
成功要点:
当下的风险技术栈上添加大模型的交互能力,需要以智能原生的理念进行全方位的重构,从架构设计、数据链路、应用实践等多角度实现技术的落地。
启示:
结合大模型的技术风险智能化, 企业以LRM的推理能力为基座,借助MCP重整工具体系以及企业内部知识引擎演进,实现以Multi-Agent为产品形态的AI数字运维管家。
〇 分享亮点 〇
1、分享大模型时代运维领域的智能化演进
2、基于LRM/RL的下一代技术风险智能架构
3、DeRisk,蚂蚁AI原生的风险智能探索与实践
4、当前面临的一些问题与挑战、解决方案
5、QA
在AI时代,AI驱动的质量体系智能化重构乃是大势所趋。随着DeepSeek爆火,大模型在DevOps各领域的应用不断加快,在质量和研效领域也有诸多新探索与案例。像需求质量规范检测保障需求精准,需求到用例自动生成、UI自动化(LLM操控)、接口测试大模型应用、智能压测(含LLM智能发压、告警及回复等)、研效数据智能分析诊断、Code Copilot代码辅助等功能不断涌现,并逐步演进 Agent(代理处理整个质量体系)。可以看到大模型已经给质量体系智能化重构带来机遇与挑战。
本次专场将汇聚头部顶尖企业与质量智能化专家,分享前沿实践,展示智能化在质量体系中的创新探索成果,为质量体系的进一步完善提供宝贵借鉴,涵盖:大模型驱动用户反馈处理流程、LLM驱动的精准测试、大模型评测平台、自动化的智能测试闭环、AI Agent质量保障体系建设与评测、AI工单实践等方向议题,诚邀各界共探AI驱动下的新可能 ,完善LLM重构测试价值链条。
出品人:丁如敏 腾讯PCG工程效能部测试工具中心总监
大模型驱动:亿级MAU产品用户反馈处理流程的智能化升级
〇 分享简介 〇
大模型正在彻底重构亿级用户产品处理用户反馈的范式,从被动、低效、抽样式的人工处理,转变为主动、高效、全量、智能化的洞察引擎和决策支持系统。其发展趋势是更深入的理解、更全面的分析(多模态)、更主动的预测、更自动化的闭环动作,并与产品知识、用户上下文深度融合,最终实现用户体验优化和产品迭代的“飞轮效应”加速。构建高效、可靠、可演进的大模型驱动反馈处理系统,已成为头部互联网产品的核心竞争力之一。
尤其是在产品同质化竞争加剧的背景下,用户体验决定核心竞争壁垒,而用户反馈作为驱动体验优化的关键输入,其处理流程正被大模型推动向智能化升级。然而,当前仍面临海量信息难聚焦、隐性需求难挖掘、效率与精准度不足等痛点。
本次分享聚焦大模型赋能反馈处理,拆解适配场景(如分类聚类)、设计核心能力,并结合腾讯亿级MAU产品实践,共同探讨技术落地方法论与未来方向,助力用户反馈高效转化、体验优化的智能化升级。
〇 分享收益 〇
目标:
1、深度解析腾讯亿级业务用户反馈的高效处理体系与实践路径
2、掌握大模型如何实现用户反馈的智能处理闭环:自动精准打标分类、高效提炼核心舆情、深度挖掘问题根因,驱动反馈处理效能升级
成功要点:
1、精准锚定高价值场景,需聚焦用户反馈处理链条中痛点最集中的环节,如海量信息的智能分类聚类(快速定位高频问题与长尾需求)、核心舆情的精准提炼(从杂乱文本中提取关键矛盾与趋势)、复杂问题的根因分析(挖掘表象反馈下的深层体验缺陷),避免“为技术而技术”的泛化应用,确保大模型能力与业务刚需紧密对齐。
2、深度优化智能能力:单纯依赖通用大模型往往难以应对用户表达的复杂性(如模糊描述、情绪化用语、场景化隐喻),企业需通过提示词工程精细化调优指令逻辑,结合领域知识库(如产品功能文档、历史反馈数据)增强模型对业务语境的理解。同时,探索多模型协同(如用NLP模型处理文本、知识图谱辅助关联推理),重点提升意图识别精准度、情感分析灵敏度及根因推导逻辑性,从源头保障输出可靠性。
3、闭环落地业务价值:大模型的最终目标是“驱动体验优化”,需以人机协同为核心机制。一方面将模型输出的分类结果、舆情摘要、根因建议作为人工决策的“智能助手”,降低专业团队筛选与分析成本;另一方面,通过反馈处理效果(如问题解决率、用户满意度提升)反向优化模型参数与处理流程,形成“数据-训练-应用”的持续迭代。
启示:
1、只有将技术能力深度嵌入产品迭代链条,才能真正实现从海量反馈到体验升级的高效转化。
2、聚焦关键痛点、精准选取场景,以及结合知识增强与多模型协同的优化能力,以人机协同推动处理流程融入业务,以效果反馈持续迭代,闭环落地价值,才能实现体验升级。
〇 分享亮点 〇
1、用户反馈的价值与难点
1)用户反馈定义以及领域专家的看法
2)用户反馈助力产品体验提升案例
3)用户反馈难点跟挑战
2、大模型在用户反馈落地场景
1)用户反馈处理流程(整体流程以及大模型应用视图)
2)反馈分类(用户反馈智能分类归档)
3)反馈告警(高频用户反馈实时告警)
4)日志分析(用户反馈日志智能分析)
5)用户声音(大模型提炼核心用户反馈)
6)大模型应用场景回顾以及规划
3、腾讯业务用户反馈实践案例分享
1)视频等业务专项流程
2)业务&用户反馈联动机制
4、QA
大模型评测平台落地实践:效果评测和性能评测
〇 分享简介 〇
当前企业加速拥抱AI,大模型服务在企业应用中的需求激增,但评测标准与质量保障体系仍然面临巨大挑战。加强构建科学、全面、高效的评测体系,确保大模型应用的效果和性能,实现高质量、高可靠的大模型服务,成为企业亟需解决的重要核心问题。
很多科技中心主要通过分散化的评测方法进行大模型质量验证,同时借助效果评测、性能评测等技术手段增强评测能力。然而,实际落地过程中存在评测工具分散且单点搭建耗时久、评测标准及评测流程不完善、缺乏可复用评测框架等瓶颈,需构建各中心统一的全链路评测体系。
本次分享聚焦"大模型评测体系构建与实践",深入解析评测平台的整体,并探讨效果评测、性能评测及AI应用场景评测的工程化实践方法,助力企业构建标准化、可复用的大模型评测框架,提升AI应用的质量保障能力,让LLM从"可用"到"好用",真正赋能企业业务。
〇 分享收益 〇
目标:
1、深入了解大型企业评测平台整体,构建评测框架的实施经验方法。
2、了解顺丰搭建基线数据集体系,为新上模型在企业内应用效果提供直观数据参考。
3、为企业提供标准化、可复用的大模型评测体系,解决评测标准不统一和质量保障缺失的问题
4、 探索评测体系最佳实践,帮助AI团队建立科学的质量评估方法,加速模型从实验到生产的转化
成功要点:
1、企业评测平台构建的关键在于,以分层架构设计达到效果评测与性能评测模块化分离,提升系统可维护性;以标准化评测流程,建立统一的评测标准和自动化流程;以可扩展评测框架,来支持不同业务场景的评测需求扩展;以数据驱动决策,基于评测结果进行模型优化和应用改进。
2、企业评测体系优化关键在于,善用多维度评测方式,覆盖机器学习、业务自定义指标、性能等关键维度;利用自动化评测工具,来减少人工干预,提高评测效率和一致性;构建基线数据集,建立行业标准,提升评测的可比性;建立 LLMOps观测平台,达成实现评测过程的实时监控和可视化。
3、企业AI应用场景评测点关键在于,完成场景化评测策略,针对不同业务场景用户自定义定制评测方案;覆盖端到端评测,从模型推理到业务应用的完整评测链路;持续优化机制,使用基于评测结果建立模型和应用迭代优化流程。
启示:
企业形成可复用的评测框架,降低各个中心评测体系建设成本,可推动大模型评测标准化,同时,评测流程自动化,评测周期缩短,都会带来效能,评测标准统一化、团队效率协作效能等,全面快速迭代。
〇 分享亮点 〇
1、大数据评测平台整体架构
2、效果评测体系
3、性能评测体系
4、AI应用场景评测实践
5、顺丰基线数据集体系
6、QA
LLM驱动的精准测试提效及发展趋势
〇 分享简介 〇
随着大模型(LLM)技术快速发展,软件测试领域也迎来智能化变革。LLM通过代码理解、需求分析、用例生成、自动化执行、缺陷预测等能力,已经开始重构传统测试模式的边界。各行业都已开始探索LLM与测试全链路的深度融合,从单点提效转向覆盖需代码更新-用例设计-执行评估-质量决策的全生命周期智能化。这一趋势下,测试团队的职能定位与技术栈将发生根本性演进。
针对当前测试领域面临的核心挑战,需求频繁变更导致测试用例维护成本激增;测试覆盖率与效率的平衡难题(如代码/需求变更的精准测试推荐);人力密集型工作模式难以适应敏捷迭代速度等等,面对这些现状,讯飞通过LLM+精准测试双轮驱动的实践给出了破局思路:
*代码级精准测试:基于LLM的变更影响分析,实现测试用例智能推荐与自动化覆盖
*需求级精准测试:通过LLM理解需求语义,动态生成高覆盖率的测试场景
*全流程提效:将LLM嵌入全研发生命周期,新的测试范式探讨
本次分享将重点探讨讯飞在测试领域的大模型落地成效案例,以及在代码、需求双维度精准测试的实践,同时展望测试团队能力模型升级,从"执行者"到"质量策略设计者",完善LLM重构测试价值链条。
〇 分享收益 〇
目标:
1、了解LLM在整个测试活动中高价值应用的实践和成效
2、了解LLM在精准测试中的应用方法和成效
3、建立面向未来的测试思维模式和战略认知
成功要点:
LLM技术与测试活动的系统性融合,贴合业务场景,以及在真实业务场景中的闭环验证,是推动测试智能化落地的核心成功要素。
启示:
LLM驱动精准测试可提升测试效率与覆盖率,实现用例自生成、执行、修复闭环,助力测试团队从效率提升迈向智能驱动的质量战略转型
〇 分享亮点 〇
1、LLM对测试带来的新机遇
1)分享LLM在讯飞测试领域的探索之路及成效案例
2、精准测试路线的实践探索
1)代码上的精准测试:精准推荐和自动化测试覆盖
2)需求上的精准测试:需求变更下的精准推荐和自动化测试执行
3)LLM驱动测试提效:全生命周期的精准测试
3、LLM驱动下测试的转型思考
1)测试向智能驱动型转变:测试团队的能力模型
2)探讨工作流程和价值创造方式变化
4、QA
AI重塑软件质量保障:从需求到用例再到自动化的智能测试闭环
〇 分享简介 〇
在数字经济时代,企业数字化转型已从技术升级的“工具性需求”演变为以质量为核心驱动力的战略重塑。随着市场竞争加剧,客户对产品稳定性、服务可靠性和体验一致性的要求持续攀升,企业亟需通过高质量交付构建核心竞争力。然而,传统开发模式中测试环节的滞后性、数据构造低效性及场景覆盖不足等问题,导致系统缺陷频发、迭代周期延长,成为制约质量升级的瓶颈。
当前,人工智能正在深刻重构软件测试的全链条能力。在测试需求分析、测试策略规划、需求到测试用例的自动生成、UI自动化测试、服务端自动化测试、测试决策优化、缺陷根因定位、质量评估分析等领域均实现显著突破。
然而,这些技术突破在工业级落地中仍面临三重挑战:
1)规模适应性困境 :概念验证工具难以适配真实业务的高复杂度场景;
2)闭环效能断层 :需求分析→用例生成→执行验证的AI能力未形成自驱反馈闭环,导致人力干预成本超出预期;
3)工程化信任危机 :AI生成物与执行结果的有效性验证机制尚未成熟。
本次分享将结合平台建设和业务落地实践,聚焦AI赋能测试主题,围绕三大核心场景展开:从需求到用例,技术构建需求知识库,解析PRD文档生成结构化测试要点,通过大模型实现自然语言到测试用例的自动转换;其次从用例到UI自动化,基于App/Web界面,通过视觉大模型识别元素及自动推理,生成自动化测试用例;最后从UI自动化到接口自动化,根据接口流量智能选举,并根据用户使用数据构造真实多样场景实现自动接口自动化,覆盖各业务逻辑分支。帮助测试相关从业者,建立智能测试闭环。
〇 分享收益 〇
目标:
通过AI赋能,为软件测试带来效率的飞跃,并释放质量创新和成本控制方面的潜能。
成功要点:
1、一体化平台:从企业级测试体系的视角,整合零散的测试工具,构建AI赋能的一站式测试平台;
2、AI场景化落地:从单点场景到全智能流程,逐步提升测试工作的自动化和智能化运转水平
3、面向AI的角色转变:基于人工智能驱动的理解、记忆、规划、决策的智能体,为QA角色带来新的转变
启示:
AI赋能从需求到用例再到自动化的智能测试闭环,一定程度上跳出了覆盖度、速度与成本之间存在着难以调和的“不可能三角”困境,实现了测试全流程的高效精准衔接,显著提升测试质量、效率与成本效益。
〇 分享亮点 〇
1、自动化测试变革背景与行业痛点
2、AI测试的三阶段构建之道
3、优测AI应用场景与技术实践
1) 需求生成测试用例
2 )智能生成UI自动化测试用例
3) 智能生成接口自动化测试用例
4、未来演进方向
5、QA
AI智能客服在解决技术支持工单问题中的探索与实践
〇 分享简介 〇
随着业务持续增长,来自C端和B端用户的反馈量也同步增加。传统的技术支持工单模式,对客服及BD人员来说,存在响应慢、解决耗时长的问题;对产研团队而言,则面临重复处理咨询问题、工作频繁被打断、以及工单与项目优先级冲突等挑战。
借助AI实现的智能客服机器人处理技术支持工单,能充分发挥其在语义理解、动态学习与多渠道融合方面的优势。它不仅提供7*24小时服务,更解决了规则引擎无法穷举场景、应答僵化等痛点,从而显著提升工单处理效率并降低整体成本。
本次分享聚焦于“AI智能客服在技术支持工单处理中的探索与实践”。我们将阐述技术支持流程从传统工单到规则引擎,再到AI智能客服的演变历程,并深入剖析搭建AI智能客服所涉及的智能体、工作流、知识库、意图识别等核心技术。此外,分享还将涵盖效果评估指标体系,以及建设AI智能客服所需的工具链。
〇 分享收益 〇
目标:
1、了解AI智能客服在处理技术支持工单中的应用场景与典型案例。
2、了解 AI智能客服搭建的关键技术、实践避坑指南及工具链。
3、了解 AI智能客服应用效果评估体系及其核心指标。
成功要点:
1、清晰呈现技术支持工单核心痛点及AI智能客服的工单接管率数据分析结果。
2、智能体构建中提示词(Prompt)的优化策略(角色定义、任务描述、约束条件、示例/模板)。
3、知识库构建与RAG技术应用(向量模型选择、文本分段策略、文档预处理、相似度阈值设定、多源信息融合、重排序优化)。
4、实现工作流与订单系统、日志系统、通讯软件及第三方系统的高效集成。
5、有效解决多语言、多业务咨询场景下的语义识别与精准路由问题。
6、消除规则引擎面临的长尾问题及规则冲突问题。
启示:
在技术支持工单流程中引入AI智能客服,可实现7*24小时服务,显著提升工单响应速度与解决效率,同时有效克服规则引擎固有的无法穷举场景、应答僵化等局限性。
〇 分享亮点 〇
1、AI技术在质量保障各阶段的应用
2、AI应用的五个层级及降低AI幻觉的策略
3、基于AI的技术支持流程及关键技术
4、基于AI的技术支持案例及应用效果
5、基于AI的技术支持工具链
6、QA
AI Agent质量保障体系建设与评测探索实践
〇 分享简介 〇
基于RAG 、 ToolUse等关键技术构建的AI智能体系,凭借其显著降低模型幻觉、实现知识动态更新、保障隐私安全等核心优势,已成为企业智能应用的基础设施,其模块化架构支持灵活适配金融、医疗、工业等垂直场景,推动产业智能化升级。
当前智能体评测面临多重挑战,包括任务复杂性导致的行为不确定性,以及评估方法的局限性。此外,智能体性能、安全和伦理风险等问题进一步增加了评测难度。因此,构建科学化的评估框架,通过量化性能、效果和安全等维度,实现系统化评测,来提升智能体在企业级应用中的可靠性和落地效果显著。
本次分享重点探讨以AI Agent为核心的质量保障体系构建,阐述在AI Agent驱动的业务应用中通过性能、效果、安全等核心环节实现Agent的深度评测与优化,同时,帮助行业能够广泛应用于各垂直场景的AI Agent产品的质量保障体系,从而推动Agent应用的企业级落地。
〇 分享收益 〇
目标
1、学习AI Agent的评测方法和标准,评估不同解决方案的优劣,为项目选型或技术栈决策提供科学依据。
2、掌握评测过程中涉及的评测数据处理、效果评估、性能压测等技能,提高AI领域的专业技能,并熟悉相关工具和平台的建设思路。
成功要点:
构建科学且实用的评测体系框架,将理论标准与工程化评估能力结合,通过实战案例强化技能迁移,利于企业既能理解评估维度,又能落地工具链建设。
启示:
构建科学评测体系与工程化实践闭环,清晰系统评估技术方案优劣,强健落地评测套件建设能力,是实现技术决策与工程能力双重提升的关键。
〇 分享亮点 〇
1、AI Agent质量保障的挑战和重要性。
2、AI Agent质量保障的整体方法策略。
3、AI Agent效果评测的方法和标准。
4、AI Agent性能测试的方法和标准。
5、一站式智能体质量平台建设。
6、QA
记忆增强的大模型多智能体
哈尔滨工业大学(深圳)智能学部副主任、智能科学与工程学院长聘教授、博士生导师。亚洲自然语言处理联合会亚洲语言资源委员会主席,ACL-SIGHAN中国区召集人。中国人工智能学会理事、青年工作委员会副主任、自然语言理解专委会副主任,中国中文信息学会理事、情感计算专委会副主任,广东省人工智能安全新技术重点实验室副主任,深圳市人工智能学会理事、自然语言理解专委会主任, 招商证券-哈工大深圳联合实验室主任,哈工大-理光联合实验室常务副主任,哈尔滨工业大学(深圳)决策智能研究所副所长。中国致公党广东省委科技与教育委员会委员。担任TACL, Pattern Recognition, IJMLC等国际期刊Associate Editor。
长期从事自然语言处理、情感计算、大模型、社交媒体挖掘、脑机接口等方面的研究。出版英文学术专著2本,译著1本,发表TKDE,TOIS, TAC, TCSVT, TCBB,IEEE CIM,IEEE IS, KBS等国际期刊论文40余篇,AAAI, IJCAI, ACL, WWW等国际会议论文100余篇。5篇文章入选ESI高被引论文。SCI引用2500余次,谷歌学术引用10000余次。先后获得NLPCC 2018/ACL-SIGHAN 2024最佳学生论文奖,CCL 2019/CiCLing 2019/CCL 2022/ICCC 2022最佳论文等。 主持国家重点研发计划课题,国家自然科学基金重点项目子课题/面上项目/培育项目、国家重点实验室开放课题、教育部高等院校博士点基金、广东省自然科学基金项目等多项。
2022年获中国中文信息学会钱伟长中文信息处理科学技术奖一等奖(第二名)。2017年获教育部高等院校科技进步奖二等奖(第二名)。2019年获黑龙江省科学技术进步奖二等奖(第四名)。2024年获广东省科学技术进步奖二等奖(第四名)。2013年获中国人工智能学会最佳青年科技成果奖、香港资讯与通讯科技奖最佳协同合作奖。2015年获中国人工智能学会首届全国青年人工智能创新创业大会特等奖。2019年中国人工智能学会首届全国青年人工智能创新创业大会创业组一等奖。入选2022-2024全球前2%顶尖科学家榜单(World's Top 2% of scientists by Stanford University, USA)。
2018年获中国人工智能学会优秀博士论文指导教师。2023年中国中文信息学会优秀博士论文指导教师。
2019年哈尔滨工业大学(深圳)首届优秀导师奖。2020年深圳市优秀教师。2022年哈尔滨工业大学(深圳)立德树人先进导师奖。2024年第五届哈尔滨工业大学立德树人先进导师荣誉称号。
多模态基础模型的进展与展望
京东集团副总裁、京东探索研究院图像与多模态实验室主任,带领研究团队研发视觉和多模态基础模型。此前,他曾任阶跃星辰Technical Fellow和微软亚洲研究院自然语言计算团队资深首席研究员和研究经理。段博士的研究兴趣包括自然语言处理、代码智能、多模态基础模型和AI智能体等。他在顶级会议和期刊上发表了超过200篇研究论文,累积引用超过28,000次(h-index 76),并拥有20多项专利。
段博士是中国科学技术大学、西安交通大学和天津大学的兼职教授及博士生导师。2019年,因在自然语言处理领域的贡献被评为CCF-NLPCC杰出青年科学家,2023年,他因在人工智能基础模型方面的贡献被列为DeepTech中国智能计算创新人物之一。
智能时代创新效能:AI Agent 智算生产Infra实践
商汤科技大装置事业群CTO,毕业于北京大学电子学系本硕,12年的微软工作经历,最近5年致力于服务大模型的训练和推理智算平台,是微软AI Platform的首席研发经理。负责过万卡训练集群管理、十万卡异构系统跨集群调度、在线离线的训练推理混合调度、千卡任务TB/s级别的吞吐调优、Azure Open AI全局资源控制与调度、Microsoft 365 (Office) Copilot平台的产品设计与实现。此外,曾经两次大数据公司创业经历,也因为其中一个项目被收购而进入央企混改公司做CTO,负责IaaS、PaaS和SaaS平台以及创业投资。
超级小爱的产品演进及关键技术
小米集团小爱同学的总经理。从2016年开始,带领团队开始小爱同学的产品研发工作,到如今已经经历了10年时间。这期间,小爱同学从智能音箱、电视、手机,进入到智能汽车、眼镜等各类智能产品中,成为用户喜爱的人工智能助手。从23年以来,大模型技术为小爱同学带来了全新的升级,如Agent架构、多模态交互、端云架构、UI Agent等,为用户带来更优秀的产品体验。王刚博士毕业于香港科技大学计算机系,长期从事机器学习方向的研发工作,在加入小米之前曾在微软亚洲研究院和腾讯工作。
华为数字化平台智能化应用实践
华为集团IT数字集成平台CTO,2015 加入华为。致力于EiPaaS、云原生与企业级治理、元数据驱动的可组合架构在华为企业数字化落地,作为IT数字化基础平台ROMA 云道产品总师,与技术负责人,支撑公司级变革项目及多云&AI战略,目前在全力打造华为AI新基建平台产品以驱动自身数字化向智能化演进。
构筑AI时代组织韧性:新型组织生态与数字员工治理
普元信息AI科学家、AI智能体团队负责人,负责AI(智能体)架构团队,承接上海大数据中心公共数据治理,政企数据合成等项目负责人。擅长集群系统强化学习,AI智能体架构设计。英国曼彻斯特大学博士,研究方向为集群系统与AI强化学习。深耕欧洲工业和科研领域15年,参与西门子数字化工厂建设项目,若干欧盟科研项目。在集群系统、强化学习、数据治理方面的重要期刊和顶级会议中有多篇论文。同时参与多项国际IEEE、国家AI、可信数据集、数据空间等相关标准制定工作。
企业级智能体与垂直行业知识库的融合应用
达观数据CEO,复旦大学计算机博士和杰出毕业生,国家“万人计划”专家,国际计算机学会(ACM)和中国计算机学会(CCF)高级会员,中国人工智能学会和中文信息学会专委会委员,浦东新区政协委员和青联委员,在人工智能领域有丰富研究成果,申请有30余项国家发明专利,多篇高水平国际期刊和会议论文,出版有《智能Web算法》等著作,多次摘取ACM CIKM、KDD CUP、EMI Hackathon等国际计算机竞赛冠亚军荣誉。曾在盛大、腾讯、百度担任技术研发和管理工作;荣获第九届上海青年科技英才和第二十届浦东十大杰出青年荣誉称号,并带领达观数据荣获2018中国人工智能界最高奖“吴文俊人工智能奖”。
主流Agentic AI技术架构:基于智能体的金融RaaS服务新范式
平安壹账通首席架构师,负责平安壹账通整体架构及大模型建设,拥有22年金融行业系统架构经验,曾任建信金科基础技术中心副总裁、量子金融应用实验室主任。参与建设银行新一代系统建设,负责多个建设银行业务系统研发,负责建设银行AI、区块链、元宇宙、量子等创新类技术平台建设,负责金融大模型项目建设。拥有1部著作,67项技术专利,中国计算机学会“量子计算专业组”发起人与常务委员、中国通信协会量子专委会副主任、上海人工智能标准化协会委员。作为国内早期在金融行业积极推动人工智能与量子计算应用的技术专家,致力于将人工智能与量子计算等新兴技术应用到金融场景中。
混元3D的研发布局与应用:从物体建模到3D世界生成
腾讯专家研究员、混元3D负责人,先后从事广告AI、生成式大模型研究与落地工作,已在CVPR等各类期刊会议发表论文近二十篇,在国内外技术竞赛获冠军20项,博士期间一作获得全国图像图形学术会议优秀论文奖。带领团队研发业界最早一批3D-DiT模型,应用于游戏、地图、社交等多个场景。发布首个开源3D世界模型HunyuanWorld,在业界获得广泛关注。
Qoder Coding Agent的技术优化路径
阿里云云效&通义灵码技术负责人,2011年加入阿里,带领过大数据测试团队、测试工具研发团队、研发平台团队。对研发协同、测试、交付、运维领域都有很深的见解。目前正在带领团队向云原生、极致效率、智能化等领域进行持续演进。致力于企业研发效率、产品质量、DevOps 方向研究和探索。
AI重塑软件工艺、企业工具链平台建设实践
中电金信研究院副院长、数字银行事业部总经理,正高级工程师,负责中电金信源启运行支撑平台和数字构建平台的产品研发和交付,以及数字银行解决方案的研发和交付。拥有20多年金融科技相关从业经验,尤其在分布式、云原生、软件工程等领域具有丰富的产品研发和金融行业落地经验,在企业级AI 4 软件工程上具有业内领先的指标和最佳实践。
从专家驱动到数据驱动,地图导航十倍速变革实践
高德地图终端技术总负责人,主导终端架构、出行导航及地图开放平台等技术演进战略与体系落地,成功推动地图导航业务实现从传统专家经验驱动向全域数据智能驱动的根本性范式跃迁,突破行业效能天花板,驱动亿级用户场景下关键业务指标实现十倍速级突破性提升,重构智能出行行业技术范式。
从团队提效到知识沉淀:AI 赋能产研全流程实践
知乎社区生态 B 端产研负责人,现负责社区生态 B 端产研,专注于平台化、产品化的解决运营场景的赋能和提效问题。带领团队从 0 到 1 建设了一站式内容、用户、创作者管理、运营、分析平台 (知乎舰桥平台),后逐渐整合并升级了活动、客服和教育 B 端。包括:舰桥平台、活动平台、客服平台、教育 B 端(CRM、教务、营销)等。自 18 年加入知乎后,在社区和社交业务领域,担任高级研发与业务架构师。21 年担任用户理解和数据赋能组的研发 Leader,带领团队从 0 到 1 搭建了实时数据基础架构和相关业务功能,并完成 DMP 和用户理解的整合。有着资深的全域研发实践经验。
全链路企业AI数智化落地实践
毕业于华中科技大学人工智能国家重点实验室,拥有 20 余年AI产品化研究与研发经验,研究方向涵盖行业大模型、强化学习、OCR、图像 / 视频生成、3D 图像建模等核心领域。他曾任腾讯人工智能专家、朗新科技集团首席 AI 科学家、武汉高德红外软件室主任,现担任朗新科技集团 AI 研究院院长,申请国内外高质量发明专利 60 余项,并主导建立语音增强国家标准。作为华中科技大学博士,他获评无锡市太湖领军人才计划、江苏省双创人才计划创新领军人才,兼任上海交通大学、江南大学研究生行业导师,同时担任第十五届服务外包创新创业大赛全国赛决赛评审专家及香港理工大学无锡科技创新研究院特邀专家。此前在腾讯领衔 AI 技术团队的经历,为其如今主导 AI 研究院创新发展奠定了深厚的行业实践基础。
AI智能时代的业务架构演进
一汽大众首席企业架构师、正高级工程师,行业数字化转型专家,北京大学理学硕士,中国信通院企业架构推进中心专家、中国发展战略学研究会数字经济专业委员会专家,中国商业联合会数据分析专业委员会专家、北京金融科技产业联盟数字化转型专委会专家、Open Group AP架构本地化专家组专家。持有TOGAF企业架构师鉴定级认证,具有近20年金融业、制造业信息化领域工作经验,曾担任中央金融企业、互联网银行科技规划负责人,在数字化战略规划、企业架构设计与治理、变革管理推进等方面有深厚实践。著有《企业架构驱动数字化转型:以架构为中心的端到端转型方法论》,合译《架构现代化:方法与实践》,在全国性学术期刊报纸上发表多篇文章。
深度剖析基于Agentic RAG的Agent 构建平台架构之路
FastGPT COO,负责新一代AI Agent构建平台的产品规划及运营管理工作。10年以上互联网大厂全栈研发经验,曾就职腾讯、阿里巴巴与字节跳动公司,担任高级技术专家。擅长web前后端开发及架构设计、并拥有多项NLP技术专利,研究领域涉及增长黑客运营、系统架构设计与AI Agent的构建、RAG调优等。最近经历过4年的跨界创业经历,获得3轮知名投资人千万级融资。工作之余,也是一名环球旅行家和作家,著有畅销书《揭秘Angular》,曾到访过七大洲、92个国家。
让大模型落地业务:重塑金融信贷流程的智能引擎
汇丰科技自动化平台赋能中心技术总监,为团队和业务部门提供技术赋能,加速集团在数字化转型过程中的技术应用与优化。在近20年的金融科技行业从业经历中,积累了深厚的技术背景和丰富的数字化转型实战经验,成功参与并推动了多个大型金融科技项目的实施。其中包括“最佳汽车金融科技应用奖”和“粤港澳大湾区金融创新优秀应用案例奖”。多次受邀在架构师大会和软件开发者大会,对于数字化转型的成功案例实践,具有丰富经验,积极推动技术领域的交流与合作,助力行业共同进步。
破局大模型商业化:从炫技 Demo 到用户愿付费的产品逻辑
商汤科技高级产品总监,小浣熊家族产品负责人。Boston University 数学和经济学学位、金融工程硕士学位;Tufts University 国际关系和工商管理硕士学位。负责《小浣熊家族》系列AI Native 生产力系列工具产品从day 1的概念、模型、产品到商业闭环验证。曾于 EverQuote 和 Charles River Development 等科技公司担任产品经理,负责产品从概念到市场的全过程。加入商汤后参与了整体各个技术阶段 AI 产品在 ToG、ToB 等领域的创新和产品落地。
AIGC时代产品经理的视觉理解生成实践
百度文小言多模态创作产品负责人,主要负责文本创作、视觉理解与生成等方向的产品工作,参与并见证了Chatbot(文小言,原文心一言App)产品及技术的全周期演进。北京交通大学学士,清华大学工商管理硕士。先后就职于网易、知乎等互联网公司,担任产品经理&业务负责人,具备AI、在线教育、社区、工具产品等不同赛道经验。对AIGC产品创作、智能应用、理解生成具有大量的实践能力。
数据智能+创意智能:游戏AIGC的双轮驱动模式
腾讯游戏知几及Vlink产品团队负责人,AI高级产品经理,全面统筹腾讯游戏知几及Vlink的产品设计与运营管理工作,主导部门内AI数字人业务管线的规划与构建。将AIGC技术深度融入游戏场景,成功建立起腾讯游戏AI助手的标准化产品运营体系。目前业务已覆盖腾讯90%的头部游戏矩阵,为《王者荣耀》、《和平精英》、《PUBGM》、《穿越火线手游》等全球现象级产品提供定制化的AI能力支持,显著提升了游戏活跃度、玩家回流及付费转化。同时,成功孵化出腾讯首个在国内外市场上线的多语言游戏智能NPC,进一步拓展了AI技术在全球化游戏场景中的应用边界。作为游戏AI领域的行业先行者,始终致力于洞察海内外玩家的核心需求,在业务实践中不断推动游戏AI产品的技术突破与创新升级,为行业树立标杆性案例并持续引领发展方向。
腾讯穿越火线IP产品用户增长负责人、腾讯游戏高级游戏运营,腾讯公司高级讲师;腾讯游戏FPS品类头部IP资深运营及推广负责人、负责多款全球现象级射击游戏的用户增长策略,曾带领团队实现数百万级DAU游戏的持续增长与商业化突破。联合AI团队+游戏IP结合打造游戏IP运营新突破。
演讲与著作:《游戏运营的增长思维》《用经济学思维做产品增长》系列讲座,受邀在公司内外部分享《Z世代游戏用户洞察报告》,《腾讯的用户洞察之道》引领行业对用户,尤其新生代玩家的深度理解。
成就与荣誉:连续主导多款FPS游戏从测试到发行的整体用户增长策略,累计创造超百亿元收入。
游戏运营领域资深讲师,课程平均满意度4.9/5,培养了数千位行业精英,经常被邀请给腾讯合作企业高管进行分享,获评"腾讯公司优秀讲师"等荣誉
通过AIGC大模型实现最优资产配置与财富自由
佳远信息科技创始人&CEO,负责AIGC智能化解决方案和企业管理。前微软云计算与AI事业部资深产品经理,曾负责微软大数据平台产品战略规划与管理。在人工智能,大数据及AI工具链领域拥有多年深耕经验,积累了丰富的经验和实践成果。曾在微软亚洲互联网工程院(STCA) AI School 举办的 AI 创新大赛中,带领团队开发了“AI诗人艺术家”项目,在100 多个参赛小组中荣获第一名。在微软 Fabric OpenAI 创新黑客马拉松活动中,由个人独立完成了《如何利用 AIGC 模型实现最优资产配置》项目,荣获“单人企业家”特别奖。 2024 年在微软举办的 AIGC 大模型原理与应用分享讲座中,被授予 “优秀讲师”称号。深入研究金融投资领域,
擅长投资组合管理并取得优异投资成绩。攻读北京大学MBA期间的研究方向为金融投资学。曾多次受邀在北大光华金融学论坛及微软内部会议上就资产配置策略进行专题分享。曾在Intel与华为担任研发经理与高级技术专家。拥有北京科技大学计算机科学学士与硕士学位,以及北京大学光华管理学院工商管理硕士(MBA)学位。
B端AIGC破局之道:多元产品设计场景与业务规模化实践
京东零售 AIGC 产品总监,京东AIGC内容生成平台京点点产品负责人,负责京点点AIGC创新,图片搜索及相关的多模态生成领域产研工作。主导京东零售构建京东AIGC内容生成平台,推动 AI技术在电商多场景深度融合,实现从商品上新,到商品运营、商品营销、商品服务等环节智能化升级,大幅提升运营效率与用户购物体验,驱动京东零售在电商智能化变革浪潮中始终保持领先地位,长期致力于拍卖论,博弈论的研究,并在商业平台系统设计,策略设计,数据系统设计领域有所实践。
曾参与了百度凤巢起价和二价GSP计费系统设计,一点资讯广告系统业务端+检索端+策略系统设计,OMG智汇推广告平台全平台产品设计+OCPC,OCPM转化出价系统设计,腾讯应用宝搜索+推荐系统升级+商业化系统设计,AMS广告知数和数立方系统设计,AMS广告AIGC妙思产品系统设计等工作。期间获得过最佳百度人,腾讯名品堂,腾讯业务突破,腾讯业务创新等奖项。并作为行业专家参与了网信办和工信部牵头的多项行业标准的制定和完善。
AI大模型与RAG发展趋势及国内落地产品实战
前叮咚买菜B端产品负责人,东华大学项目管理硕士,曾赴京都大学访学,担任过国家级科研项目带头人。先后就职于阿里巴巴、万达、叮咚买菜等互联网公司担任产品线负责人,负责过多个集团级中台与电商平台业务的整体规划,带领团队完成上市企业核心系统建设,涵盖订单中心、会员中心、数据中心等关键公共服务。此外还任TMT领域投研顾问/MBA特邀讲师,在产业信息化赋能与企业级中台应用建设有丰富的经验。著有畅销书《中台产品经理宝典》
基于通用Severless计算平台构建的分布式AI系统软件实践
华为元戎系统架构师,目前负责分布式AI系统方向技术研究工作。先后从事网络协议、Linux内核、容器&微服务平台、Serverless计算平台的技术研发工作,22年开始聚焦分布式AI系统软件方向。擅长云原生、AI系统、Linux内核,负责过多项创新技术从研发到产品商业落地工作,并在国内外发表多篇专利。SIGCOMM 2024《YuanRong: A Production General-purpose Serverless System for Distributed Applications in the Cloud》联合作者。
大规模GPU容器集群故障智能诊断与自愈、稳定性建设
阿里云高级技术专家,负责阿里云容器智算infra产品以及稳定性建设,并负责 spark,ray,slurm等 data on ack 的产品化方案和解决方案。10余年云计算从业经验,擅长云原生,边缘计算,云原生AI 领域研发,布道以及产品商业化落地工作。开源社区KubeEdge/OpenYurt 社区 Maintainer,Kubernetes 社区 member。发表过多篇国际技术论文:ACM SOCC 论文《KOLE: Breaking the Scalability Barrier for Managing Far Edge Nodes in Cloud》
大规模AI平台建设:利用云原生高效使用GPU
腾讯云容器技术专家,负责腾讯自研云原生容器平台建设,GPU 推理平台建设。擅长云原生技术,实现Docker,Kubernetes, Istio, Serverless等云原生技术在腾讯落地。支持 QQ,腾讯文档,腾讯会议等海量业务、百万核心的容器化改造。受邀多次出席行业技术峰会论坛。
构建企业级 AI 中枢:APISIX AI Gateway在大模型流量治理中的实践
支流科技创始人兼CTO,Apache APISIX PMC 成员,Apache 软件基金会成员,全面负责支流科技的技术战略制定、核心商业产品 API7 EE 的研发方向与团队管理。擅长云原生 API 网关、微服务架构、高性能分布式系统设计及开源社区治理与生态建设。作为开源领域的资深实践者与布道者,著有《Apache APISIX 实践》一书,并在全球多个顶级技术峰会分享前沿见解,推动云原生 API 管理技术的发展与应用。
利用多样化的计算平台灵活部署 AI Agent 和工具
亚马逊云科技计算解决方案架构师,擅长利用容器,Kubernetes 等技术和亚马逊云科技服务推动企业应用现代化。在AI 大模型推理,Agentic AI 应用开发和部署方面有丰富经验。曾开发 Stable Diffusions on Amazon EKS, MCP Server on Amazon Web Services 等多个 AI 快速上手解决方案。曾在IBM Cloud任容器产品专家一职。致力于容器技术,无服务器技术和现代化应用的推广,以及充分利用公有云和容器技术加速生成式AI的发展,使得用户更简易的利用生成式AI。
字节跳动端云协同实践与思考
字节跳动端智能团队负责人,先后在淘宝、字节跳动等公司任职,有多年移动应用、高性能计算和人工智能研发经验,致力于 AI 在边缘设备侧的商业化应用。团队端智能产品 Pitaya 已服务1000+ 业务场景落地,涵盖端云特征协同、边缘推荐、精确触达、品质体验等方向,日均调用达万亿级,显著降低服务成本、提升业务效果。
云原生环境下超大规模AI数据的架构实践
Juicedata 解决方案架构师,长期深耕存储技术一线,负责 JuiceFS 精准匹配核心技术场景应用,并推动其在生产环境中稳定落地。作为 JuiceFS 开源社区的核心建设者之一,在技术实现上深度参与,更在社区生态与最佳实践的沉淀中持续贡献力量。在加入Juicedata之前在IBM耕耘十余年,深度参与并行文件系统 GPFS 的运维与技术支持工作,具备跨行业、跨平台的丰富经验。多年来,专注于从架构设计到性能优化的全链路存储实践,并发表了多篇专利《Rebuild System For A Storage Network》等。擅长在复杂的云原生与高性能计算场景中,找到技术与业务的最佳平衡点。
流批一体建设与Flink 引擎维护、优化实践
哔哩哔哩 Flink 引擎负责人,负责B站 Flink 引擎开发、生态系统建设及流批一体建设,擅长大数据相关技术、分布式系统尤其是实时计算系统的建设和维护、流批一体系统的开发。拥有多年大数据开发和 Flink 引擎开发经验。曾在360、星环科技等公司从事大数据开发和引擎维护等相关工作。
MCP x Data:Vibe Data Processing(沉浸式数据处理)
焦春宇 火山引擎 AI数据湖服务架构师。硕士毕业于哈尔滨工业大学,研究方向自然语言处理。毕业后一直在互联网行业工作,曾任百度,快手等互联网公司。长期从事AI相关研究与落地。近三年专注大语言模型生态,从事过模型训练,AI Infra,Data Infra,Agent相关方面的工作。对Data AI结合方面精通。
企业数据集市建设实践与应用探索
微众银行企业数据集市技术负责人。熟悉金融领域数据建模和设计范式,擅长业务数据服务化项目的实施落地,具备丰富的业务数据研发及数据质量治理经验。多家大型银行工作经历,加入微众之后专注于企金业务数据底座建设和数据应用研发,负责企金数据集市、客户智慧经营等项目。
Apache GeaFlow 流图 Agent 架构设计与应用探索
蚂蚁集团图OLAP方向技术负责人,Apache GeaFlow Committer,专注于大数据、图计算及图智能体技术研发。曾就职于网易、蚂蚁集团,在分布式计算、图数据仓库架构设计、高性能图分析引擎优化等领域积累丰富经验。作为Apache GeaFlow核心贡献者,主导图计算与OLAP技术的融合创新,推动蚂蚁图数仓在复杂查询与实时分析场景的性能突破。当前聚焦图智能体与AI协同技术研究,探索图计算在智能决策、知识推理等领域的应用实践,致力于构建高效可扩展的图智能基础设施。
众安Data Agent数据应用落地实践
众安金融数据中心技术负责人,主要负责众安的金融数据中台建设,大数据AI应用相关的落地工作。在多家金融公司担任过技术管理工作,擅长大数据架构和应用架构,具备丰富的技术研发和大数据研发经验。著有《MLOps工程实践 工具、技术与企业级应用》书籍。
从实时多租户到向量数据湖:AI原生应用生命周期中的数据基建服务化演进
Zilliz 研发总监兼 Milvus 技术负责人,拥有多年的数据库,大数据处理等方向的开发经验,目前在Zilliz负责领导核心数据库的研发和维护工作。曾于Meta就任高级工程师,负责广告流式数据框架的设计和开发工作。刘力拥有卡内基梅隆大学信息技术硕士学位。
大数据离线引擎架构和智能化提效实践
柳晴 货拉拉资深大数据工程师,负责企业离线引擎的技术工作,包括稳定性、降本提效和架构演进等。 熟悉引擎内核原理和擅长Hive SQL优化,拥有丰富的引擎开发、性能调优和稳定性保障的实战经验。曾任职于多家互联网企业。获得github uniffle committer。受邀参加国内技术峰会多次,颇受好评。
GUI Agents技术路线、问题挑战与发展演进
国际资深AI算法专家,清华本科、加州大学伯克利分校博士,深圳市孔雀计划人才、深圳市境外高端人才。14年vivo、平安、腾讯、华为、Intel等知名企业算法经验,曾任粤港澳大湾区数字经济研究院(IDEA)算法负责人和鹏城实验室重大攻关项目课题负责人。300+发表论文被引用总次数。精通大语言模型、多模态大模型、自然语言处理,近期聚焦GUI智能体训练与应用。曾主导多项顶尖、前沿的大模型产品从0到1落地,如手机端侧多模态大模型、学术科研垂域大模型、多语言智能翻译与交流平台、医疗行业大模型,具备扎实的研发到商业化闭环经验。
Ovis多模态大模型:结构对齐下的视觉语言融合
阿里巴巴国际数字商业集团高级算法专家,多模态大语言模型算法负责人。2017年本科毕业于中国科学技术大学少年班学院,2022年获得南京大学博士学位,并于同年通过“阿里星”人才计划加入阿里国际。研究兴趣涵盖多模态大语言模型、GUI Agent、Bandits等方向,在ICML、NeurIPS等人工智能顶级学术会议发表论文二十余篇,曾入选“AI华人新星百强榜单”。主导研发的Ovis模型,不仅在多种电商业务场景中成功落地应用,开源后亦受到社区的广泛关注与认可。
面向视频理解的Agentic系统与Infra技术实践
中兴通讯CV大模型算法负责人、高级研究员,博士毕业于上海交通大学,通过“蓝剑计划”加入中兴通讯中心研究院,在IEEE TMM、IEEE TMI、MICCAI、ACM MM等国际顶级期刊和会议上发表多篇学术论文。研究兴趣包括多模态大模型、Agentic AI、AI Infra、智能医疗等。目前主要负责中兴通讯CV大模型的算法与训推框架的研发工作,也多次通过AI Infra优化赋能中兴通讯Nebulacoder大模型的训练提效。
细粒度多模态理解能力探索
360人工智能研究院图像理解负责人,带领团队在图文跨模态学习、开放世界目标检测、多模态大模型等领域展开算法研究和落地工作,在计算机视觉、多模态学习等AI领域有多年研发实践经验,第一作者在ICML、ICCV、ICLR、AAAI、IJCAI等人工智能顶会发表7篇文章,在AI领域发表13篇国内外专利,主导研发项目在360集团的商业化、互联网信息分发、AIoT等多个业务场景取得重要突破。
语音大模型在垂直领域中的应用与落地
云知声大模型研发总监,主要负责云知声山海大模型研发和落地,主导了云知声山海大模型训练,山海系列模型在公开评测如SuperClue、OpenCompass、FlagEval位于国内第一梯队。深度参与了云知声病历质控、云知声语音工牌、云知声智慧座舱等系统设计和研发。曾获厦门市科学技术进步奖,一等奖、福建省科学技术进步奖,二等奖,在Information Processing & Management、ACL、EMNLP、NAACL、IJCAI等期刊和会议上发表数篇论文。申请多篇国家专利已获授权。
多模态Agentic 教育领域落地应用实践
苇徵科技技术合伙人、前微软算法主任级应用科学家,目前负责教育Agent的算法与训推框架的研发工作,优化搜索引擎在垂直领域的Deep Research 和Copilot在垂直领域回答优化。毕业于浙江大学,发表多篇专利技术。研究兴趣包括多模态大模型、Agentic AI、AI Infra、智能教育等。
具身多模态大脑大模型RoboBrain与具身跨本体框架RoboOS
智源研究院研究员,负责具身多模态大模型,长期专注于具身智能与时空智能的理论研究与工程应用, 致力于推动具身智能与认知计算融合, 为构建安全、可信的下一代机器人系统提供理论基础与技术突破。 曾担任智行者科技感知研发总监,负责自动驾驶量产系统研发及前沿技术转化,积累丰富的产业落地经验。 已在TPAMI、 TIP、ICML、 CVPR、 AAAI等国际顶级期刊和会议发表论文十余篇, 获CVPR 2020最佳论文提名奖, Google Scholar 引用超过4000次。
基于OxyGent的企业级多层级智能体的构建与优化
京东集团算法总监、京东零售数据与算法通道委员,OxyGent开源项目架构师/核心开发者,中科院与康奈尔大学联合博士学位及北大双学士,专注多智能体动态规划与联合训练等AI创新,主导开发了京东商家智能助手多智能体系统框架。同时兼任中国科学院大学、北京工业大学硕士企业导师,以及西安电子科技大学客座教授。
专注 多智能体规划、动态规划与LLM微调等AI创新,主导开发了京东商家智能助手多只能提系统框架。主持设计了 Multi-Agent Planning 算法架构并落地京东商家智能助手,擅长多 Agent 动态规划与协同训练、LLM 微调与强化学习。在国际顶级期刊发表学术论文数十篇。
智力资源的双重重塑:人力资源视角下的AI Agents
倍罗(Bello)CTO,全面负责技术研发与产品体系规划。拥有十余年大数据与AI领域的产品、工程和算法经验,曾在微软主导企业数据治理方案研发,在百度构建数据分析平台和国际化产品,并在一家美国公司从0到1组建并管理跨时区的产品与技术团队。自2017年加入倍罗以来,主导研发了简历解析、人才画像、人岗匹配推荐、职业知识图谱等核心技术,推动AI在人才获取、评估筛选、自动化面试、人才库激活等场景的落地与规模化应用,助力行业头部企业实现招聘智能化升级。近年来持续探索AI智能体在HR Tech中的创新实践,打造多款具备行业影响力的智能产品。
智能Agent在生成式营销中的落地闭环
明略科技集团高级技术总监,负责大模型和社交舆情算法相关研发工作,毕业于北京大学,10年+大数据与人工智能相关产品研发经验。曾任宜信技术总监、阿里云技术专家,负责数字营销、金融科技、数字政府等领域拥有多年大数据和人工智能相关产品研发。擅长机器学习、数据建模、自然语言处理、知识图谱、智能客服等算法应用和研究。
重构金融客服体验:大模型与多Agent协同的全场景跃迁实践
马上消费金融AI研究院算法副总监,专注于AI大模型技术应用于金融行业的核心场景,先后在企业数字化转型、智能文档处理、以及智能客服系统等关键领域,成功研发并部署了多款创新的AI Agent产品解决方案。早前曾任职于阿里巴巴十余年,在智能营销决策算法、商业决策算法等领域推动了一系列技术革新和业务增长,研究成果在国际学术界得到了广泛认可,近年来在AAAI、CIKM、SIGIR、WWW、KDD、ICDE、VLDB等CCF-A类顶级会议上发表了十余篇论文,并申请了多项专利,常受邀在各类技术论坛和行业峰会上分享实践经验,为业界同仁提供了宝贵的知识分享和交流机会。
AI as Service:跨越AI编程的AI原生企业编排Agent
微众银行企业及同业应用架构负责人,微众银行室资深经理,负责过AI应用、云SAAS服务、企业大数据、分布式架构、开放银行等。从银行亿级客户核心系统到银行复杂的业务产品系统有丰富经验,并主导AI应用如AI智能客服、人脸识别、VibeCoding产品等,并有多项技术专利。
告别复杂工作流,Agentic AI重构开发新范式
亚马逊云科技资深开发者布道师,软件工程硕士,拥有20年ICT与数字化转型经验。专注亚马逊云科技首位专注开发者的女性技术布道者,18年的架构师经验,专注为金融、教育、制造以及世界500强企业提供数据中心建设,软件定义数据中心等解决方案的咨询及技术落地。以丰富的行业经验为开发者提供技术辅导。致力于通过技术、视频及社区活动,为全球中文开发者分享云原生、云安全及生成式AI领域的实践经验,助力开发者在技术创新之路上成长。
企业级垂直领域智能问数AI Agent落地实践
阿里企业智能事业部高级算法工程师,主要负责阿里集团财资AI智能问数算法、企业智能表格理解等大模型/自然语言处理算法的研发与应用落地工作。擅长领域包括AI Agent、NL2SQL、表格理解、大规模/半监督分类等。在自然语言处理方向顶会及期刊发表论文6篇,拥有3项相关国家发明专利,主导的研究工作落地阿里集团下CFO域、企业智能域的多个真实业务场景。
Kwaipilot:以代码大模型为核心,重塑研发生态与体验
快手研发效能中心 Kwaipilot 产品负责人,负责 Kwaipilot 产品家族的建设,致力于通过提供 AI 研发产品推动快手研发团队效率、体验和幸福感的提升。深耕 AI DevOps 领域,曾在蚂蚁和腾讯从 0 到 1 主导云原生和 AI 原生研发产品等智能研发领域相关产品的建设和落地。
文心快码智能化Coding Agent实践
百度工程效能部前端研发经理,负责文心快码Comate、Devops工具平台、Comate Stack AI原生研发工具链等业务前端研发团队,在软件研发智能化、Devops、研发提效、前端研发技术、技术团队管理等领域有着丰富的经验,并在相关领域著有发明专利8个,国家高质量专项《基于大模型技术的工业领域智能化开发工具项目》技术骨干 。
从Workflow到自主决策:构建端到端企业级自主智能体
网易CodeWave&CoreAgent技术负责人,目前负责网易数智低代码平台CodeWave,及智能体平台CoreAgent的产品技术研发。研究方向为Code Agent AI编程、多智能体协作等领域,曾先后就职于阿里、腾讯,资深前端架构师,开源框架 Egg.js 的核心开发者之一。曾负责盒马数据可视化前端团队、腾讯云大数据平台前端团队、腾讯低代码开源项目逻辑编排方向等。曾多次受邀出席国内技术峰会。
Trae 智能编程助手落地实践
字节跳动架构师、Trae AI 后端负责人,负责Trae IDE 和 Trae 插件后端工程,致力于大模型在研发工程领域的落地,对AI提升研发效能、静态分析、Devops等相关产品有多年实践落地经验,多次出席掘金AI Open Talk等行业会议。
领域知识驱动的代码智能体实践与思考
华为IDE高级技术专家、毕方IDE智慧化技术负责人,负责代码生成模型训练、代码模型推理加速、少资源代码数据增强与合成、面向软件开发领域的模型对齐、代码仓深度语义理解与可视化展示、代码中间表示与可控生成、代码自动修复、长短期记忆管理、多智能体协作与人机协同等代码大模型及代码智能体全栈技术。人工智能领域从业近二十年,曾就职与百度、微软工程院等公司,在自然语言处理、搜索问答、个性化推荐、个人智能助手等多个领域有丰富经验,目前专注于AI4SE、代码大模型、代码智能体、人机协同开发等方向,曾出席ACM图灵大会、ICT软件技术大会、ICSE、ISSTA等国内外顶级会议并持有代码生成领域的多项专利。
代码大模型后训练方法与未来产品形态探索
腾讯高级研究员,2023年加入腾讯,从事代码大模型的训练与落地,负责大模型在代码补全场景的端到端应用及线上效果提升。在浙江大学获得博士学位,研究方向为软件工程,在ICSE/TOSEM等国际顶级会议及期刊发表10+篇论文。曾受邀在业界峰会进行发表演讲,获得荣誉嘉宾称号。致力于提升腾讯的研发效能,将前沿算法落地到腾讯代码助手Codebuddy,服务腾讯公司开发者。
从理念到落地:Vibe Coding 赋能企业级研发协同
开源中国代码服务域负责人,负责Gitee 智能编程方向、代码托管平台、代码静态分析平台、代码搜索服务和云IDE平台等业务和团队;在智能编码、代码资产分析、DevSecOps领域深耕多年;国产化信创布道者;资深代码专家和研发管理平台实践专家。
从数据到模型:基于PAI平台的企业专属模型精调实践
阿里云计算平台事业部资深算法专家 ,毕业于中国科学技术大学,10年以上的大规模机器学习、AI算法研发经验。负责阿里云机器学习平台(PAI)的深度学习与AI大模型算法研发,领域包括LLM/LVM,多模态,强化学习,迁移学习等方向,研发的AI算法工具被广泛应用于阿里多个业务场景,在KDD, CVPR, ICCV, ACL, ICML 等AI及数据挖掘顶会发表论文50+篇。
企业级广告AI素材技术框架与生成创新探索
趣丸科技首席增长算法专家,负责企业用户增长广告投放、端内PUSH、短信召回等应用场景算法落地。Mindspore机器学习框架优秀开发者、曾获得华为昇腾模型王者赛多个奖项。拥有多项专利,包括广告素材推荐、广告定向投放方法、广告自动化上新、基于大数据强化学习的广告分析等16项发明专利。打造了从0-1负责智能投放系统,日均投放消耗过百万。
AI数字员工助力企业实现数智跃迁
小冰科技AI 技术创新与解决方案副总裁,负责小冰科技AI技术战略的制定与执行,主导前沿技术研发、评估及落地应用;推动技术创新和行业应用相结合,构建高价值行业解决方案与主航道产品,实现持续的业务增长并保持技术领先。加入小冰团队之前,曾供职于神州数码、依图科技等头部科技企业,担任核心技术团队、行业解决方案中心负责人等。
扣子罗盘: Badcase驱动的Agent效果调优实践
扣子罗盘服务端技术负责人,字节跳动 AI Platform 部门技术专家,从 0-1 落地 AI AgentOps 平台,服务字节跳动Flow、抖音、电商、懂车帝等众多业务线的AI应用实践。持续关注 AI 应用开发平台运维的前沿动态及创新,对 AI 应用落地及效果调优有深入的理解与洞见。主导参与扣子&扣子罗盘项目开源,上线首周github star coze-studio 11k+、coze-loop 4k+,社区关注度高,深度参与开源社区建设。
基于Agent的数字分身智能客服模式跃迁路径
平安金服数据科技部大数据AI应用总监,负责集团内大数据、大模型、AI算法等技术与综合金融服务场景深度结合,搭建数字化产品,赋能业务提效、服务提质。擅长领域为AI大数据整体解决方案、AI产品孵化。结合技术先进性和业务敏感度,在大模型时代快速孵化催收智能催记、在线客服数字员工等项目,辅助一线员工8000+,替代140作业人力。著有“基于电话服务领域客户进线文本数据的舆情挖掘机监控解决方案”“海报生成方法、装置、电子设备及存储介质”等10项专利。
从屏幕到心跳:豆包大模型在互动娱乐场景的 “开挂” 应用
火山引擎大模型产品解决方案总监,负责在各行业领域、各场景制定大模型相关的解决方案,并进行商业化落地。深耕社交互动和AI工具两个赛道,编制国内首个行业白皮书(社交陪伴+大模型),过往曾于百度、Minimax 负责 To B 业务中 AI 及大模型相关的行业解决方案构建与商业化落地。
AI智能体知识管理平台的搭建
傲程软件联合创始人& CTO。5年微软工作经历,为制造业及电信行业客户提供架构咨询服务。超过20年的企业应用软件研发、架构设计、管理经验。负责公司产品和服务线的规划、研发和数字化交付。领导企业Web应用工厂、企业AI应用平台等产品的研发。在机器学习、大语言模型、智能体等领域有丰富的实践经验。
当AI Agent 实体化:跨越软硬件的全新产品观
涂鸦智能平台产品总监,负责涂鸦核心产品 AI 硬件开发平台,主导各细分产品线的核心功能设计及产品架构设计。在涂鸦任职期间,带领团队构建了行业领先的 IoT 开发及商业化开放平台,并进一步转型为 AI 硬件开发平台。深度参与涂鸦智能作为全球IoT 平台第一股于纽交所、港交所双主板上市。12 年产品兼7 年运营策略管理经验,曾在电商、社交、 B2B 等行业完成过多款商业化产品,关注用户体验设计及艺术表达,擅长产品创新、商业化设计及产品布道。
企业智能办公场景AI 产品实践
阿里企业智能办公AI产品专家,主要负责数字办公AI助理、AI平台等方向产品工作,深耕企业数字化领域,负责过阿里企业基础账号权限平台、工作流平台、阿里内外、组织文化、组织治理、薪酬福利等领域产品,在AI时代,基于员工服务和协同办公场景,主导企业办公AI助理面向阿里员工的实践(入选 CCF 2024企业数字化发展优秀案例),探索办公效率和体验的新范式。
人机交互协作新范式:AI智能体链接全网
网易伏羲产品负责人,现任“有灵智能体”平台产品核心策划运营,专注于推动人机协作技术向虚实融合场景落地。从业超十年深耕人工智能与大数据的产业化实践,曾任百度、阿里产品负责人,主导百度统计数据分析系统构建,覆盖超百万开发者生态;推进阿里智能客服平台体系从0到1建设,主导智能客服、反欺诈平台等核心项目,服务超5亿用户;带领创业团队完成多款智能体产品研发,成功推动企业从初始到完成C轮融资,实现自动化技术在金融、能源等领域的规模化落地。
加入网易伏羲后,致力于带动团队一起将人机协作技术深度落地:在虚拟领域打造首个游戏Copilot AI队友,通过自然语言交互重塑玩家体验;在实体领域推动"灵动"智能工程机械落地矿山等高危场景,并在AOP(智能体编程)框架下构建灵活用工生态,累计连接百万级人机协作节点,形成虚拟验证-实体落地-数据反哺的技术闭环,以智能体生态重塑未来生产力生产关系,诠释网易伏羲的技术愿景。
打造情感陪伴与用户记忆构建的个性化AI智能体
前字节、360产品总监,AI领域创业者,独立讲师、企业AI咨询顾问,专注于推动AI在企业中的落地与组织变革。曾就职于网易、36氪、360、字节跳动等公司,担任核心产品线负责人,主导产品年营收破亿、DAU 超千万,打造的创新产品覆盖用户超60万,入选华为鸿蒙平台多次推荐。
AI自媒体「互联网悦读笔记」主理人,36氪、人人都是产品经理特邀专栏作者,累计原创文章700余篇。长期为世界500强和行业头部企业提供AI产品咨询与培训服务,客户包括东风集团、海亮集团、美的集团、中国电信、广东联通等,重点聚焦企业AI能力导入、流程再造与数字化转型落地。
AI时代下短视频传播的“效与能”
众信旅游新媒体中心负责人,负责短视频及直播相关事项,前泡泡玛特高级内容营销专家,前樊登读书视频号负责人。拥有多年新媒体运营经验,擅长内容营销、内容传播以及爆款视频打造。服务过多家500强企业及上市公司,曾创造过单条视频播放量高达2.4亿的纪录,新媒体运营账号总粉丝量超千万,既熟悉大公司的运作思路,也了解从0到1的运营方法和短视频平台传播规律。著有畅销书《流量的秘密—爆款短视频的底层逻辑》
业务驱动下的内容产品智能场景应用提效
同花顺内容团队负责人 ,同花顺高级产品专家、银行事业部高级产品专家。负责同花顺银行业务方向的开拓,8年时间内搭建内容中心、基金/理财商城、黄金/外汇专区等零售产品,服务上百家银行,合作金额破亿。曾先后在HiPM产品创新力峰会、产品力领航者峰会、同花顺AI金融交流会、长三角人工智能论坛担任讲师。
AI大模型混合架构驱动的金融产品创新实践
广发银行信用卡中心商业分析负责人,负责线上平台的商业分析和商业智能,领导过多个用户规模千万级、营收规模千亿级产品的数据运营和数据营销项目,擅长数据分析、数据运营和商业分析。超过15年的互联网和金融行业经验,前阿里巴巴产品运营专家,微软认证PowerBI数据分析专家、PMP项目管理专家和PBA商业分析专家,在数据分析、数据智能和商业分析有极其丰富的经验。出版畅销书《运营之路:数据分析+数据运营+用户增长》。
大模型端到端预训练优化实践
百度飞桨高级工程师,负责大模型预训练及深度学习框架研发。拥有多年的深度学习框架研发经验,作为核心研发人员,深度参与了飞桨框架的2.0-3.0版本的迭代研发、与文心大模型预训练的优化工作,致力于通过技术创新与开源平台建设,助力大模型行业发展。
算法驱动的AI原生技术架构与具身智能技术逻辑
灵巧智能总工程师,工信部人工智能算法高级工程师,负责具身智能高自由度灵巧手的软硬件研发和算法框架探索,擅长具身智能领域的软硬件框架设计和算法,曾在惠普从事图形处理和引擎控制方向工作,对于多传动精密引擎有着比较长期经验,并在小米生态链企业主导全国产打印系统的整体架构和核心软硬件开发设计,多篇国内外授权发明专利。
电商风控模型推理平台探索:打造高效、自动、智能的大数据+AI系统
eBay支付风控模型工程技术专家,毕业于上海交通大学,先后供职于京东和 eBay 支付风控部门。担任eBay 风控数据工程、模型工程及自动化工作流调度平台的研发工作,长期专注于风控领域的数据与模型工程实践,在电商场景下的大规模模型推理系统建设方面具备丰富的一线经验。主持自研 eBay 新一代自动化工作流调度管理平台,现已成为 eBay Payments & Risk、Compliance、Trust 等多个部门模型与数据批处理调度的标准化解决方案。曾多次受邀出席业界技术会议,分享模型工程在大规模业务落地过程中的系统设计理念与工程化实践。
大模型服务推理优化与工程化落地
顺丰科技AI平台推理优化负责人,负责集团AI平台MaaS平台、推理优化。深耕云计算与基础设施领域10年,拥有5年机器学习平台研发经验。作为科技MaaS平台的核心建设者,带领团队在大模型推理服务性能优化、资源效率提升及工程化落地方面取得显著成果。凭借对云计算架构、分布式系统及机器学习平台的深刻理解,致力于通过技术创新优化AI生产效能,助力企业实现降本增效与智能化升级。
异构算力集群的优化与调度实践
商汤科技大装置技术产品总监,负责商汤自研深度学习框架及模型生产工具的产品开发与研发管理,主导商汤大模型一体机及大模型专家服务解决方案,将前沿技术转化为市场化产品,在金融、能源等关键行业取得了显著的应用实践成果。作为国产化业务负责人,深度参与并推动了软硬件适配体系的国产化进程,推进落地了多个国家级重大科研项目,为行业的标准化与协同发展贡献了重要力量。取得5项发明专利及2项软件著作权。
基于 Intel® Xeon® 6 的 DeepSeek R1 高效低成本部署落地实践
英特尔AI软件架构师 ,负责英特尔亚太研发中心(数据中心与人工智能事业部)人工智能架构相关工作,PyTorch 社区CPU 性能模块的维护者。毕业于哈尔滨工业大学控制科学与工程专业。曾就职于美满电子。长期从事人工智能软件框架性能优化工作,在PyTorch性能优化及相关生态优化方面做出过多项贡献,参与贡献的开源项目包括且不限于:LuaTorch, PyTorch, OpenNMT, Transformers, PyG, torch.ao, torch.compile, Llama.cpp,SGLang。
昇腾大模型推理性能优化最佳实践
华为昇腾计算高级项目经理、推理引擎负责人,2018年加入华为,长期从事图像算法、推理引擎等AI领域基础能力研究与产品化工作。华为期间曾负责算子加速库、推理引擎、安防图像算法、工业视觉检测解决方案等领域,对推理端到端有深刻理解。近期投入基于华为超节点的大规模专家并行方案构建与落地工作,客户场景化落地有着丰富经验。
AI Native数据智能检索技术探索与能力建设
腾讯大数据AI算法负责人、高级研究员,目前主要负责负责腾讯大数据Infra算法侧研发工作。博士毕业于北京大学计算机系,曾获WWW最佳学生论文奖、ACM北京优秀博士论文奖等荣誉,在NeurIPS、ICML、SIGMOD、VLDB、 SIGKDD、WWW等国际顶级学术会议上发表了超过30篇CCF-A类论文,并担任多个国际顶会审稿人,研究兴趣主要包括决策算法、大模型算法和AI Infra算法。
人工智能高质量数据集构建实践
飞数信息科技CTO,目前负责AI数据治理工具链研发、数据生产平台及数据集产品开发等。曾任科大讯飞AI资源部数据运营总监、高级AI方案架构师。十余年从事语音合成、意图识别、声纹及多语种识别等人工智能引擎算法研发经验。授权发明专利6项。
数据智能的深水区:面向复杂决策的因果推断挖掘
马上消费人工智能研究院博后研究员,专注于将前沿因果科学理论应用于真实的金融科技场景,积极推动公司核心业务中因果推断算法的创新研发与规模化实践。于吉林大学人工智能学院攻读博士期间,深耕于复杂变量系统的因果推断方法,提出了该领域一套通用的因果框架,著有畅销书《因果推断:原理解析与应用实践》、并发表了5篇高水平英文学术论文。作为核心成员参加国家基金委面上项目并设计了面向高维稀疏数据的全链路因果推断方案。同时,作为因果科学的积极传播者,拥有数万粉丝的知识博主,致力于以通俗易懂的方式普及因果推断的核心思想与应用价值,搭建起因果理论与业务实践之间的重要桥梁。
3个客户半年时间,企业智能决策Data Agent与场景化AI转型实践
Kyligence 联合创始人兼 CTO,Apache Kylin 联合创建者及项目管理委员会成员,主创团队架构师与技术负责人,专注于大数据分析、并行计算、数据索引、关系代数、近似算法等技术。曾任 eBay 全球分析基础架构部大数据资深架构师、IBM InfoSphere BigInsights 的技术负责人、摩根士丹利副总裁。
LLM增强元数据、重塑大数据流通应用的挑战和实践
京东集团大数据架构师,高级工程师,博士毕业于北大数学学院,获北大优秀博士论文二等奖,拥有十多年安全与算法从业经验,目前负责集团大数据的高效流通和应用,推动大模型在集团大数据领域的落地,以提升数据安全和使用效率。擅长数据安全、隐私计算、RAG/Agent等领域,发表论文和专利50余篇/件,译著著作《快速部署大模型:LLM策略与实践》。
赋能数据工程:大模型驱动的关键能力创新与应用实践
腾讯大数据AI算法研究员,目前主要负责负责腾讯大数据AI for System研发工作。博士毕业于北京大学计算机学院,曾获WWW最佳学生论文奖等荣誉,在NeurIPS、SIGKDD、SIGMOD、VLDB、WWW等国际顶级学术会议上发表了超过20篇CCF-A类论文,并担任多个国际顶会审稿人,研究兴趣主要包括决策算法、时序分析算法、大模型智能体等。
火山引擎Data Agent:分析智能体架构与落地实践
火山引擎 Data Agent技术专家,负责火山引擎DataAgent分析智能体技术工作,曾服务过HULU,快手等公司。在BI分析,指标平台,数据智能等领域有丰富的架构设计与企业应用经验,并发表多篇专利。近两年主导字节/火山引擎最大的数据分析产品智能化升级改造,推出智能问数,深度分析等数据产品,并推进在字节域内和火山引擎企业客户落地。
从RAG到DeepResearch:推理模型的进化之路
前阿里巴巴资深算法专家,致力于大模型应用、推荐算法、搜索引擎的前沿技术研究。高性能检索NSG、SSG、PSP、MAG算法的发明者,在人工智能、推荐系统、数据库、数据挖掘、自然语言处理、神经网络、知识图谱等多个领域有丰富研究成果,在顶级会议或期刊TPAMI、KDD、VLDB、SIGIR、IJCAI、EMNLP、CIKM等发表论文二十余篇。拥有两项国家专利。
著有《业务驱动的推荐系统:方法与实践》,浙江大学计算机博士,美国南加州大学访问学者。Tpami、TKDE、ICLR、KDD、SIGIR、AAAI、IJCAI、EMNLP、NEURAL NETWORKS、NEURAL COMPTING审稿人。
大语言模型的若干关键技术
京东探索研究院资深研究员、京东JoyAI(言犀)大语言模型执行负责人、京东集团高级总监,人工智能业务部副总经理。专注LLM的训练和推理,曾于IBM研究院任职10年,加入京东之前,任IBM神经网络架构搜索全球联合负责人。以第一主编的身份著有教材《大模型时代的人工智能基础与实践》,在Nature npj, TPAMI,TNNLS, NeurIPS, CVPR, ECCV, AAAI, ACL, IJCAI, PACT等国际顶会顶期刊上发表多篇文章,授权美国发明专利30余项。
Agentic RL驱动的推理大模型的技术进展与行业应用
阿里通义算法专家、通义Agent PostTraining负责人,从事Agent、RAG方向的技术研究和应用落地。2021年博士毕业于中国科学院大学,同年通过“AIDU”计划加入百度,2024年加入阿里巴巴通义实验室。在ACL/EMNLP/ICML/NAACL等会议上发表15+论文,研究兴趣包括Agentic LLM 后训练、数据构造、Mechine Translation Parsing。
基于Agent RL的大模型复杂推理实践
淘天集团商家大模型团队负责人,高级算法专家,负责商家AI Agent核心算法研发,打造淘宝官方商家AI 工具“生意管家”,基于大模型复杂推理技术,为商家提供智能经营诊断、自动化运营、AI客服辅助、高效素材创作等一站式能力,推动电商经营智能化转型。擅长大模型post-training、强化学习及代码大模型等方向,长期专注于NL2Code、知识增强、多步工具推理链路的设计与优化,推动复杂任务的智能化执行。曾任通义实验室算法专家,负责数小蜜、云小蜜、通义灵码等多项AI产品及智能体的算法研发。在NL2SQL、知识检索增强、复杂推理链路等方向发表多篇论文和专利,致力于AI技术在产业中的深度落地与规模化应用。
从副驾到主驾:开域信息获取Agent
华为诺亚方舟实验室主任研究员、华为大模型算法专家、盘古Agent技术负责人,2017年加入华为,长期从事知识工程,大模型后训练及AI智能体相关方向研究及应用落地工作。先后担任实验室知识增强大模型、Agentic AI等方向技术负责人。近期研究方向包括Agentic RL训练、多智能体协同等。在ACL/EMNLP/ICLR/TACL等国际顶级会议及期刊发表15+篇论文,拥有10+国家发明专利,主导的研究工作落地华为旗舰手机等多个真实应用场景。
深度推理模型在辅助决策领域的应用
科大讯飞消费者BG算法研究员,在业务群内负责智能评标、RPA、以及写作类场景的算法研发落地工作。致力于大模型应用、多模态融合、强化学习、AI Agent的前沿技术研究。在人工智能、多模态融合、自然语言处理、计算机视觉、智能体等领域有丰富的研究成果,发表SCI论文两篇、中文核心论文一篇。拥有国家专利四项,著有《AI大模型训练与实战》。
大模型深度推理用户长周期跨域兴趣建模
京东广告算法工程师,负责生成式画像推理和应用落地,专注推荐系统与AI算法研发,擅长新技术新产品的应用落地,曾任亚马逊中国工程师,百度研发工程师,发表论文专利10余篇,有过短视频创业经历,被百度收购后,加入京东。
AIOps在大模型训练场景的实践
蚂蚁集团超级计算技术部AIOps专家,目前就职于蚂蚁集团超级计算技术部、算力治理团队,负责大模型训练稳定性保障和智算资源的Profiling能力建设,推进基础设施AIOps实践落地。在AI Infra以及大模型训练/推理下稳定性保障和性能优化具有丰富经验。
可观测的智能化:任务规划在Agent落地中的挑战与应对
阿里云可观测AIOPS算法开发专家、阿里云研发专家。负责可观测领域的智能化算法开发,对指标、事件、文本、链路领域的相关算法开发。参与高性能、低成本的指标检测和预测系统开发;文本模式挖掘;根因分析领域问题研发,致力于 探索LLM在可观测领域的落地路径,探索MCP、Agent等模式在可观测领域提效。参与4个国家发明专利,其中2项是主要发明人;多篇可观测领域的论文,发表在ICSE、AAAI、KDD、ASPLOS等CCF-A学术会议。
基于大模型的可观测根因定位与告警分析实践
携程AIOps团队负责人、算法专家,主要负责携程AIOps技术体系, 包括智能告警、智能变更、容量治理、应用治理、根因定位等方向的工作,在人工智能技术结合运维场景方面有深入研究。多次分享技术主题,获得携程技术中心优秀讲师称号,曾多次出席过业界行业技术会议,其负责项目获得中国信通院“云服务运行安全创新成果奖”。
SRE主导的智能化场景落地实践
腾讯 SRE平台研发中心总监,2012年加入腾讯,目前就职腾讯IEG技术运营部,参与及负责过腾讯蓝鲸PaaS平台、PaaS配套服务、AIOps平台设计及构建,近几年重点负责SRE AI大模型平台工程及SRE 智能场景设计及建设,赋能SRE在智能化场景落地实践。
面向业务的智能化可观测性实践
基调听云CTO ,中国第一批商业化APM工具缔造者、实践者,中国信通院可观测性工作组组长,专注于大模型在智能观测性平台和AIOPS的产品研发及商业化运营上,对APM及可观测性行业有较深入的理解及洞见,擅长构建以大模型、多 Agent 协同为核心的 AIOps 能力体系,推动行业从“工具驱动”迈向“智能演化”。在金融、运营商及高科技等领域,有着非常专业的技术方案和产品洞见。
大模型后训练在智能运维Agent 上的应用
趣丸科技 AI应用开发工程师 ,主导趣丸科技面向智能运维(AIOps)场景的高效AI Agent探索与开发。核心工作是覆盖从模型后训练、RAG优化、Agent设计的AI应用全链路开发。
曾在技术比赛中,获得第二届开放原子大赛 (Teco-RAG)个人冠军、2025开放原子大模型科研工具创新赛团队亚军 (队长)、2024上海交大跨境电商AI全球挑战赛团队亚军 (队长);也活跃在开源贡献中: dify, langchain, esay-dataset 等项目Contributor。
DeRisk AI原生的智能运维平台实践
蚂蚁集团DeRisk AI原生的智能运维平台负责人、蚂蚁集团技术专家,主要负责DevOps和LLM交叉领域的探索和实践落地,通过运维大模型、SRE Agent等技术方案演进到DeRisk智能运维的平台落地,实现对SRE/DBA/质量等团队的赋能提效。曾任职于华为、阿里,在高可用架构、故障应急产品化智能化等领域有丰富经验。从业十余年技术方向覆盖底层软件、互联网业务开发、技术风险高可用等多个方向,拥有2篇专利、软著若干。
大模型驱动:亿级MAU产品用户反馈处理流程的智能化升级
腾讯PCG测试工具中心研发负责人,深耕互联网行业10余年,兼具研发、测试、产品等多角色实战经验,多次参与腾讯学堂、TestHome分享, 构建过亿级MAU产品例如腾讯视频、QQ浏览器等产品用户反馈处理流程,对用户反馈驱动产品优化的逻辑有深度理解与系统性实践,目前正探索通过大模型技术赋能用户反馈处理及用户智能助手工作。著有畅销书《移动App性能评测与优化》。
大模型评测平台落地实践:效果评测和性能评测
顺丰科技AI平台测试负责人,专注于大模型评测体系的构建与优化,主导搭建了涵盖效果评测、性能评测的AI应用评测平台,并推进顺丰基线数据集和LLMOps观测平台建设。拥有10年互联网测试经验,从传统性能测试演进到大模型评测,在AI应用评测、云原生K8S集群稳定性保障和亿级流量系统性能测试方面拥有丰富经验。通过评测体系的标准化建设了可复用的评测框架,推动了大模型应用质量提升。
LLM驱动的精准测试提效及发展趋势
科大讯飞技术中心测试总监 集团测试分委会主任,负责集团测试技术能力建设及测试人才发展体系建设。7年的AI算法引擎测试经验及业务测试经验,8年的测试管理经验,擅长算法引擎测试、服务端测试、质量评估、测试自动化。从0到1建设集团测试效能平台并在全集团覆盖,让测试全过程规范化、线上化、数字化,并可量化评估。构建LLM测试能力,覆盖需求测试、测试用例生成、自动化脚本生成、智能体等多场景,助力测试效能提升。
AI重塑软件质量保障:从需求到用例再到自动化的智能测试闭环
腾讯优测测试工具平台产品负责人、高级技术产品经理,2011年加入腾讯,作为早期团队核心成员,主导从0到1搭建腾讯PCG事业群全流程质量平台并推动公司级落地,并构建基于数据驱动的质量保障工作流程,支撑腾讯QQ、腾讯视频、腾讯文档等亿级DAU产品的质量保障与效能提升。
AI智能客服在解决技术支持工单问题中的探索与实践
前字节跳动TikTok直播质量效能团队负责人,国内资深测试专家,北京软件和信息服务业协会专家,MTSC大会最佳讲师、技术委员会委员,在质量体系建设、质量度量及运营、自动化测试、性能测试以及AI赋能软件测试等领域有丰富的实战经验。有日活10亿级App质量保障及质量专项建设经验,领导团队开发完成诸如全自动无人值守的App遍历测试工具、流量录制回放平台等高ROI的质量工具平台。著有专著《测试总监话测试》及专栏《接口测试之代码实例21讲》。
AI Agent质量保障体系建设与评测探索实践
蚂蚁数科AI业务质量与质量效能负责人,负责蚂蚁数科AI业务整体质量及质量效能平台建设工作,主导构建智能体评测平台&蚂蚁数科质量平台,覆盖从算法验证到业务交付的全链路质量管控。10余年软件开发及测试经验,擅长测试工具开发、质量效能平台建设等方向有丰富的落地经验,曾任职网易、淘宝、腾讯音乐等公司,个人累计申请多篇专利、软著,担任多场行业峰会讲师。