使用微信扫一扫分享到朋友圈
使用微信扫一扫进入小程序分享活动
2 天沉浸式学习交流 | 15+前沿分论坛 | 60+真实应用案例
科技日新月异,大数据与人工智能等技术的迅猛发展正引领各行各业迈向变革的新纪元。数据量的激增与计算能力的跃升,成就了大模型技术的崛起,为人工智能的飞跃式发展注入了新的动能,数据与智能双向深度融合彰显出无限潜力。
经历了初期的狂热,业界对大模型的看法已逐渐回归理性。技术终究是工具,其价值在于落地应用与创造实际效益。大模型的进一步发展对数据科学理论与数据工程技术提出了日益迫切的需求;数据在大模型产业发展中扮演着日益重要的角色。大模型与大数据如何双向奔赴、如何深度融合、如何赋能产业,成为了当前大数据与人工智能研发的关键议题。
基于此,本次“数据融百业,智能创未来”线下大会汇聚业界顶尖专家学者与行业领袖,共同研讨大数据、大模型等技术的最新动态与应用实践。我们期待通过这一平台,激发知识交流与思想碰撞,发掘创新与合作契机,共同探索数据智能推动行业数字化转型升级与高质量发展的路径。
复旦大学教授、博导,上海青浦复旦未来技术研究院副院长,上海市数据科学重点实验室主任。长期从事大数据、认知智能研究。 荣获ICDE2024十年影响力论文奖、ACL 2025 & 2023杰出论文奖。发表 CCF-A 、B 类等论文 400 余篇。出版学术专著与教材五部。入选东方英才拔尖项目。完成近百项政府及人工智能头部企业研发项目。荣获包括华为、阿里、美团等机构授予的几十项科研奖项。
在大数据、人工智能领域拥有超过20年研发经验。目前负责阿里云大数据和机器学习平台,支撑达摩院、淘宝、菜鸟等大数据存储、计算、分析和机器学习的需求,同时服务于数以万计的云上客户。
曾担任NewsBreak工程总负责人,负责AI系统、推荐、广告等业务,并成功推动NewsBreak技术及商业化转型。
曾担任微软搜索与人工智能事业部工程副总裁和全球杰出工程师,带领团队研发搜索、对象存储、大数据计算、深度学习平台和框架,支撑微软Bing、Office365、Azure、大语言模型研究等业务。创建和领导了大规模深度学习团队DeepSpeed,并发布了当时最大的语言模型170亿参数的Turing-NLG。
纽约大学计算机硕士学位、中国科学技术大学计算机和经济管理双学位。
云器科技联合创始人兼 CTO,曾任阿里巴巴 P10 研究员,主导了阿里云飞天大数据平台二代研发及落地,曾于微软云计算和企业事业部工作近十年,浙江省科技进步一等奖获得者。
陈廷梁(王贲),数新智能创始人兼CEO,中国计算机学会大数据专委会执委、数据治理与发展技术委员会执委员,哈工大计算学部浙江校友会会长。原阿里云研发总监,阿里大数据平台DataWorks创始人和人工智能平台PAI的工程开发负责人。2020年创立数新智能,核心定位做全球领先的一站式多云AI原生数据智能平台,做大模型时代大数据 + 人工智能一体化底座平台。国际化方向支持跨国多云多引擎多中心,国内支持信创和国产替代。
芝麻企业信用技术负责人,负责整体技术工作。之前就职于网商银行,Uber美国以及PayPal,在综合金融系统,Uber增长平台,基础架构有多年经验。获得加州大学默塞德分校硕士,从事计算机视觉相关研究。
数据库和大数据技术爱好者,负责聚好看云平台、数据库、大数据、业务中台、运维与测试,海信集团数智化转型核心成员。
个人介绍:周卫林,Aloudata(大应科技)创始人 & CEO,曾任蚂蚁集团研究员(P10)、蚂蚁集团数据平台部总经理,拥有 20 余年大数据领域从业经验,是国内最早一批数据仓库先行者。他曾深度参与并主导了阿里/蚂蚁集团从传统数仓体系到数据智能体系的数据技术演进过程,全面支撑了蚂蚁集团从支付工具到数字生活平台的升级,横向推动了整个蚂蚁集团业务数据化、智能化水平的提升。除此之外,他还是多个有影响力的数据工具类产品的主要缔造者,并由此孵化出多个进入 Gartner、Forrester 领导者象限的阿里云拳头产品。
个人介绍:王昊奋,同济大学百人计划,特聘研究员,博士生导师。长期在一线人工智能公司担任CTO之职。他是全球最大的中文开放知识图谱联盟OpenKG发起人之一。他负责参与多项国家级AI相关项目,发表100余篇AI领域高水平论文,被引用次数达到3100余次,H-index达到29。他构建了全球首个可交互养成的虚拟偶像—“琥珀·虚颜”;所构建的智能客服机器人已累计服务用户超过10亿人次。目前,他担任中国计算机学会术语工委副主任,SIGKG主席,上海秘书长,自然语言处理专委会秘书长,中国中文信息学会理事,语言与知识计算专委会副秘书长,上海市计算机学会自然语言处理专委会副主任,上海交通大学AI校友会秘书长等社会职位。
众安保险数据产品与数据基建团队负责人,兼任众安金融数据中心负责人。拥有多年数据领域产品研发管理经验,深耕金融行业,专注于AI工程化、流批一体架构与金融业务场景的深度融合。在DataOps体系搭建、智能决策引擎开发等领域具备丰富实战经验。
中国平安人寿保险股份有限公司架构与数据管理团队总经理,大数据标准技术推进委员会首批数据中台专家、香蜜湖金融科技创新特征与趋势报告(2021)编写组成员;毕业于四川大学,2001 年加入平安,拥有 20 余年保险信息化系统建设和数据管理经验,参与并部分主导公司数字化转型战略,主导寿险数据技术迭代升级,从传统数仓向数据集市、大数据平台、数据中台持续演进,带领团队历获金保奖”卓越保险科技数据中台奖(2023)、“金信通“金融科技创新应用案例特色奖(2022)、香蜜湖金融科技创新奖优秀项目奖(2019)、深圳市金融创新奖一等奖(2016)、二等奖(2023)等。
喜马拉雅智能引擎与分发部负责人,负责搜索、推荐与AI产品创新。关注搜推、大模型应用与生成式推荐等方向,曾就职于美团、阿里等公司。
深耕软件与数据领域二十年,聚焦大数据治理与智能计算,推动数据资产化、智能化,实现数据价值的可持续释放。
中兴通讯数字化专家,长期深耕企业数智化转型与AI应用落地领域。致力于打造可复制、可推广的企业AI实践范式。
13年+百度产品和研发管理经验,原百度地图场景化业务总经理,具备出色的产品、技术团队管理能力和技术实操经验。
20余年通信运营商/物联网/互联网平台建设经验;牵头多个国家省部级项目设计落地;目前专注于公司集团化/智能化能力建设工作。
2011-2020.6在百度凤巢模型团队从事广告推荐算法;2020.7月加入vivo,负责vivo互联网内容推荐算法。
资深数据库与云计算领域专家,20 年软件研发经验,曾担任阿里云数据库产品管理与解决方案部总经理,阿里云技术架构组与产品决策委员会核心成员。帮助阿里云构建了云原生数据库产品体系,并成功进入 Gartner DBMS 魔力象限全球领导者位置,实现中国基础软件的重大突破。阿里巴巴去 IOE、异地多活、云计算多次技术变革的核心技术专家,曾带领团队研发了全球领先的云原生数据传输 DTS、数据管理 DMS、数据库备份DBS 、数据库自动驾驶服务 DAS 等多款云计算数据库产品。
企业级本体工程:从Palantir方法论到中国实践 | Data+AI 技术与应用创新 | Agentic RAG:从检索增强到自主决策 |
|
|
|
| 非结构化数据工程:文档/图像/视频的AI化处理 | Data+AI 在金融领域的实践 | AI for Data:数据治理智能化升级 |
|
|
|
| Agent Ready数据架构:下一代数据基础设施 | AI驱动的数据开发与分析一体化 | Agentic AI开发框架与工具链 |
|
|
|
大模型应用成本优化实战 | LLM+研发效能:从代码生成到智能研发 | AI搜索:从关键词到智能对话 |
|
|
|
| 大模型时代的算法演进之路 | OpenClaw商业化生态实践 | 上下文工程——大模型应用落地的核心工程实践 |
|
|
|
负责数据开发和管理平台Dataverse、实时计算平台、AB实验平台、RedBI分析平台和UBA 用户行为分析平台的技术研发工作,《极客时间》数据中台实战课作者,订阅量超过 3W+,拥有13年互联网数据开发和管理的实践经验,最近一年专注于Data+AI 数据平台的构建实践。
太平洋保险集团云首席专家兼AI中台负责人,具备十多年的系统开发维护,云产品架构设计、解决方案设计经验,多年金融单位、互联网云厂商工作经验,做为总架主导过多家大型银行私有云/金融云、某保险集团混合云/专有云建设、城商行云化转型等项目建设;目前主要负责集团云计算云原生、AI中台能力建设、业务双活/单元化体系建设,资源混部、智能运维、混沌工程等课题。
在互联网行业深耕16年,曾在DDD领域驱动设计,公司级系统稳定性建设以及企业技术文化建设方面有较多的研究、落地实践与文字输出。25年以来创建去哪儿网 QUNAR AI Lab,聚焦于 AI toC端应用实践,尤其是旅游OTA垂类的AI to C端应用实践。
负责哈啰的搜推广/NLP/CV相关算法。曾就职于网易和阿里巴巴。十多年搜推广算法老兵。主导过搜推广(自动化营销、互动式广告引擎、视频与内容推荐)多个创业业务算法体系、基础算法(端智能 、智能客服、视觉核查平台) 等 0-100阶段多个不同方向。目前关注大模型和AIGC在哈啰内外应用。
连续2届担任腾讯前端技术委员会委员,现担任腾讯低代码开源协同 Oteam PMC,腾讯云架构师上海理事会理事。目前带领团队在全链路AI Coding领域进行实践落地,有丰富的AIGC特别是AI Coding,AI+低代码开发领域的提效落地实践经验。此外,在低代码相关领域实践多年,曾参与信通院低代码无代码标准制定、主导IEEE,大湾区,公司内低代码相关标准编制,在阿里 D2 、GIAC、QCon、ArchSummit、QEcon等大会上进行多次出品和演讲工作。
开源大模型推理引擎xLLM负责人。曾参与了多个深度学习开源框架的工作。主要研究方向大模型推理优化、多模态大模型、生成式推荐等方向,在SC,KDD,MLSYS、AAAI、EMNLP,NAACL,TC、TDPS等会议、期刊发表十余篇论文。
复旦大学教授、博导,上海青浦复旦未来技术研究院副院长,上海市数据科学重点实验室主任。长期从事大数据、认知智能研究。 荣获ICDE2024十年影响力论文奖、ACL 2025 & 2023杰出论文奖。发表 CCF-A 、B 类等论文 400 余篇。出版学术专著与教材五部。入选东方英才拔尖项目。完成近百项政府及人工智能头部企业研发项目。荣获包括华为、阿里、美团等机构授予的几十项科研奖项。
吕航飞现在负责某一线互联网公司现有系统智能化架构演进。历任百度商用CRM SAAS系统及座舱语音智能体架构师,SAP某业务团队SaaS技术负责人。擅长复杂系统落地及重构,AI Agent落地。
长期负责公司的技术战略与数字化运营创新,在数字化运营方面,通过建立三套“KY”体系(KYC、KYP、KYI)来精准匹配用户与金融产品,并推动服务模式从“以产品为中心”转向“以用户为中心”。在技术应用上,朱益盛主导了多项创新实践,如开发智能“巡检机器人”前置发现APP使用问题,以及利用AI、大数据和知识图谱技术实现用户需求预测和风险预警。同时,他注重数据安全与隐私保护,强调所有数字化探索均在合规前提下进行。
先后在Alibaba、Splunk、eBay等大型跨国企业工作。现就职于eBay担任架构师,专注于电商用户行为处理和分析领域,以及数据平台化技术工作。
核心专长:AI搜索全链路架构,大模型RAG应用,搜推算法工程,跨国团队管理。
此前曾担任字节跳动架构师,负责建设大模型RAG服务,支撑Cici(DAU 130w+)、豆包等AI产品。也曾担任Klarna智能搜推负责人,从0到1搭建全球支付平台搜推体系,Home Feeds点击率提升1.5倍 。
更早前担任网易云音乐技术负责人:带领团队自研分布式检索引擎nsearch,实现业务人效提升12倍。最早的工作经历是阿里巴巴技术专家,负责盒马搜索架构及OpenSearch平台化建设。
在过去的十几年里,一直深耕在搜索与推荐技术的最前线。从早期在阿里巴巴参与OpenSearch平台的0-1建设,到在网易云音乐自研高性能分布式检索引擎“nsearch”,再到后来走向全球,在瑞典独角兽Klarna和字节跳动探索海外市场的搜推技术与大模型落地,亲历了搜索技术从传统的倒排索引到如今AI驱动的RAG与多模态检索的完整演进。
多年算法综合领域落地从业经验,目前负责蚂蚁企业信用部算法工作。
负责B站的大数据实时/离线计算平台、OLAP平台、存储系统、资源调度、平台工程等系统的建设工作。有15年以上的大数据架构和平台产品建设经验,曾在大众点评、阿里云、携程负责大数据平台和架构组件的研发工作,对分布式计算,分布式存储、搜索引擎,数据湖,数据治理,大数据平台产品和系统架构等方面有丰富的研发和实践经验,目前专注于AI+大数据在企业内的落地和实践。
长期深耕于大数据及人工智能领域,积累了丰富的数据平台建设和架构设计实践经验。现任阿里国际 AI Business 大模型数据、评估负责人,专注于大语言模型及多模态大模型数据研发、模型评估工作,致力于推动数据与AI技术的迭代融合与创新。重点攻坚大型模型对应的大规模、高质量数据处理技术及优化,大模型在业务领域表现的自动化评估技术。在此之前,曾担任阿里云行业大型模型数据研发负责人、阿里云政务及医疗行业数据负责人、蚂蚁金服国际数据平台架构师。
十六年互联网行业技术架构、云技术体系建设老兵,早期在互联网甲方经历了从刀耕火种到业务井喷下的自动化技术建设及落地;先后就职UCloud、阿里云,经历了云技术快速发展的关键时刻,有丰富的云上技术经验,长期专注行业技术架构、技术保障及新技术应用,聚焦零售、游戏、教育、企业、大模型、具身智能、智能驾驶等行业客户,重心大模型各垂类智能体工程化实现、后训练加速、AI Infra等全栈AI实践;追求以“技术洞见未来”,有幸成为千行百业AI技术变革的一员。先后分享著作有《重保护航——保障云上巅峰时刻》、《游戏行业技术服务与实践》、《云上社交行业白皮书》、《云上奥运技术实践体系》、《AI卓越架构与技术服务白皮书》等。
陈思明,复旦大学大数据学院青年研究员,博士生导师,上海市高层次引进人才,复旦大学可视分析与智能决策实验室负责人(FDUVIS)。曾任德国弗劳恩霍夫智能分析和信息系统研究所(Fraunhofer IAIS)研究科学家与德国波恩大学的博士后研究员。复旦学士(2011)、北大博士(2017)。从事大数据可视化与可视分析的研究,主要研究方向包括:AI+VIS、大模型驱动的可视分析、社交媒体分析、自动驾驶、金融科技、数字孪生等,共发表论文100余篇,其中在IEEE VIS,IEEE TVCG, ACM CHI, CSCW,UIST等顶级国际可视化与人机交互会议以及期刊(CCF A)上发表30余篇文章。曾获评AI2000十年间国际可视化研究最有影响力提名奖(全球100名),主持、参与国家、省部级项目十余项,担任IEEE VIS 国际程序委员会委员,IEEE CG&A国际期刊副主编,Visual Informatics期刊青年编委、IEEE PacificVis论文(VizNotes)主席,ChinaVis数据分析挑战赛主席,VGI Geovisual Analytics Workshop地理时空可视分析研讨会共同主席等。更多信息参见http://simingchen.me 。
郑卫国,复旦大学研究员,博士生导师,上海互联网大数据工程技术研究中心副主任。主要从事图数据查询和分析、大模型驱动的知识管理、向量计算等相关研究工作,在国际顶级学术会议与期刊发表论文近50余篇,包括SIGMOD、VLDB、ICDE、KDD、NeurIPS、ACL、AAAI、TODS、TKDE、VLDBJ等,编写知识图谱专著1部;担任多个国内外学术会议的程序委员会主席或领域主席、担任VLDB、KDD、ICDE、TKDE、VLDBJ、TKDD、TOIS等会议的程序委员会委员和期刊审稿人。
谈子敬,复旦大学计算机学院副教授。在SIGMOD、PVLDB、ICDE、VLDB Journal、TKDE等数据管理领域顶级会议和期刊上发表论文10余篇。先后主持国家自然科学基金面上项目两项,并参与多项国家重点研发计划和自然科学基金重点基金。主要研究领域包括数据质量管理和元数据管理等。
个人介绍:熊贇,教授,博士生导师。上海市数据科学重点实验室副主任。长期从事数据领域研究,研究工作获得了国家自然科学基金、国家863计划、上海市科委基金等以及企业资助。发表论文80余篇。获中国计算机学会科学技术发明奖、上海市科技进步奖、上海市计算机学会科技进步奖等奖项。在国内率先开展大数据和数据科学的研究工作,2009年出版第一本数据科学专著,原创性地提出了数据科学的定义和内涵;提出了一批新型的大数据挖掘算法,这些算法已经被应用于证券交易所、医联平台、交通信息中心等上海市大数据建设重要领域。
博士毕业于北京航空航天大学计算机学院。曾于微软亚洲研究院、阿里通义千问实验室等从事研究工作。主要工作发表于NeurIPS、ICLR、ICML、ACL等人工智能会议与期刊论文并长期担任审稿人。获得华为天才少年,腾讯青云计划,美团北斗计划等互联网人才称号,与国内外工业和学术界的大模型组保持长期稳定的学术交流和合作。主要研究方向:大语言模型、多模态大模型、垂直领域大模型研究与应用。
IEEE TCBIS主席,数字化设计与制造专委会副主任委员,电子商务交易技术国家工程实验室联合发起人,IEEE Senior Member,《SOCA》责任主编、《IJCSE》副主编。先后主持国家重大项目/课题、国际合作、省部及企业项目20余项,主笔或参与现行国家及行业标准6项、专利及软件50余项、论文60余篇,形成成果包括:面向垂域应用的算法模型众智工厂、基于拟态智能体的严肃游戏、反洗钱及供应链金融欺诈识别、虚拟仿真实训沙盘、学情/会情/赛情智能分析系统,多数已产品化、部分成为行业龙头,获上海市、中物联等科技进步奖,主笔或参与跨境电商/贸易/供应链等领域国家及省市政策咨询、获得领导批示并提供了重要政策借鉴。
复旦大学教授、博导,上海青浦复旦未来技术研究院副院长,上海市数据科学重点实验室主任。长期从事大数据、认知智能研究。 荣获ICDE2024十年影响力论文奖、ACL 2025 & 2023杰出论文奖。发表 CCF-A 、B 类等论文 400 余篇。出版学术专著与教材五部。入选东方英才拔尖项目。完成近百项政府及人工智能头部企业研发项目。荣获包括华为、阿里、美团等机构授予的几十项科研奖项。
深耕大数据领域十年,拥有丰富的数据平台建设与治理经验。对数据架构、血缘治理有深刻理解,是资深的数据技术实践者与分享者。
长期深耕大数据领域,擅长大数据应用平台建设和AI for Data 和 Data for AI 数据平台体系建设和落地,目前专注Data+AI,帮助业务提升数据赋能效率,驱动业务决策。
主导构建了B站商业数仓“智能化底座”,通过Neo4j知识图谱与 MCP 标准化感知协议,打通了 LLM 与万级数仓资产的通信闭环。目前专注于需求交付工作流(prd2sql)的智能化重构,在万级任务规模下实现了高准确率的人机协同开发实践。
阿里云DataWorks产品负责人,打造全链路数据开发治理平台支撑阿里巴巴集团与阿里云上众多客户的数字化转型。
太平洋保险集团云首席专家兼AI中台负责人,具备十多年的系统开发维护,云产品架构设计、解决方案设计经验,多年金融单位、互联网云厂商工作经验,做为总架主导过多家大型银行私有云/金融云、某保险集团混合云/专有云建设、城商行云化转型等项目建设;目前主要负责集团云计算云原生、AI中台能力建设、业务双活/单元化体系建设,资源混部、智能运维、混沌工程等课题。
平安财产险数据服务平台组负责人,负责数据产品平台、搜索推荐、客户策略平台、共同资源AI团队。在大模型Agent平台建设以及数据平台赋能智能体有丰富经验。
网易云音乐推荐算法专家,有多年一线推荐算法和大模型应用开发经历,对大模型结合推荐系统有深入了解和实际落地经验。
中国人民大学计算机应用技术硕士,开源社区Committer,主导光大银行数据领域第一个全行员自研项目并取得良好效果,后历任多个项目技术经理、项目经理,现担任团队主管。
张进目前是阿里集团1688 买家 Agentic AI团队负责人。具有多年NLP,多模态,强化学习等AI相关领域的研究工作,多年AI创业经历,当前负责1688的AI原生应用以及AI创新产品的研发。
电子科技大学硕士毕业,曾服务于中通服,TeraData 等知名公司。现就职于平安科技数据管理部门,任技术平台组负责人(高级经理),曾负责引领集团数据中台的规划、建设,现负责集团数据技术管理运营工作以及集团数据管理相关平台的建设。
范文栋 CAMEL-AI.org核心工程师,都柏林大学统计学硕士。自2024年4月加入团队并主导开源CAMEL多智能体框架的开发和优化。在任期间,CAMEL和OWL两个开源项目Github破万。
擅长数据建模、机器学习、自然语言处理(NLP)和生成式AI。曾任巴斯夫AI工程师,为销售,供应链,生产等多个业务领域构建AI解决方案,曾主导团队的第一个生成式AI项目并取得专利。曾在爱尔兰中央统计局开发NLP驱动的职业分类系统,实现人口普查数据处理自动化;曾参与平安科技知识图谱项目,构建企业级产业链数据库。具备从AI模型研发到应用部署的完整技术能力。
恒生电子研究院AI首席技术专家,AI产品部部长,高工,浙江省人工智能学院博导,浙江师范大学、浙江理工大学兼职教授。主要研究领域包括自然语言处理、大模型、OCR等,并拥有超过20多项AI专利和论文,赋能投顾、客服、运营、风控、投行等场景。
资深算法专家,上海市高级工程师,国际注册特许工程师;专注大模型算法研究与应用,在金融科技、通信、医疗等业务场景成功落地多个商业项目;接受环球时报、人民日报、中国商务新闻网等知名媒体采访,发表多篇科技署名文章、政策解读及学术论文,国内与国际发明授权专利 10 多项。
具有15年金融科技从业经验,工作范围包含软件开发、测试、运维、架构师、项目经理、交付经理、产品经理等;服务过汇丰科技、广汽汽车金融、小鹏融资租赁、恒生银行等企业。
毕业于电子科技大学,从事计算机视觉,多模态理解等领域。
在互联网行业深耕16年,曾在DDD领域驱动设计,公司级系统稳定性建设以及企业技术文化建设方面有较多的研究、落地实践与文字输出。25年以来创建去哪儿网 QUNAR AI Lab,聚焦于 AI toC端应用实践,尤其是旅游OTA垂类的AI to C端应用实践。
香港大学硕士,现任 eBay 高级技术专家,在 IT 和金融领域拥有超过 10 年的研发经验。曾先后就职于陆金所等知名互联网金融公司,在技术与互联网金融风控系统业务实践方面积累了深厚的经验。目前,讲师专注于互联网金融领域的技术创新,特别是在风控 MLOps 系统、金融风控模型和大语言模型应用等设计和开发方面有着丰富的实战经验。除此之外,讲师还参与编写了专业书籍《并行计算与程序设计》,在高性能计算与程序设计领域也有深入的研究与实践。
eBay支付风控模型工程技术专家,毕业于上海交通大学,先后供职于京东和 eBay 支付风控部门。担任eBay 风控数据工程、模型工程及自动化工作流调度平台的研发工作,长期专注于风控领域的数据与模型工程实践,在电商场景下的大规模模型推理系统建设方面具备丰富的一线经验。主持自研 eBay 新一代自动化工作流调度管理平台,现已成为 eBay Payments & Risk、Compliance、Trust 等多个部门模型与数据批处理调度的标准化解决方案。曾多次受邀出席业界技术会议,分享模型工程在大规模业务落地过程中的系统设计理念与工程化实践。
主要负责 MemOS 和 ClawForce 产品研发。曾带领团队研发新语 NewsCopilot 多智能体融合生产引擎,相关效果优于 GPT-4。曾任职于微软亚洲研究院、阿里巴巴、美团,并与纽约大学、中山大学开展产学研合作。长期从事自然语言处理、强化学习与安全强化学习研究,在 ICML、NeurIPS、ICLR、ACL 等国际顶级会议发表论文 40 余篇。
曾任职于多家全球知名科技公司,专注营销活动技术领域,持有多项技术专利。2023年起聚焦 LLM 与工程效能的深度融合,作为核心负责人主导某互联网大厂低代码平台AI能力建设。
成功完成多年数据资产的价值转化,将人工经验沉淀提炼为知识复利方法论,构建"LLM + 低代码"双驱动的智能研发体系。打通"一句话需求到上线"的端到端智能化链路,推动承载数百款业务的平台完成从传统开发模式向 AI 原生开发范式的演进升级。
现任职EverMind算法负责人,主导EverMemOS及相关基准测试研发,核心技术应用于定位为“AI联合创始人”、助力小团队高效协作的tanka产品。此前任职于奇虎360人工智能研究院,从0-1搭建智能物联网设备CV算法体系,后担任行业大模型负责人,主导研发的税务大模型荣获人民网数造新实体典型案例等荣誉。
现任上海阶跃星辰智能科技有限公司 Agent 组成员,专注于 Code Agent 与智能代理系统的研发与实践。具备丰富的 Agent 系统搭建、模型训练及落地经验。毕业于上海交通大学,曾就职于旷视科技有限公司。
曾就职于好未来、地平线,自2019年开始从事AI Infra相关建设工作,现于哈啰出行负责AI平台、大模型平台、AI Agent平台的基础设施建设与优化。
专注于智能对话与生成式推荐领域的研究者。从业以来,长期深耕于前沿技术探索与产品落地,相关研究成果曾发表于ACL、NAACL、CIKM等国际顶级学术会议。
毕业于浙江大学,数据研发专家,毕业进入美团从事数据研发、人群画像等工作,2021年加入快手面向商业化业务,探索切实落地的数据价值落地方案。
上海交通大学博士,浙江移动数智化部AI平台负责人,负责智算算力体系、模型服务体系、智能体体系等能力建设,谷歌学术引用千余次。
陈廷梁(王贲),数新智能创始人兼CEO,中国计算机学会大数据专委会执委、数据治理与发展技术委员会执委员,哈工大计算学部浙江校友会会长。原阿里云研发总监,阿里大数据平台DataWorks创始人和人工智能平台PAI的工程开发负责人。2020年创立数新智能,核心定位做全球领先的一站式多云AI原生数据智能平台,做大模型时代大数据 + 人工智能一体化底座平台。国际化方向支持跨国多云多引擎多中心,国内支持信创和国产替代。
近10年大数据与AI从业经验,历任多家金融科技企业平台负责人,多次主导大数据平台从0到1建设。曾获中国人民银行金融科技发展奖,现任银行智能平台部负责人,统筹全行AI平台与大模型场景建设。
专注于可观测全栈研发与数据建模架构设计,作为UModel(阿里云可观测数据建模模型)核心开发者,在可观测 AI Agent 领域具有较丰富的工程实践经验,深度参与了企业级可观测性平台的架构构建。
从事10多年企业大数据相关系统研发工作,曾就职网易杭研、网易严选、网易数帆、小红书,参与过前端平台、各类数据产品、BI平台等多个产品项目。
大连理工本科,4年上下文工程经验。曾深度参与字节跳动 VikingDB 向量数据库构建,支持万亿级向量检索,广泛应用于内部智能问答、搜索推荐、数据去重等场景。参与创建个人上下文管理应用MineContext和上下文数据库OpenViking 两大开源项目,双双斩获5k+Star,在开发者社区形成广泛影响力。
阿里巴巴高级数据研发工程师,专注企业级数据资产建设,先后在法务、数字办公、HR领域从事数据研发相关的工作。在DATA+AI驱动方面,致力于打造高质量、可迭代、自动化的 AI 评测集体系,在智能问数场景落地与实践,提升问数准确性。
本硕毕业于中国科学技术大学,现任京东算法工程师,专注于xLLM大模型高性能推理引擎研发,主导调度系统与框架优化。相关研究成果发表于NIPS、MLSys、NAACL、DASFAA等国际顶会,谷歌学术引用量逾250次,具备扎实的学术与工程能力。
深耕互联网算法领域近十年,先后负责过腾讯广告合约广告系统,多创意广告策略及模型,召回策略及模型、行业技术模型等工作。
云计算与数据库领域资深产品专家,曾担任阿里云云数据库 RDS、数据仓库、数据库管理工具等产品线产品负责人。 开创性定义全球领先的云原生数据管理产品体系,从 0 到 1 构建数据管理服务 DMS、数据传输DTS、数据库备份 DBS、数据库自治服务 DAS 等云原生数据管理产品,通过不断创新突破,持续保持业界领先地位。
主导开源项目DataFlow的设计,该项目已获得3000+ Github Star,并且取得ICML SeePhy比赛第一名,智源LIC挑战赛第一名。同时参与Camel,LLaMAFactory的数据模块设计,分别获得16k+和65k+ stars。
北京大学大数据科学研究中心博士生,曾获得北京大学校长奖学金,兴业奖学金等。本科毕业于北京理工大学,获校最高奖徐特立奖学金,国家奖学金。第一作者/共同第一作者发表9篇CCF-A论文,获得NDBC萨师煊学生论文奖。
崔万云,上海财经大学信息学院副教授,博士生导师。他是AI2000最具影响力学者提名,ACM中国优博提名奖、ACM上海优博奖得主。在NeurIPS、ICLR、ACL、EMNLP、SIGMOD、PVLDB、IJCAI、AAAI等会议上发文二十余篇。主持国家自然科学基金青年项目、上海市青年扬帆项目等。
主导基金全链路运营体系搭建,深耕数智化转型与信披合规领域,推动 AI 技术在 LP 沟通、投后穿透、合规风控等场景的落地,擅长将技术能力与私募行业特性结合,实现运营效率与合规透明度的双重提升。
博士毕业于南京大学计算机科学与技术学院,研究方向为边缘计算,读博期间在国际高水平会议及期刊上发表多篇学术论文。2025年通过中兴通讯"蓝剑计划"加入端侧推理团队,主要从事编译优化与算子优化相关工作,致力于推动大模型推理优化技术的创新、研发和在异构设备上的工程落地。
专注多模态与大模型研究,涵盖图文与视频理解,探索高效推理与稀疏化机制,积累丰富科研与应用经验。
武汉大学博士,15年以上数据库内核设计与开发经验,主导全自研多模融合数据库YashanDB,现已在多领域落地并验证能力。目前,担任深圳市人民政府批准建设的十大基础研究机构之一的深圳计算科学研究院技术总监&崖山科技技术副总裁,已发表多篇国际顶会论文及技术专利,熟悉OLTP,HTAP业务场景及前沿技术趋势。曾负责华为新型数据库架构设计,研发的产品服务全球数亿用户。
2015年加入玻森数据从事全栈研发,2018年加入蚂蚁技术中台团队,深耕大数据领域,目前在企信团队负责数据架构工作。
NVIDIA 网络亚太区高级总监,原 Mellanox 公司亚太区市场开发高级总监,首席架构师,技术总监。
负责 NVIDIA 网络中国区新市场开发与方案推广工作,设计并推广 AI 大数据,数据库等领域高性能存储方案,推动高性能 RDMA 网络/ DPU /交换机产品落地应用。
于 2003 年毕业于中国科技大学计算机系,获系统体系结构方向博士学位。先后就职于英特尔,Mellanox 和 NVIDIA,从事的方向包括计算机系统性能优化,解决方案开发,网络系统架构师等。
负责 NVIDIA 公司在中国区的高性能网络技术市场方案,提供关键大客户的技术支持和方案选型,长期从事云计算、人工智能,高性能计算行业支持,在 计算系统架构,软件优化等有多年积累。
冯晖先生拥有多年企业级 IT 技术与解决方案领域的深厚积累,专注于云计算、AI 基础设施、数字化转型等领域的技术落地与服务实践。作为神州数码企业业务集团(EBG)技术管理部负责人,他带领团队搭建完善的企业级技术服务体系,聚焦 AI 基础设施与行业解决方案的技术支持与落地推进,以专业技术能力助力各行业客户数智化转型与创新发展。
硕士毕业于复旦大学,2025年加入蚂蚁集团参与ai agent应用搭建与底层数据构造,深耕模型推理任务与数据处理,共发表3篇顶会论文,论文引用量总计300+。
先后供职于腾讯、百度和携程;从事搜索、推荐、知识图谱、智能问答、智能客服及AI行程规划等工作。工作多次提名和获得集团杰出技术贡献奖、CEO奖等;发表相关技术工作在ACL、Coling等会议;相关工作获得中国智慧·上海方案2025“AI+文旅”十大优秀案例。
本科毕业于清华大学自动化系,浙江大学控制理论与控制工程专业硕士,10年以上数据分析与商业智能产品研发设计经验。曾任微策略公司数据接入团队负责人,目前带领观远数据产品设计团队,负责公司产品战略规划与设计。
多年深耕大数据、云原生、AI Infra 及 AI Agent 领域,拥有丰富的工程化实战经验,聚焦前沿技术与业务场景深度融合,致力于分享可落地、可复用的技术实践方法论。
上海道客网络科技有限公司 AI Infra 研发工程师
自进化智能体的技术突破与演进趋势
本次报告围绕自进化智能体的技术突破与演进趋势,聚焦团队全栈自研、2026 年 1 月 11 日正式开源的 “龙虾” 类智能体框架 GenericAgent,解析其技术优势、核心能力、落地应用与演进布局。该框架对标并超越同类产品,相较 OpenClaw 首发更早、代码完全自研可控,环境交互与任务执行能力全面领先。依托三千余行极简架构与独创 “种子哲学”,大幅降低智能体使用门槛、突破传统能力局限。
报告重点拆解三大自进化核心能力:一是仅内置 9 项原子能力,即可自主组合探索、生成技能,高效攻克长程复杂实景任务;二是可自动沉淀执行经验,生成跨设备可迁移、可复用的标准化长期记忆;三是支持 Fork 模式适配新场景、空闲时自主拓展能力,实现无需人工干预、持续迭代升级的原生自成长特性,解锁国产可控智能体全新发展方向。
Agent-Ready的Data+AI基础设施
本体论在银行的应用探索(暂定)
从AR到Agent——智能体技术生态的演进与平台布局
企查查字段血缘的大模型实践
面对企查查多源、海量企业数据带来的字段语义模糊、变更影响难评估等治理痛点,我们放弃了传统仅能解析表级血缘的工具,创新性地引入大模型技术。
我们的核心方案是设计精准的提示词工程,让大模型直接解析SQL脚本,同时完成字段级血缘链路发现与业务含义智能标注。落地中,我们重点攻克了大模型“幻觉”导致血缘不准的挑战,通过构建校验规则与人工复核闭环,将血缘准确率提升至95%以上。
该实践成效显著,目前已完成80%核心报表的字段血缘覆盖,使数据变更的影响分析耗时从“人天级”降至“分钟级”,极大保障了企查查亿级数据资产的可靠性与透明度。
演讲提纲:
一、背景:为何要在企查查做字段血缘
二、核心架构:大模型赋能字段血缘的“技术蓝图”
三、实践与挑战:落地过程中的“得”与“失”
四、总结与展望:价值回顾与未来演进
听众收益:
1、大模型在数据工程中的角色,可以从“副驾驶”升级为“自动驾驶员”。
2、字段级血缘的突破,能如何直接驱动业务敏捷性与数据可靠性。
AGI 浪潮下的数据革命:从“人管”到“智理”的范式跃迁
在 AGI 狂飙突进的浪潮中,数据的使用主体正发生根本性位移:Agent 正在接管键盘,成为使用数据的‘新原住民’。这一转变意味着传统的数据管理范式正面临‘代际坍塌’——那些依赖人工经验、碎片化的开发与管理流程,在 AGI 指数级增长的逻辑复杂度面前已触达极限。
本议题将深入拆解‘AI 驱动的数据革命’,探讨如何利用 AGI 底层能力,构建 AI 原生的数据管理范式。我们将从数据资产定义、智能化 SQL 编程、以及自动化的安全与性能管控三大维度,分享如何从‘人力驱动’跨越到‘智能自治’,全面重塑企业数据管理的边界与安全底座。
演讲提纲:
1. AGI 重塑数据世界:为什么数据管理正在从“人管”走向“智理”
2. 传统范式的极限:人工主导的数据库开发、治理与协作为何难以支撑 AI 时代
3. 数据库开发再定义:面向 Agent的数据库开发新范式
4. 自动化治理升级:安全、权限、质量与性能的闭环管控体系
5. 从工具智能到系统自治:企业构建 AI 原生数据管理平台的落地路径与未来展望
听众收益:
- 了解 AGI 时代数据管理范式变化的底层逻辑,建立从“面向人”到“面向 Agent”的新认知框架。
- 掌握 AI 原生数据管理的关键方法,包括面向Agent,如何重新定义数据库开发范式、数据安全、数据库性能稳定性治理的核心思路。
- 理解企业推进Agent构建过程中,应如何平衡开发效率、可控性与安全边界,获得可借鉴的落地路径。
企业级智能问数场景高质量评测集构建方法与实践
业务背景:企业级智能问数产品作为企业内部多种业务场景生产级数据入口,例如内部经管看成本、HR管组织、党建查党费、财资盯余额,背后真实用户不是技术人员,是月底赶报表的财务BP、要实时掌握党员发展进度的党务专员、需快速响应BU人力成本异常的HR。问数评测集作为一把标尺,可以反映出当前问数产品所处的水位以及功能的薄弱点,进而提升问数产品的准确率。
方案选型:参考国家标准(GB/T 45288.2)+ ISO框架,明确评测题目源自业务真实提问、覆盖各垂域高频场景,按L1-L3(简单、中等、困难)三级难度规范每道题的要素,并提供各级别参考示例与量化要求,使评测集建设过程有标准、可衡量。参考Spider2.0标准数据集经验,结合企业垂域特点设计知识库模板,开发专用工具辅助题目生成与校验。
落地挑战:① 真实问题稀缺;② 困难问题占比较少;③ 答案校验困难。
解决思路:① 主动预判OOD问题,把业务SOP变成问题生成规则引擎;② 以spider2.0为参考标准通过组合、特定难度方向(多表、多轮)的方式提升问题难度;③ 正确SQL + 真实执行结果快照。
听众收益:
1、如何通过构建评测集的方式提升智能问数准确率
2、如何通过知识库驱动的方式快速构建评测集
商业化-AI时代下的资产与特征建设
数据平台想要拿到数据价值,从资产特征挖掘角度讲,会面临商业化模型特征效果越来越小、特征工程有效率瓶颈、场景行为稀疏、冷启困难等典型问题,为此我们结合AI能力,构建AI for Feature & Feature for AI新范式,从智能挖掘、智能生产、AI特征泛化、LLM4Rec等几个方面提升挖掘效率和数据价值。
演讲提纲:
1、传统数据资产与特征的建设
- 商业化大背景
- 传统特征体系架构
- AI发展,核心挑战
2、AI for Feature&Feature for AI新范式
- 问题思路
- 传统与新范式架构对比
- 架构大图
3、LLMforRec时代下的Feature for AI
- 介绍商业化推荐链路
- case1:跨域数据补齐
- case2:LLM4Rec特征生成
4、特征工程与AI for Feature
- 特征工程发展与瓶颈
- 智能化特征工程
- 智能化特征生产
- 智能化与特征治理
5、未来展望
听众收益:
1、在AI背景下怎么发现特征挖掘特征,并智能化生成代码
2、LLM4Rec中特征是怎么构建的,有几种大模型应用方案和范式
3、我们是怎么解决当前推荐模型兴趣发现不足、冷启困难的问题
超越通用大模型:金融领域的高效适配与数据价值挖掘
聚焦大模型在金融科技场景下的应用挑战,以及针对这些挑战所做的探索与实践。
我们碰到的应用挑战主要有:
1. 垂域知识的获取:领域知识的获取和整理与萃取,成本较大,很多情况下,知识是碎片的,相互矛盾,有时甚至是口口相传,并没有记录下来。
2. 大模型应用的成本较高:一个好的推理模型,token的成本和延时较高,成为落地的障碍;
3. 效果评估挑战:效果评估依赖测试数据与标签,挑战往往在于测试数据有时是没有的(x,y都没有);另一个是生成式任务的评价一直是一个难题,比如策略推荐。
针对上述,我们做了针对性的实践:
1. 知识与数据:我们通过设计知识逆向提取、数据合成等方法,来降低知识获取的难度和成本,分别应用在客服和电销业务场景;
2. 针对大模型成本问题,我们采用APO、模型蒸馏与后训练的方式,大幅提升小模型的表现,以替代大参数量的大模型;
3. 在部署优化侧,我们通过对比不同训练方法在部署端的性价比,倒退训练模型的方法,进一步采用量化、投机采样等方法提高效能。
演讲提纲:
1. 通用大模型在金融场景应用的挑战:
- 知识工程的成本问题
- 模型的成本问题(token + 延时)
- 模型评估挑战 - 数据难题
2. 数据与知识工程的探索与实践:
- 知识提取
- 数据合成
3. 大模型应用实践
- APO实践
- 模型后训练实践
- 模型推理与加速
听众收益:
1. 了解大模型在金融领域落地时的挑战;
2. 了解应对挑战的具体方法论与实操落地经验。
金融大模型:架构变革、工程实践与Agent智能体的前沿探索
大模型不仅推动了技术范式的颠覆,更在金融这一高合规、高安全、高复杂性的领域催生了深层次的架构变革。本次演讲将从技术演进、工程落地与生态融合三个维度,系统解析金融大模型的核心挑战与突破路径。
首先,深入探讨金融场景下大模型在安全性、精准性、实时性方面的特殊要求,以及恒生电子如何通过“领域知识增强架构”与“合规对齐技术”构建可信的金融大模型底座。其次,结合国内外典型案例,剖析大模型在智能投研、合规风控、动态客服等场景中的工程化实践,重点讲解“RAG+Fine-tuning”混合技术路径与“低延迟推理优化”方案。最后,聚焦于大模型驱动的“金融Agent智能体”生态,分享我们在多模态交互、复杂任务拆解、插件安全治理方面的前沿探索,并展望未来“金融原生AI系统”的可能形态。
演讲提纲:
1. 金融大模型的技术挑战与架构创新
- 金融场景的“三高”特性(高合规、高安全、高精准)对大模型提出的特殊要求
- 恒生金融大模型架构解析:领域知识注入、合规对齐训练、MoE专家模型集成
- 关键技术突破:基于RAG的实时知识更新、轻量化微调(P-Tuning、LoRA)、对抗性安全训练
2. 场景落地:从技术到工程的跨越
- 智能投研与研报生成:多源信息融合、逻辑一致性校验、合规风险词过滤
- 动态风控与合规监控:实时事件推理、异常模式检测、可解释性报告生成
- 新一代智能客服:多轮对话决策、情绪识别与安抚、复杂业务链路的智能导航
- 核心系统赋能:代码生成辅助、文档自动化、业务流程再造
3. 金融大模型插件与Agent智能体的深度实践
- 插件与通用场景的本质差异:数据隔离、权限管控、审计溯源
- 金融Agent智能体框架:任务规划、工具调用、自主学习和协同机制
- 典型案例:智能投顾Agent、监管报送Agent、跨系统业务流程自动化Agent
4. 未来展望:金融原生AI系统的演进路径
- 趋势预判:从小模型集群到超大模型、从单模态到多模态决策、从辅助到自主智能
- 金融原生AI系统核心特征:实时学习、自主进化、全链路可解释、强安全内生
- 开放问题与前瞻:量子计算对加密与推理的影响、脑机接口与金融交互范式变革
听众收益点:
1. 理解金融大模型在“数据安全、模型合规、输出精准”等方面的核心差异与关键技术保障。
2. 掌握金融场景中适合大模型原生的“高知识密度、强逻辑推理、动态交互”类任务的分析框架。
3. 深入了解金融大模型插件与Agent在“权限隔离、风险可控、审计追溯”等方面的特殊设计与工程实现。
4. 获得对未来“金融原生AI系统”在架构、安全、交互及伦理层面的前瞻性洞察与趋势判断。
光大银行基于大模型的数据开发一体化创新实践
金融行业的数据开发由于历史和现实双重因素普遍面临异构技术架构带来的烟囱式开发、离散工具造成的断点式开发以及碎片链路导致的质量问题。为了解决这些问题,光大银行AI大模型发展机遇,通过自主研发进行了积极创新与探索实践,形成了从数据需求到最终打包部署的开发全链路整合与赋能,极大提高了数据开发质效水平,提供了一个可借鉴、可复制的金融业数据开发新范式。
演讲提纲:
1. 背景介绍
(1)金融行业共性痛点问题
(2)监管相关指导意见
2. 具体探索实践
(1)去断点流程自动化
(2)湖仓开发一体化
(3)数据链路智能化
(4)代码质量基线化
3. 未来规划与总结
听众收益:
1. 了解金融行业对于金融科技的关注优先级;
2. 了解金融行业的科技特点、数字化转型的真实痛点,以及金融业与互联网及其他行业的区别;
3. 参考借鉴AI大模型在金融行业数据开发过程中的探索实践;
eBay自动化根因分析Agent在风控业务领域建设和应用实践
在电商风控领域,eBay面临的欺诈手法以高频、高复杂度涌现,对风控特征服务、模型推理等系统稳定性提出了极高的要求。为了解决系统异常告警爆炸、归因链路长、跨系统定位难的痛点,eBay支付风控团队基于大模型与Agent技术打造了自动化根因分析Agent,实现了对风控系统异常告警分钟级归因,有效提升了MLOps生产运维效率。
本次分享将聚焦Agent建立方法论、架构设计、关键技术和工程实践。在电商风控领域,eBay面临的欺诈手法以高频、高复杂度涌现,对风控特征服务、模型推理等系统稳定性提出了极高的要求。为了解决系统异常告警爆炸、归因链路长、跨系统定位难的痛点,eBay支付风控团队基于大模型与Agent技术打造了自动化根因分析Agent,实现了对风控系统异常告警分钟级归因,有效提升了MLOps生产运维效率。本次分享将聚焦Agent建立方法论、架构设计、关键技术和工程实践。
演讲提纲:
1. 背景与业务痛点
2. 核心方案介绍
3. 关键技术和工程实践
4. 总结与展望
听众收益:
1. 听众能学习掌握大模型在风控场景落地的实战经验
2. 对Agent在业务中落地有较高的参考价值
本体驱动的可信AI——让大模型在银行"说得清、信得过"
在大模型赋能银行授信业务的实践中,我们发现核心瓶颈不是模型能力不足,而是业务知识"喂不进去"——授信规则散落在制度文件、系统代码和员工经验中,大模型无法直接理解和引用,导致输出"不可信、不可解释",业务部门不敢用。为此,我们采用“本体建模”的方案,将业务知识结构化为,构建AI可理解的语义网络,为大模型提供可追溯的知识锚点。
演讲提纲:
一、业务背景:大模型落地银行授信的三重困境
核心观点:大模型能力不是问题,"用不起来"才是问题
二、方案选型:为什么是本体建模而非传统方案?
核心观点:传统方案解决"能不能用",本体建模解决"敢不敢用"
三、解决思路:本体建模框架
核心观点:用本体模型完整描述一个业务,让AI像业务专家一样理解授信
四、落地挑战与攻克
核心观点:最难的不是技术实现,而是把业务知识从人脑里"搬"出来
五、未来规划
核心观点:从单点验证走向全行知识基础设施
听众收益:
- 认知刷新:大模型在金融场景落地的真正瓶颈不是模型能力,而是业务知识的结构化表达。
- 方法可复用:一套"双引擎协同"的架构范式,解决金融AI"不敢用"的共性难题。
面向大模型的企业知识管理升级:从无序走向自动化合规与质量治理
随着人工智能与大模型技术的快速发展,知识工程在实现物理世界数字孪生的过程中面临着管理碎片化、语义歧义、数据逻辑割裂等核心挑战。本次演讲将围绕平安科技在数据中台与知识工程领域的实践,探讨如何通过本体论(Ontology)构建统一的语义层,增强大模型对复杂业务逻辑的理解与推理能力,从而支撑更精准、可解释的数字孪生应用。
并结合平安团队在数据技术管理、平台建设与集团级数据中台规划中的经验,分享从理论到落地的关键路径,为行业提供可借鉴的方法与思路。
演讲提纲:
1. 知识工程在数字孪生时代的挑战
2. 本体论(Ontology)的核心价值:从数据到语义的跨越
3. 平安科技实践:语义层与数据中台的融合路径
4. 赋能大模型:如何通过语义层提升准确性与可解释性
5. 未来展望:知识工程与AI融合的发展方向
听众收益点:
- 了解如何通过Ontology与语义层设计,解决企业知识管理中的碎片化问题,提升数据资产的协同效率。
- 学习语义层与数据中台融合的实践方法,掌握支持大模型应用的数据架构设计思路。
- 深入理解语义增强如何提升大模型在复杂场景中的推理准确性与可解释性。
- 获取金融科技等领域数字孪生应用的前沿案例,拓展技术落地的可能性。
- 从企业级实践中洞察知识工程与本体论在工业界的挑战与创新方向。
本体论驱动,UModel 构建 AI 时代可观测模型
随着微服务和云原生的普及,传统"Metrics-Traces-Logs"三支柱模式面临根本困境:从海量异构数据中反向推理系统状态是极其困难的逆向工程问题。阿里云可观测团队基于 6 年 AIOps 实践,提出 UModel——基于本体论思想的 IT 世界统一建模框架,融合数据、知识、行动三位一体,实现从"被动收集数据"到"主动建模世界"的范式迁移。UModel 已成功支撑阿里云可观测 2.0 产品体系,覆盖数十万企业客户,将故障定位效率提升 60%+,为 AI 智能体提供可推理、可交互的结构化上下文,让 AIOps 真正拥有了落地的土壤。
演讲提纲:
一、业务背景
1. 可观测领域的演进历程:从单点指标到三大支柱
2. 核心困境:数据到本质的认知鸿沟
3. AI 时代的新挑战:数据鸿沟、模型鸿沟、工程鸿沟
二、方案选型
1. 从第一性原则重新思考:为什么需要"建模驱动"
2. 借鉴 Palantir 的成功经验:本体论(Ontology)的价值
3. UModel 的定位:可泛化的运维数字化本体
三、落地挑战
1. 如何避免"技术至上"和"项目化思维"陷阱
2. 如何解决数据孤岛与认知隔阂问题
3. 如何实现洞察与行动的闭环
四、解决思路与技术方案
1. UModel 核心设计:Set 与 Link 构建 IT 世界
○ EntitySet、TelemetryDataSet、Storage、Runbook
○ EntitySetLink、DataLink、StorageLink
2. UModel 工程体系:元模型架构、标准化、技术基础设施
3. 面向 AGI 的能力:GraphRAG、MCP、语义化搜索
五、实践效果与案例
1. 典型场景:基于 UModel 的多路径故障排查
2. 可观测 2.0 产品落地成效
3. 客户价值与平台能力的双飞轮效应
六、未来规划与总结
1. 走向 AGI 的运维数字化愿景
2. 核心收益总结
听众收益:
1. 认知升级:理解从"数据驱动"到"建模驱动"的范式迁移,掌握 AIOps 落地的核心方法论——为什么先建模后采集比先采集后分析更有效
2. 技术收获:学习 UModel 基于本体论的建模方法(Set/Link 设计)、元模型架构和高阶PaaS API 桥接 AGI 等关键技术,可直接应用于企业可观测体系建设
3. 实践指南:获取阿里云可观测团队 6 年 AIOps 落地经验,包括如何避免常见陷阱、如何构建持续进化的生态系统、如何实现客户价值与平台能力的双飞轮
在本体论驱动下,母基金多层穿透管理的数字化与AI实践
本次分享围绕 PE/VC 行业信息披露数智化破局展开,指出当前信披存在数据混乱、口径不一、效率低下、合规压力大等痛点,尤其母基金底层穿透场景问题更为突出,而根源在于数据本体缺失。数据本体是基金运营的统一数据共识体系,是信披自动化的 “价值之锚”。
国方基金以本体为基础,完成数据标准统一,搭建运营管理驾驶舱与问数 AI 系统,实现高效运营与精准数据服务。未来将分两阶段落地信披智能体:第一阶段依托大模型实现自动化填报与非标任务泛化处理;第二阶段构建本体驱动的全流程智能闭环,实现信披全链路自主化、可追溯、可审计,助力行业打造高效、精准、可信的信披新生态。
演讲提纲:
一、先明需求:三类信披场景,本质是“本体共识”的需求
要做好信披自动化,首先要明确我们到底在为谁、为什么做披露。结合基金运营实际,我们的信披需求主要分为三类,而这三类需求的核心,本质上都是对“数据本体”的共识需求——没有统一的本体,不同场景的披露就会各自为战、混乱无序。
二、再析痛点:信披自动化的困局,根源是“本体缺失”
明确了需求,我们再看看实操中遇到的核心痛点。这些痛点,表面上是流程、效率的问题,根源其实是“数据本体缺失”——没有统一的本体体系,数据就没有统一的标准,自动化自然无从谈起。
三、深探压力:母基金场景下,“本体缺失”的压力被无限放大
对于我们规模巨大的母基金而言,上述痛点带来的压力,更是被无限放大——底层穿透项目多达数千个,每个项目的信息维度、数据格式、披露要求都不相同,数据维护与同步的压力,几乎成为我们运营工作的“沉重负担”。
四、破局之路:以“数据本体”为基础,搭建数字化运营体系
面对这些痛点和压力,我们已经迈出了数字化破局的第一步——核心就是“先建本体,再做自动化”,以数据清洗和标准统一为基础,搭建了“运营管理驾驶舱+问数AI”的数字化体系,让数据的本体成为自动化的“价值之锚”。
五、未来落地:信披智能体的两步走计划,让本体价值最大化
数字化破局只是第一步,未来我们的目标,是实现“信披智能体”的全面落地——让机器能自主完成信披的全流程工作,而这一切,依然要以本体论为核心,分两个阶段推进。
听众收益:
1. 利用AI大模型语义理解能力,探索自动化填报及长尾非标任务的泛化处理路径。融合行业知识本体、知识图谱与规则引擎,打造具备理解 — 推理 — 执行 — 校验 — 反馈能力的信披综合智能体;
2. 理解本体论如何解决 PE/VC 非结构化数据治理难题,打通信披数据孤岛,建立统一的行业语义层。
EverMemOS 仿生长期记忆技术的研发与落地实践
当前协作场景存在信息碎片化、人机协同断层等痛点,传统大模型缺乏高效长期记忆能力,无法持续适配轻量化轻量化协作需求。为此,我们放弃传统记忆存储方案,选型仿生四层记忆架构,研发EverMemOS及EverMemBench基准测试。落地中面临记忆存储效率低、检索精度不足、适配轻量化难三大挑战,我们通过模拟人类大脑记忆机制,优化记忆编码与检索算法,搭建专属基准测试验证效果。最终核心技术应用于轻量化AI协作产品产品,使协作效率提升40%,大模型记忆检索准确率达92%,成功解决人机协同断层问题,实现协作能力规模化升级。
演讲提纲:
1. 通用协作场景痛点(信息碎片化、人机协同断层),传统大模型长期记忆短板,市场对轻量化AI协作工具的需求
2. 方案选型:
- 传统记忆存储方案弊端分析
- EverMemOS仿生四层记忆架构选型
- EverMemBench基准测试配套研发思路
3. 落地挑战:记忆存储效率低、检索精度不足、适配轻量化轻量化协作场景难度大
4. 解决思路:
- 模拟人类大脑记忆机制
- 优化记忆编码与检索算法
- 搭建EverMemBench基准测试验证技术效果
5. 未来规划:迭代EverMemOS技术,拓展多行业轻量化协作适配场景,完善技术生态与基准测试体系
6. 总结:EverMemOS技术核心价值,落地成效总结,对轻量化AI协作的行业意义
听众收益:
1. 深入了解仿生长期记忆技术的核心原理,掌握传统大模型记忆短板的解决方案,明晰轻量化AI协作领域的技术趋势与应用价值。
2. 学习EverMemOS从方案选型、落地攻坚到效果验证的全流程实践经验,可直接参考记忆编码与检索算法的优化思路,规避同类技术落地误区。
3. 掌握EverMemBench基准测试的搭建逻辑,为自身相关技术研发、场景适配提供可落地的测试方法与参考标准。
Agentic RAG赋能业务增长:从场景痛点到价值落地的建设实践
本次演讲将结合在大型保险混合云等复杂场景中的实战经验,深入分享如何利用Agentic RAG技术应对知识治理、召回排序与提示工程等核心挑战,实现从场景痛点到业务价值的高效落地,为企业的智能化增长提供可借鉴的实践路径。
演讲提纲:
- 知识前期处理及向量化
- 多类型文档处理
- Agentic RAG构建演讲过程设计
- 金融场景实践案例
听众收益:
- 大量文档,如何进行前期知识治理的入库
- 召回准确与排序精度
- 如何进行RAG提示词工程构建
- Bad Case分析及迭代
AI驱动的UI自动化在蚂蚁的落地实践
在多元用工和敏捷迭代的背景下,UI验证的“颗粒度”与“覆盖率”正面临严峻挑战。传统E2E测试虽价值极高,却深陷“脆弱性”与“维护地狱”的泥潭——脚本对网络波动敏感、UI一改脚本全废、断言在完备性与稳定性之间无法兼得。当AI Coding时代代码生成效率指数级增长,我们更需要一套与AI编码能力对等的交付保障体系。在蚂蚁内部建设了AI驱动的UI自动化平台,从「面向代码实现」转向「以用户视角重构验证逻辑」,通过AI视觉大模型与智能体技术,将UI验证从“写脚本”变成“提需求”。目前已在公司内部覆盖数百个应用,AI日均调用量达可观规模,准确率稳定在90%以上。本次分享将拆解我们如何用AI重新定义UI自动化的全生命周期,以及规模化落地中的真实踩坑与取舍。
演讲提纲:
1,背景:AI Coding时代,谁来为“交付稳”兜底?
2,破局思路:以AI重构UI自动化的三大核心能力
3,落地效果与规模化验证
4,未来展望:AI自动化将成为前端的标准配置
5,收尾:AI普惠UI自动化的关键不是“更强模型”,而是“更强交付系统”
听众收益:
- 一套AI驱动UI自动化的落地方法论:从用例生成、运行执行到视觉检测的全生命周期实践,以及如何设计“AI + 人工干预”的人机协同模式
- 纯视觉方案的工程实现思路:如何通过多模态大模型实现自然语言转可执行用例,如何构建自愈机制与跨平台运行能力,以及Benchmark与数据飞轮的设计
- 企业内规模化推广的关键取舍:如何在AI能力边界与业务确定性之间做平衡,如何处理复杂场景下的语义识别难题,以及如何将验证能力集成进研发流程形成质量门禁
AI驱动广告商业化领域实验优化新范式
面对日益增长的实验数量、方案复杂度与知识密度,我们意识到:靠传统工具和人工经验难以高效应对实验全生命周期中的各类挑战。为此启动了广告实验领域大模型项目,致力于打造一个深度理解广告实验优化生态的AI引擎。当然,技术在落地过程中也有挑战,例如商业化系统出现问题会影响公司收入,AI介入的安全性和稳定性问题,这些在演讲过程中都会有介绍。
演讲提纲:
1. AI驱动实验优化背景介绍
2. 实验智能体演进阶段
3. 智能体实验系统中应用与优化
4. 未来演进与展望
听众收益:
1. 了解领域智能体的设计和实现
2. 了解大模型和智能体在商业化实验领域的实践和效果
在加速计算和 AI 的双重驱动下,特别是随着大模型向万亿参数演进以及 AI 智能体从概念走向真实落地,数据中心正经历一场根本性变革。大模型的训练和推理都需要海量算力与高效网络通信,而 AI 智能体的实时交互与多任务协同则进一步对推理的延迟和吞吐提出了前所未有的挑战。NVIDIA 的协同设计 AI 平台引领了这场变革,通过 Scale-Up、Scale-Out 和 Scale-Across 网络的优化设计,大幅度降低了 AI 工厂的部署成本,加速了前沿科技创新,为 AI 驱动的新工业革命落地提供了坚实基座。
本论坛聚焦于构建支撑大模型训练与推理的 10 亿瓦级 AI 工厂。Scale-Up、Scale-Out 和 Scale-Across 网络作为 AI 基础设施的关键,其优化设计不仅突破了性能瓶颈,显著降低了训练和推理的综合成本,还优化了 AI 工厂的综合能效。本分论坛紧扣 GTC 2026 AI 大会在 AI 网络方面的最新发布,深度解析在构建超大规模 AI 工厂中 NVIDIA AI 网络的先进技术、最佳实践和参考设计,助力企业实现无限扩展、极致性能、能效优化且易于部署的 AI 基础设施,从而降低总体拥有成本并提升投资回报率。
迈向 Giga-Scale AI 工厂
AI 的发展驱动了新一代工业革命,AI 成为了现代社会最重要的生产力,十万卡、百万卡级别的 AI 工厂正在逐步出现,本报告将会从 Scale-Up、Scale-Out 和 Scale-Across 三维一体的东西向网络以及面向存储、管理、安全等的南北向网络来综合探讨能源优化、算力性能和可行部署等的协同发展,最终实现构建 Giga-Scale AI 工厂的目标。
听众受益:
· 算力平面的协同优化,加速计算和网络计算携手推动算力新高度
· CPO 技术的大规模部署已成事实
· 面向推理的算存协同设计-CMX
NVIDIA Spectrum-X搭建高性能AI推理存储方案基石
深入探讨 NVIDIA Spectrum-X 网络平台在 AI 推理存储场景中的创新应用。重点介绍 Spectrum-X 针对 AI 推理工作负载的特性优化,包括动态路由、拥塞控制等关键技术;详细阐述 BlueField 系列智能网卡在 JBOF 架构中的部署方案,通过硬件卸载、RDMA 加速实现微秒级延迟;并展示如何结合 NVMe SSD 特性进行端到端优化,构建高吞吐、低延迟的 AI 推理存储基础设施,助力企业提升推理服务质量与成本效益。
听众受益:
· 了解 Spectrum-X 如何优化 AI 推理网络性能
· 掌握 BlueField 在 JBOF 存储中的低延迟部署方案
· 学习合作伙伴基于 Spectrum-X 的 AI 存储最佳实践
NVIDIA Certification:验证运营数据中心的能力,开拓新机遇
利用 NVIDIA DOCA 构建未来 AI 基础设施
AI 驱动的工作负载正在重新定义数据中心设计,这对基础设施开发者提出了更高的要求,即提供更高性能、更强大的安全性以及更高的网络、存储和计算效率。本演讲将介绍 NVIDIA DOCA 软件框架的最新功能,为下一代 AI 云和 AI 工厂提供支持。
听众受益:
· 掌握 NVIDIA DOCA 软件框架的最新进展,为大规模 AI 工厂和 AI 云基础设施提供支持
· 了解 NVIDIA DOCA 软件栈、API、微服务和开发工具,支撑开发者实现加速的、可编程基础设施
· 探索 NVIDIA DOCA 提供的突破性网络性能,利用新功能和最佳实践来促进 AI 网络、存储和安全架构的变革
为训推一体分布式 AI 计算优化通信软件
AI 的发展逐渐进入深水区,训推一体成为 AI 基础设施的主流。用户业务常常是训练和推理交织进行,既有并行分布式训练任务,需要实现极致性能,加速大模型的训练迭代过程;也有 KVCache 存算分离等分布式推理业务,需要极速 Token 输出。NVIDIA 积极采用协同设计理念,通过 NCCL 加速分布式训练通信性能,通过 NIXL 为分布式推理实现通信优化,结合 Dynamo 框架等助力用户分布式 AI 应用业务实现极致性能。
听众受益:
· 理解 NCCL 通信库在 AI 训练上的应用优化
· 了解 NIXL 助力存算分离分布式推理
· 探讨 NVIDIA 通信软件与社区软件的合作
携手 NVIDIA 网络,木犀智能打造超大规模 GPU 集群的智算底座
深耕企业级 IT 服务,赋能企业数智化转型
介绍神州数码企业级业务核心布局及全链条服务能力,同时分享神州数码在企业级 AI 应用领域的布局与实践,展现神州数码在助力企业数智化转型中的价值与担当。
听众受益:
· 全面了解神州数码在企业级 AI 基础设施服务与 AI 应用落地领域的核心能力与整体布局
· 为企业的 AI 基础设施建设、AI 应用落地实践提供专业的资源对接与实践参考
自由交流、展位咨询
开场致辞
DataWorks Data Agent 的演进与工程化实践
Agentic Lake:DLF构建AI时代全模态Agent底座
DLF在百炼RAG的实践
基于Flink+Fluss构建企业级OpenClaw实时风控中心
从文档到 LLM:工业级数据流水线的构建实践
随着大语言模型技术的快速发展,人工智能研究正逐渐从传统的“以模型为中心(Model-centric AI)”转向“以数据为中心(Data-centric AI)”。越来越多的团队开始尝试构建自己的大模型应用,然而在实际落地过程中,人们很快发现:模型往往不是最大的瓶颈,数据才是。
在真实工程环境中,数据通常来源复杂——PDF 文档、网页内容、数据库记录、日志文件以及多模态数据。要将这些原始数据转化为可用于模型训练或 RAG 系统的数据,需要经历解析、清洗、结构化、合成、评估等一系列复杂流程,而这些工作往往依赖大量临时脚本和人工处理,难以复用,也难以规模化。
本演讲将结合实际工程案例,分享 如何构建一条从原始文档到大模型训练数据的数据流水线。我们将介绍开源项目 DataFlow 的设计理念:通过“数据算子 + Pipeline”的方式,将数据解析、清洗、合成与质量评估模块化,从而实现数据处理流程的自动化与可复用。
演讲提纲:
- 如何从 PDF 与网页等非结构化文档中自动抽取结构化内容
- 如何通过数据合成技术自动生成训练数据与 QA 数据
- 如何通过自动化评估与过滤机制提升数据质量
- 如何构建可扩展的数据 Pipeline,以支持文本与多模态数据处理
- 在真实工业场景中的数据流水线实践案例,以及构建数据驱动 AI 系统的一些设计原则
听众收益:
1. 理解大模型应用中的真实数据挑战,了解在实际工程中,为什么数据准备往往比模型训练更复杂。
2. 掌握从文档到 LLM 数据的构建流程,理解如何将 PDF、网页等原始数据转化为训练数据或 RAG 数据。
3. 学习数据清洗与质量治理方法,了解如何通过自动化流程提升数据质量并减少人工处理成本。
4. 了解自动化数据流水线的设计思路,掌握通过算子与 Pipeline 构建可复用数据处理流程的方法。
5. 获得构建数据驱动 AI 系统的工程经验,理解如何在真实工业环境中搭建可扩展的大模型数据基础设施。
多模融合+原生智能:构建数智时代自主可控数据底座
AI技术的颠覆性演进正在重构数据价值的生产范式,数据库行业迎来“原生智能协同”的全新命题。作为AIGC落地的核心基础设施,数据底座已从“数据存储载体”升级为“数智能力底座”,其技术边界与核心使命正在被重新定义。当前,国产数据库面临双重挑战:一方面,需攻克“深水区替代、大规模平替”的信创攻坚难题;另一方面,需应对AI时代对数据实时性、多模态数据管理、数据快速变化的三重挑战,避免技术迭代中的二次转型成本。
本次分享立足15年数据库内核研发实践,深度剖析AI原生时代数据底座的核心能力模型,探讨国产数据库如何通过“理论原创+工程突破”实现技术换道,为金融、政务、央国企等关键行业构建兼具稳定性、扩展性与智能性的自主可控数据底座,赋能企业数智化转型从“可用”向“最优”跨越。
演讲提纲:
一、AI 原生时代:数据底座的范式重构与核心命题
智能革命下数据库到数据底座的演变
国产数据库“信创深化+AI 升级”双重周期的挑战与机遇
数据底座从“适配 AI”到“原生 AI”的演进必然
二、技术攻坚:智能数据底座的核心能力架构
AIGC驱动下数据管理的三大核心挑战(实时性、多模融合、实时更新)
原创理论支撑的海量智能数据管理技术突破
打破不同模态边界,实现跨模融合计算
多模协同+AI 原生内核:数据底座的智能能力全景
三、行业实践:智能数据底座的规模化落地路径
信创关键行业(金融、能源等)数据底座案例解析
人工智能场景数据底座应用案例
智能数据底座的未来演进方向与生态协同构想
听众收益:
1.洞察 AI 原生时代数据库技术演进的核心范式,明晰数据底座从“适配”到“原生”的转型逻辑,把握行业技术趋势;
2.掌握国产数据库在“深水区替代”中的核心技术突破与规模化落地方法论,规避金融、政务、央国企等单位的二次转型风险;
3.获取金融、政务等关键行业智能数据底座的实践路径与能力构建框架,为企业数智化转型提供可落地的转型思路和技术支撑方案。
让多模态更懂企业:先进知识认知体系与高效推理的智能化融合
智能体革命:数据平台如何重塑保险业未来
在生成式AI推动下,数据平台成为智能体的核心装备库与动力引擎,重塑保险业未来。新范式数据平台包含四大核心层:智能体工厂层封装数据能力,降低开发门槛;智慧知识层专注非结构化数据,实现知识自动化与优化;决策仿真层融合数据提供预测服务;多模态感知层专注图像语义理解。业务场景中,团体销售助手解决数据孤岛,车商出单助手实现自动化出单,理赔数字员工完成协同决策。未来,数据平台将从管理数据迈向提供能力,更一体化、实时化与生态化,赋能智能体专注业务创新。
演讲提纲:
一、开场引入
1- 时代变革:生成式AI推动AI从“副驾驶”进阶为自主完成任务的“智能体”。
2- 传统局限:数据平台存在孤岛、迟缓、肤浅问题。
3- 新范式:数据平台成为智能体的“核心装备库”和“动力引擎”。
二、新范式数据平台的四大核心层
1- 智能体工厂层:封装数据能力为即插即用模块,提供可视化工作流,降低开发门槛。
2- 智慧知识层:专注非结构化数据处理,实现知识自动化生产、高效检索与质量优化。
3- 决策仿真层:融合内外部数据,提供预测服务,支撑智能体基于未来趋势决策。
4- 多模态感知层:专注图像语义理解与结构化数据提取,提供端到端视觉服务。
三、业务场景价值验证
1- 团体销售助手:通过知识层与工厂层,实现产品话术统一与快速部署,解决数据孤岛问题。
2- 车商出单助手:融合多模态识别、知识理解与工作流编排,实现自动化出单。
3- 理赔数字员工:结合图像识别、风险预测与规则管理,完成跨领域协同决策。
四、总结与展望
- 数据平台从“管理数据”迈向“提供能力”,通过四大层次将数据转化为即服务(Data as a Service),赋能智能体专注业务创新。未来平台将更一体化、实时化与生态化。
听众收益点:
- 听众将会了解如何借助新一代数据平台打破数据孤岛、提升决策实时性与深度,实现保险业务自动化与智能化,显著降低开发门槛、优化知识管理效率,并在销售、出单、理赔等场景中快速落地智能应用,最终赋能业务创新与增长。
LLM + 知识图谱驱动的数仓智能化实践:从基建架构到交付流重构
面对万级任务、十万字段的超大规模数仓,如何突破“找表难、写 SQL 慢”的效能瓶颈?本分享介绍 B 站商业数仓如何构建智能化基建框架:以 Neo4j 知识图谱为底座,通过 MCP 协议赋予 AI 实时感知能力。在此基础上,重点拆解智能化交付实践(prd2sql):采用 Claude Code 交互模式,将原本碎片化的开发流程重构为“需求补全-血缘探查-代码生成-自动校验”的半自动闭环。该方案实现了 80% 的 SQL 生成准确率,并为后续自动化治理奠定了架构基础。
演讲提纲:
现状:万级拓扑下的元数据“黑盒”与交付瓶颈
基建:智能数仓神经系统——Neo4j 知识图谱建模与 MCP 协议设计
实践:需求交付流智能化重构——基于 Claude Code 的人机协作链路
复盘:复杂场景(如人群包、归因链路)下的 80% 准确率调优实录
愿景:场景无界——从交付场景向自动化治理与分析场景的横向扩展
听众收益:
1. 架构模型: 获取“知识图谱 + MCP + LLM”的解耦式智能数仓大框架设计。
2. 落地经验: 学习如何通过“交互式开发”而非“黑盒自动化”解决复杂需求的交付质量和效率。
3. 效能洞察: 掌握在超大规模环境下提升 AI 感知确定性的实战策略。
基于多云AI驱动的数据基础设施架构设计与最佳实践
企业数据分散在私有云、公有云、边缘节点等多环境中,无法形成统一的智能资产;AI训推的算力需求指数级增长,单一云厂商的定价策略成为企业创新的枷锁;传统集中式架构无法应对动态业务场景下的弹性需求,让敏捷性成为控台。而基于多云AI驱动的数据基础设施架构正是破解以上问题的关键。这些问题不是简单的多云部署就能解决,而是通过智能编排层实现跨云资源的统一调度、数据的无缝流动和AI能力的协同优化。
本次分享将从架构设计的底层逻辑出发,结合全球领先企业的实践案例,为大家呈现一套可落地的多云AI基础设施建设方法论。
演讲提纲:
1. 多云AI驱动的数据基础设施的战略价值
2. 核心架构演进与设计
3. 最佳实践案例
听众收益:
1. 了解世界领先的数据智能基础设施架构跃迁
2. 洞察AI驱动的多云数据治理应用实践
推理多模态大模型的构建及前沿探索
随着用户创作形态从图文向视频、从单向浏览向互动交流演进,多模态理解已成为社交平台的核心技术命题。我将围绕小红书在多模态算法领域的近期突破,分享我们如何让AI真正“看懂”笔记背后的生活场景。
首先介绍面向社交场景的情感陪聊多模态升级,包括融合视觉情绪感知的对话Agent,以及基于多模态用户画像的个性化回复生成;接着,重点分享小红书在多模态翻译领域的最新实践,包括融合图片语义与OCR信息的上下文感知翻译模型,以及面向视频场景的实时字幕翻译技术;最后,将首次对外披露我们在社交多模态大模型上的进展,包括全业务驱动的多模态后训练框架RedOne-MM,以及面向复杂场景推理的通用多模态模型Vision-R1的最新迭代。这些技术已落地搜索、推荐、翻译、客服等20余个业务场景,日均调用量超亿级。
演讲提纲:
1. 情感陪聊的多模态升级
- 多模态情绪感知:从文本到面部微表情、语音语调的情感联合建模
- 多模态用户记忆网络:融合笔记浏览历史、互动行为的个性化画像构建
- 真实案例:Agent如何“看懂”用户发的露营照片并开启话题
2. 多模态翻译的技术突破
- 图文融合翻译:OCR文本+图像语义的双流编码与协同推理
- 视频场景翻译:面向短视频的口语化、风格化实时字幕翻译
- 深度思考翻译:多模态版MT-R1-Zero在模糊场景(如菜单、路牌)的推理增强
- 业务落地:小红书多模态翻译在UGC内容出海、跨语言评论场景的应用
3. 社交多模态大模型实践
- 社交多模态Bench:SNS-VL-Bench 2.0升级版发布与评测解读
- RedOne-MM:全业务驱动的多模态后训练——如何融合推荐、搜索、创作数据
- Vision-R1最新进展:从复杂视觉推理到具身社交智能的探索
- 多模态技术在搜推场景的提效实践
听众收益:
- 系统了解多模态算法在社交场景的前沿进展
- 获取大模型在多模态方向从研究到落地的实战经验
- 深入理解多模态技术如何真正赋能业务、创造价值
xLLM在复杂业务场景下的统一调度优化实践
在京东的LLM服务实践中,我们面临两类核心业务场景:一是多优先级和请求SLO共存的复杂环境——不同业务线的请求不仅拥有各自的SLO要求(如TTFT、TPOT指标),还附带差异化的业务优先级,例如满足高优先级请求的SLO时延要求能带来更高的业务收益;二是对TPOT高度敏感的交互场景(如客服机器人),亟需通过PD分离部署和优化消除prefill对decode的干扰,以保障输出流畅性。
针对场景一,我们提出Slidebatching算法,在批处理调度中同时感知请求优先级和SLO deadline,通过动态滑动边界机制在低负载时优先保障deadline,高负载时转向高密度优先策略,最大化系统总收益。并在单实例层面进一步设计异步流水线调度,将CPU调度与AI加速器计算重叠执行,彻底隐藏调度开销。
针对场景二,我们在PD分离架构下实现负载感知的双阈值调度策略,避免请求分发“过平衡”问题,在保障负载均衡的同时满足SLO要求;同时引入实例动态调度机制,根据TTFT/TPOT指标实时调整PD实例池比例,提升资源利用率。
演讲提纲:
1、业务背景与挑战
2、解决方案:xLLM调度优化算法
3、落地成效,相比SOTA方案,系统收益提升35%,SLO达标率提升52%,TPOT时延降低30%以上
4、未来规划
听众收益:
1、掌握多优先级与SLO共存的调度设计方法论,听众将深入理解在多租户LLM服务场景下,如何同时兼顾业务优先级和SLO时延要求这两个相互制约的维度。
2、获得PD分离架构下请求调度与实例调度的实战经验,针对TPOT敏感的交互场景,听众将系统性地学习到PD分离架构的三层优化实践。
AI行程规划构建 - 基于垂类数据和模型的行业AI应用构建实战
基于垂类业务数据,从0-1构建行业级行程规划AI应用;解决模型幻觉,事实遵循,产品性能(整个Agent应用端到端输出从百秒级别到10秒级别),推理效果和速度问题;定义复杂问题的衡量标准和边界;输出行业级测评方案,见https://arxiv.org/pdf/2510.09011
演讲提纲:
1、行程规划业务背景
2、Agent应用构建
3、垂类模型构建
4、AI应用的性能提升
5、思考和未来规划
听众收益:
1. 从0-1构建企业/行业AI应用的方案参考
2. AI应用速度和效果提升的可复制实战经验
3. 垂直任务定义和模型训练经验
面向开放域浏览器操作的智能体架构:多模态模型协同与在线强化学习实践
本次演讲将深入介绍AOAgent——一个针对开放域浏览器操作的多模态智能体框架。系统性地解析如何通过三阶段优化策略(有监督微调、在线强化学习、多智能体协同)攻克Web操作的动态性、异构性与不可预测性等核心挑战。将重点分享在稀疏奖励环境下实现高效在线强化学习的实践,以及为平衡性能与延迟而设计的轻量化多模型协同架构。
这个方案在标准评测WebArena上取得了领先结果,本次演讲将揭示其背后的关键技术选型、架构设计权衡与工程优化细节,为构建高性能、低延迟的Web操作Agent提供可复用的方法论与实践经验。
演讲提纲:
1. 开放域Web操作——从确定性脚本到通用智能体的挑战跃迁
核心难点:动态性、异构性与长程规划
现有范式瓶颈分析,单模型全能型Agent的泛化天花板
2. AOAgent方法论:一个融合模仿、强化与协同的三层架构
基座构建层:基于有监督微调(SFT)的跨域行为克隆
能力强化层:面向开放环境的在线强化学习(Online RL)
系统优化层:延迟感知的多智能体(Multi-Agent)协同框架
3. 实验评估:性能、效率与深度洞见
主流基准测试:在WebArena上的SOTA结果分析
消融实验:揭示各技术模块的贡献度
延迟专项分析:多模型架构如何实现接近单模型的响应速度
听众收益:
1.针对开放领域如何进行在线强化学习
2.单模型和多模型差距
哈啰AI Agent平台从0到1落地实战:选型、踩坑与价值实现
在AI浪潮席卷之下,哈啰研发团队也逐步加大Agent投入,在行业方向多变、技术日新月异的时期,哈啰选择自研一套基础平台能力快速响应变化,为企业内的开发者提供高效开发工具。作为一家出行赛道的互联网公司,有效的AI应用场景更难发现和落地,行业内缺乏参考对象,在不断试错碰壁过程中积累了宝贵经验,平台经历多次方向调整与技术重构,25年逐渐找到了明确方向,目前在企业内有400+开发者,孵化数百个Agent应用。
演讲提纲:
一、业务背景与落地痛点:
1. AI Agent企业落地的行业共性问题,及落地中理性与现实的核心差距
二、方案选型:多维度对比与适配决策
1. 三类方案对比:商业化、开源、行业亮点技术路线
2. 结合企业实际问题,明确功能舍弃/强化的核心决策
3. 不同企业技术选型的考量方向
三、落地实践:平台从0到1的建设与破局
1. 起步:从首个LLM应用到平台雏形的演变
2. 迭代:业务驱动下的平台化进阶,核心踩坑与疑难问题解决
3. 重构:2025年AI技术爆发期的平台升级与团队转型策略
四、成果展示:AI价值量化与多维度收益
1. 技术、产品、运营三大维度的落地成果与量化数据
2. 企业端AI价值的量化方法论,及落地带来的实际业务成效
五、总结与展望:经验沉淀与未来布局
1. 平台现存问题,及人力有限情况下的资源取舍原则
2. 核心实践经验沉淀,AI Agent企业落地的关键认知
3. 未来AI技术趋势应对策略,平台长期发展提前布局
听众收益:
1. 如何在企业中大范围落地AI Agent
2. 如何量化AI的效果,让老板认可AI价值
3. Agent建设如何做好取舍,有限人力创造更多价值
从数据到行动:自动驾驶场景下 Data Agent+DeepResearch 的工程化落地
针对无人驾驶多源异构数据规模大,故障归因排查难等行业痛点,选型Data Agent+DeepResearch技术架构,构建 “问数 - 洞察 - 归因 - 决策” 自动化闭环。
演讲提纲:
本分享围绕 Data Agent 在无人驾驶场景的落地实践展开,以问数、洞察、归因分析为核心链路,结合 DeepResearch 深度研究能力,构建从数据问题到决策结论的自动化闭环,最终通过 Dashboard 实现可视化落地,为智驾数据研发与算法迭代提供可复用的工程化方案。
多模态内容表征在音乐推荐场景的应用
随着大语言模型与多模态大模型的突破,AI正实现对音频、文本、图像、用户行为等多源信息的深度融合。在云音乐场景中,多模态模型可协同解析旋律、歌词、评论、封面及用户行为,构建更精准的内容表征与意图识别体系。
本次分享以推荐系统落地为例,探讨多模态融合如何提升推荐效果与体验,并剖析其在内容理解、生态构建与个性化服务中的核心价值,为技术实践提供参考。
演讲提纲:
1. 云音乐推荐的演进与挑战
2. 多模态内容理解模型
3. 多模态内容理解在歌单场景、长音频场景的应用
听众收益:
1. 了解云音乐推荐系统的演进发展
2. 了解多模态内容理解模型的落地方法
3. 了解内容理解赋能推荐的多种创新方式
AI搜索中的数据归因分析Agent:如何让Agent成为你的搜索效果僚机
在AI搜索系统中,理解不同因素(如召回策略、排序模型、用户行为、上下文等)对搜索效果(如相关性、点击率、满意度)的贡献至关重要。传统归因分析依赖复杂的流程和专家经验,而基于大模型的Agent展现出强大的自主推理与执行能力。本演讲将探讨如何利用Agentic方法,构建一个既能严谨执行归因分析流程,又能灵活挖掘深层洞察的智能助手,帮助搜索团队快速定位问题、优化算法,从而提升搜索质量与用户体验。
演讲提纲:
1. 什么是归因分析——从业务效果到搜索效果的映射
2. 怎么用Agent完成搜索归因分析
a) 定义动作空间(如查询分析、指标计算、A/B测试对比)
b) 设计问题解决框架(如多步推理、假设验证)
c) 补充专业知识(如搜索评价指标、常见偏差)
3. 实践中的多样需求
a) 三层架构(数据层、分析层、交互层)
b) 结构化记忆与自我修正(应对复杂搜索场景)
4. 未来规划
a) 支持更多工具和动作(如可视化、自动调参)
b) 更高效的归因分析(快速迭代与多维度洞察)
c) 经验的收集与归纳(构建搜索归因知识库)
听众收益:
了解在严谨且灵活的搜索效果归因场景中,如何通过Agent能力实现分析效率倍增,快速定位搜索质量瓶颈,并获取可落地的架构设计与实践经验。
从流量连接到任务托管:1688B2B生意在Agentic范式下的技术演进迭代
电商的终点不只是让用户看到商品,而是帮用户买到对的东西。Agentic系统的核心是让机器像专业的采购专家一样,能自主思考并拆解任务。本次分享将深度拆解如何通过构建Agentic系统,搞定1688 平台上那些复杂、零散且极具个性化的采购难题,真正实现从搜商品到办成事的跨越。
演讲提纲:
一、B2B采购的本质挑战与AI搜索的使命
二、Agentic范式:从被动检索到主动任务托管的转变
三、1688 Agentic搜索系统的技术架构演进
1. 感知层升级:多模态与深度意图理解
2. 认知层突破:任务拆解与决策推理
3. 执行层创新:多Agent协作与工具调用
四、核心AI技术栈深度解析
1. NLP技术的演进应用
2. 多模态搜索的B2B实践
3. 强化学习在采购决策中的应用
4. 知识图谱与供应链推理
五、实战案例:Agentic系统如何解决典型采购难题
听众收益点:
1. 洞察下一代AI搜索的技术内核与演进方向。
2. 获得一套解决复杂、非标搜索难题的系统性方法论。
3. 明确AI搜索驱动业务增长与用户体验变革的价值锚点。
基于算子优化的大模型高效推理落地实践
随着大模型规模持续增长,推理效率成为制约落地应用的关键瓶颈,算子优化是推理加速的核心手段。然而,算子优化面临开发工作量大、算法设计难度高等普遍难题,国产硬件生态的封闭性更加剧了底层优化的困难。
为此,提出跨生态算子迁移、算子融合、深度硬件相关优化、搜索调优等系统性方案,有效降低开发成本并提升性能;针对封闭生态,提出等效算子替换等方案,并推动厂商算子库升级,尽可能绕过闭源限制。上述优化手段获得了显著的推理加速效果,为大模型高效推理落地提供了可复制的实践路径。
演讲提纲:
业务背景:介绍算子优化在大模型高效推理中的核心地位和公司的实际业务场景
方案选型:介绍选择算子优化作为大模型推理加速核心路径的原因
落地挑战:介绍落地挑战,包括算子优化的普遍难点(不同设备和输入对应的最佳算子实现不同,算子开发工作量大,且算法设计难度高)和国产生态封闭性(厂商开放的算子接口层次较高,导致难以进行底层优化,且可能存在正确性问题)
解决思路:
(1)对于算子优化的普遍难点:通过不同生态的算子迁移降低开发工作量,通过算子融合和深度硬件相关优化降低推理延迟,并进一步基于搜索调优的方式适配不同输入和硬件;
(2)对于国产生态的封闭性:等效算子替换、推动厂家升级算子库
未来规划:介绍未来规划(走向自动化),包括
(1)推动TileLang/Triton等算子编译器的异构硬件适配,通过自动编译优化降低算子开发难度;
(2)研发基于大模型/Agent的自动算子生成工具,降低算子开发工作量
听众收益点:
领域认知:了解算子优化在大模型高效推理中的核心地位和落地挑战
优化经验:了解英伟达和国产加速器上的算子优化实践案例
基于国产智算的大模型推理优化及运营商落地实践
在国家算力国产化战略全面推进的大背景下,DeepSeek-V3.2、Kimi-2.5 等具备超长上下文、强推理能力的前沿大模型持续迭代,OpenClaw 等支持复杂多工具协同、多轮自主决策的智能体爆发式涌现,但落地国产化智算时,面临生态适配、推理性能、业务迭代等行业共性落地难题。
本次演讲将结合浙江移动一线落地实践,系统分享基于国产智算的大模型推理优化核心实践体系,复盘落地过程中的核心挑战与技术迭代路径,为行业国产智算落地提供可复制、可推广的实践范式。
演讲提纲:
1、开场引入:算力国产化浪潮下AI落地的机遇与挑战
- 时代变革:国际高端算力供应受限,国家算力国产化战略全面推进,前沿大模型与智能体技术爆发迭代
- 核心瓶颈:大模型与智能体技术在国产智算落地面临共性痛点
2、解决思路:打造端到端国产智算大模型推理优化全链路解决方案
- 算力生态适配:构建国产智算算力与生态基座
- 推理性能优化:打造大模型最佳推理实践
- 模型服务开放:标准化、智能化模型服务网关
- 智能体能力建设:大模型与复杂智能体协同
- 算力利用率优化,推理成本和智能体协作成本控制
3、落地价值:业务赋能与生态价值释放
- 场景应用落地
- 生态共建共享
4、总结展望
- 核心总结:通过打造端到端国产智算大模型推理优化全链路解决方案,解决国产智算落地痛点,实现国产智算从 “能用” 到 “好用”
- 未来展望:实现国产智算从“好用”到“随心用”,三大主攻方向 1、大模型服务低成本、普惠化供给,2、打通全场景无壁垒适配能力 3、深化开放生态共建共享
听众收益:
-洞悉国产智算承载前沿大模型与智能体落地的行业共性瓶颈与核心痛点
-掌握基于国产智算的大模型推理优化端到端全链路解决方案与落地实战经验
-前瞻把握国产智算产业未来发展的核心方向,为企业国产化算力布局与 AI 落地提供决策参考
注意力全局竞争的消解与重建——大模型长文本高效推理探索
大模型长文本推理的核心挑战在于:Softmax Attention 的全局竞争机制赋予了模型精准检索的能力,但也带来了随序列长度爆炸的计算与存储开销。现有提效方案——无论是压缩 KV Cache 还是采用线性注意力——都在不同程度上损害了这一关键能力。
本次报告围绕"如何在效率约束下保护与重建注意力的全局竞争"这一核心问题,介绍我们在三个层面的工作:表征层,揭示 KV Cache 的键值非对称性并提出无损压缩框架 AsymKV;优化层,通过压缩感知训练让模型主动适应推理压缩;架构层,在线性注意力中以 Head 级 Softmax 重建全局竞争。三者统一于"表征—优化—架构"协同进化的研究框架。
演讲提纲:
背景与挑战:阐述大模型长文本推理中 Softmax Attention 全局竞争机制的核心作用与计算瓶颈,分析现有提效方案(KV Cache 压缩、线性注意力)的局限性。
核心工作一:表征层优化:介绍揭示 KV Cache 键值非对称性的发现,并提出无损压缩框架 AsymKV。
核心工作二:优化层方法:阐述如何通过压缩感知训练,使模型主动适应推理压缩场景。
核心工作三:架构层创新:讲解在线性注意力中通过 Head 级 Softmax 重建全局竞争的思路与方法。
总结与展望:概括“表征—优化—架构”协同进化框架,展望高效长文本推理的未来方向。
听众收益:
理解大模型长文本推理的核心矛盾(效率 vs. 全局检索能力)及现有提效方案的内在权衡。
掌握从表征压缩、训练优化到架构创新三个层面提升长文本推理效率的具体技术思路与方法。
获得关于如何系统性地思考和设计模型效率优化方案的启发,理解“表征-优化-架构”协同研究框架的价值。
高效AI创新的技术路径、组织实践与工具沉淀
本次演讲将从技术与管理融合的视角,深入剖析在成熟互联网公司内进行AI创新的系统性方法。我们将探讨:为何独立的组织架构对AI创新至关重要;从资源、数据到技术基建,成功的AI创新需要哪些核心条件;在POC阶段,我们在技术选型、业务对齐及团队协作上遇到的具体挑战、走过的弯路及迭代过程;并最终分享去哪儿网AI Lab经过实践验证的、可复用的高效研发与协作模式。
演讲提纲:
1. 去哪儿网AI Lab:技术驱动的内部创新引擎
- 不只是支持部门,更是“内部创业者”
- 核心成果简介(Qunar AI行程助手、端外比价助手等)背后的技术架构选型与关键决策点
2. 成熟企业AI创新的技术与管理双轨必要条件
- 业务理念创新:在旅游OTA企业中对AI应用场景进行合理化分类,识别真需求
- 技术基石:API应用与模型自部署、Bert与GPT混合应用、ReAct与P-E
- 组织保障:一把手工程建设,流程独立与基建独立,OPC概念的引入与落地
- 业务耦合度:垂类AI应用的局限性、垂类APP能否孕育非垂类AI产品?
3. POC 阶段的陷阱、技术债务与敏捷修正
- 弯路复盘:快就是慢,慢就是快,复用现有基建是需要评估的,借用非创新团队人员是需要极其慎重的,小打大优势将是常态
- 革新实践:从职能化分工到 OPC 的思维转变,建立快速试错闭环
- 工具化沉淀:如何让基建不拖后腿是个问题
4. 持续进化:去哪儿网 AI Lab 的高效实践框架
- 研发流水线:从分到合,从解偶优先到信息可见优先
- 团队协作模式:从分工到OPC
- 技术选型与工具栈:用贵的,然后讨论如何科学的节省
听众收益:
1. 理解在成熟企业体系内,从0到1构建AI产品所需的技术规划与组织设计。
2. 获得针对AI产品 POC 阶段常见技术与管理难题的具体解决方案。
3. 深入了解垂类 AItoC 产品在模型优化、用户体验及效果评估方面的独特挑战与见解。
4. 学习当前业界前沿的AI应用开发团队组织形态与高效协作实践。
DataAgent在同程分析和营销场景的智能化建设探索
随着大模型和AI Agent能力不断提升,AI agent能力在企业业务分析中应用需求越来越高。通过AI的数据智能分析与营销智能化,跟业务分析和运营工作方式和效率带来了深刻的变革。然而Agent在一些细节上,任然面对诸多挑战,如业务领域知识不足、模型幻觉产生,如何保证准确找回,数据安全,以及多Agent间如何协同等,这些问题都直接影响用户使用体验和系统落地效果。
本次演讲,我主要将分享同程旅行在DataAgent建设实践,包括分析任务拆解规划、知识、记忆、归因分析,以及结合分析结论的智能营销建议和智能营销流程建设优化等能力的关键技术和实现细节。
演讲提纲:
1、多智能体的架构演进
2、DataAgent架构设计
3、智能分析:洞察归因分析和数据分析的深度研究
4、智能营销:根据分析建议智能化营销流程闭环探索
听众收益:
1、数据分析Agent的技术实践,如何设计自主规划,任务拆分完成智能化分析引擎建设
2、根据分析建议,打通营销流程,建设智能化营销替换
3、多Agent间如何协同工作
从数据分析到业务决策:观远数据智能决策平台的演进与落地实践
针对企业传统BI存在“数据门槛高、洞察断链、行动断层”的痛点,观远数据依托服务1000+企业的实践,选型ChatBI+洞察Agent+Coding-Agent的技术路线,搭配统一SDK与业务本体建模打造智能决策大脑。落地中重点攻克AI可信赖、可进化、可行动三大挑战,采用先开放问数洞察、再建业务本体、最后打通闭环的渐进式思路,有效规避模型幻觉与权限风险。落地后大幅提升业务人员自主取数效率,助力海底捞实现门店异常自动预警归因,支撑宝洁经销商直查数据与行动推送,完成从数据分析到业务决策的全链路闭环。
演讲提纲:
⼀、观远数据是谁,以及我们看到的决策效率瓶颈
1.1 观远数据简介
1.2 传统 BI 的真实困境:数据有了,决策还是慢
⼆、观远的 AI 实践:解决了什么,还差什么
2.1 第⼀阶段:ChatBI 解决了数据访问⻔槛
2.2 第⼆阶段:仪表板洞察 Agent 提升了分析洞察效率
2.3 还没解决的:决策闭环
三、 下⼀代平台:从"分析⼯具"到"智能决策⼤脑"
3.1 智能决策平台的三个核⼼⽬标
3.2 平台演进的⽅向
四、 智能决策⼤脑的架构与核⼼能⼒
4.1 架构全景:三层叠加,不推翻、只演进
4.2 核⼼能⼒⼀:Coding-Agent-Centric 的双重价值
4.3 核⼼能⼒⼆:统⼀ SDK / API 平台——可靠性的基础
4.4 核⼼能⼒三:业务本体建模——让 Agent 真正理解业务
五、 企业落地:观远的经验与建议
5.1 三个落地挑战与解法
5.2 渐进式落地路径(观远建议的三步⾛)
5.3 客户案例:不同阶段的落地实践
六、 总结
听众收益:
- 观远的判断:企业数字化的终局不是更多报表,⽽是让数据真正参与每⼀次业务决策
- 我们在做的事:从 ChatBI / 洞察分析出发,以 Coding Agent 为引擎,以智能决策⼤脑为⽬标
- 送给在座的⼀句话:先建好数据与业务之间的语义桥梁,AI 才能真正帮你做决策
从ChatBI到DataAgent:小红书AI取数规模化落地与洞察交付升级
首先介绍ChatBI的应用背景和业务侧的取数痛点,以及ChatBI带来的自助化价值,目前业界普遍面临的挑战,如准确率瓶颈和口径一致性问题等。接着重新定义我们的核心目标——即“大规模”与“真实可用”。我们要实现的目标不仅仅是“能用”,而是“大规模真实可用”。我们定义了两个核心指标:60%以上的业务用户覆盖率,以及80%以上的端到端准确率。这两个目标缺一不可,否则系统要么沦为仅供展示的玩具,要么成为制造错误数据的垃圾工厂。建设的全景图,采用经典的分层架构,自下而上分别是:作为底座的知识层(指标与数据),中间的核心工程链路(负责改写、召回等计算),顶层的AIMI平台(负责运营与闭环),以及贯穿始终的治理与评测体系。这四个部分共同支撑起了AI取数的可用性。
本次演讲的重点是建设全景,包括平台、知识与工程链路。AIMI平台的核心价值在于将AI取数变成一个可迭代的工程闭环。通过“标注-分类-调试-灰度”的流程,配合数据回放和失败用例沉淀机制,我们不仅能解决单个问题,更能持续积累高质量的问题库与评测集,驱动系统自我进化。知识底座是AI理解业务的前提。小红书的知识底座,基于RedBI平台的数据集抽象以及小红书指标平台建设。问题改写:通过问题改写识别问题主体及核心查询要素。维值召回:维值召回解决筛选值选择不准确问题。SFT:通过微调模型解决长尾问题,提升链路性能。重点是”SFT飞轮“。语义化缓存:使用模板问题推导用户query,探索AI取数的效果上限。
最后,我们将展望从ChatBI向DataAgent的演进方向。取数只是手段,洞察才是目的。DataAgent旨在解决“拿到数据后怎么办”的问题。通过构建面向特定场景(如异动归因)的Agent,我们将分析师的思考路径标准化,直接交付“结论+归因+建议”的完整闭环,让数据真正驱动业务行动。
我们从目标的定义出发,构建了“平台+知识+工程”的完整体系,实现了从ChatBI到规模化可用的跨越。未来,我们将沿着“点-线-面”的路径,向更智能的DataAgent迈进,让数据分析无处不在。
演讲提纲:
1. ChatBI背景及业界情况
2. 小红书的AI取数的核心目标
- 目标:大规模真实可用
- 目标逻辑:大规模=覆盖60%以上的业务用户;真实可用=准确率>80%
3. 核心建设内容
- AIMI平台:跑通用户问题→标注→问题分类→处理分发→调试验证机制
- 指标平台+数据集,承载业务知识及元数据
- 工程链路
- 问题改写:通过问题改写识别问题主体及核心查询要素。
- 维值召回:维值召回解决筛选值选择不准确问题。
- SFT:通过微调模型解决长尾问题,提升链路性能。重点是”SFT飞轮“。
- 语义化缓存:使用模板问题推导用户query,探索AI取数的效果上限。
4. DataAgent鸟瞰
- WHY:业务用户实际的工作价值点,在于数据分析的结论(Insight),单纯的AI取数并不能满足用户。对数据场景的分析才是真正消耗用户时间的主力,也是AI可带来增量价值的落脚点。
- HOW:场景化分析Agent,聚焦于具体业务场景,打造高质量分析Agent
5. 小结及展望
- 总结发展历程、核心策略及成果
- 展望小红书AI数据分析的未来:由点及线,再到面
听众收益:
1. 了解小红书AI取数(ChatBI)规模化落地的实践经验
2. 了解小红书ChatBI到DataAgent的转换思路
让DataAgent真正用起来:DataAgent在企业信用的优化和实践
在企业信用数据服务场景中,我们面临"找数难、用数难"的普遍痛点:业务场景丰富,形态差异很大,资产分散在多个系统,业务人员难以快速定位所需数据,分析师重复解答相似取数问题。
本次分享将介绍我们如何基于灵矽AI应用平台,构建面向企业信用的Data Agent体系,通过统一语义层整合数据资产和业务语义,结合系统性的Agent工程实践,实现"对话即分析"的数据交互体验。
演讲提纲:
1. 背景与挑战
- 企业信用数据服务的痛点:找数难、用数难、口径不一致
- 传统数据服务模式的局限性
2. 方案选型与架构设计
- 整体架构大图:灵矽平台 + 统一语义层 + 工具 + 技能 + ...
3. 关键技术与实践
- Cube模型:解决复杂业务指标的生成难题
- 语义增强:让模型理解优质数据
- Agent 工程化:如何让 Data Agent 可用
4. 落地成效与案例
- 实践效果数据与典型应用场景
5. 未来展望
- 业界方向观察
- 未来规划
听众收益:
1. 了解如何从0到1构建面向数据服务的AI Agent,包括架构设计、技能拆分、语义层构建等关键决策点,避免常见的"提示词堆砌"陷阱。
2. 学习如何通过元信息治理和Cube模型设计,让大模型真正"理解"企业数据,实现业务人员自助式数据查询与分析。
3. 掌握如何将Data Agent能力以标准化方式嵌入现有业务系统,实现从"Demo可用"到"生产可用"的跨越。
eBay支付风控在智能研发中从“代码生成”到“智能研发闭环”的升级之路
分享如何从“仅用 Copilot 做代码生成”升级为“基于 MCP/AI Agent 的智能研发闭环”。内容包括:1) 背景与痛点:代码生成的局限(需求错位、设计割裂、策略难以验证);2) 架构与方法:MCP/AI Agent 作为统一协调层,串联 Figma Make 的原型/流程编排、Claude Code 的智能补全与重构、TDD 的可测试需求表达,以及 eBay 自研 AI Workflow 的策略编排与治理;3) 研发闭环实践:从需求对齐(语义需求→可测试用例)到设计编排(Figma Make 输出前端展现与交互契约)、代码与风控策略生成(Claude Code+风控 DSL)、数据洞察、审核与复盘;4) 具体支付风控研发效能提升案例和效果分享。
演讲提纲:
一:eBay支付风控研发的特殊挑战
二:核心痛点:传统代码生成的“断点”
需求错位:自然语言歧义导致功能偏差
设计割裂:UI/交互、业务逻辑、风控策略分离设计与实现
策略难以验证:生成的代码缺乏可测试性,风控规则验证成本高
三:破局之道:MCP/AI Agent驱动的智能研发闭环架构
核心理念:AI作为“统一协调层”,而非“单点工具”
架构蓝图:MCP/AI Agent如何串联四大关键环节
设计输入:Figma Make(原型与交互契约)
代码核心:Claude Code(智能补全与重构)
质量基石:TDD(可测试需求表达)
策略与治理:eBay自研AI Workflow(策略编排与治理平台)
关键创新:风控领域特定语言(DSL)的引入
四:实践全景:端到端的智能研发闭环
需求对齐与澄清:语义需求 → 结构化的可测试用例(TDD驱动)
设计与契约制定:Figma Make输出前端展现与交互契约
智能化开发与策略生成:Claude Code 根据契约生成业务代码,风控DSL驱动生成可验证的风控策略代码
数据洞察、审核与复盘:AI Workflow进行策略编排、执行与效果监控;人工+AI协同审核
五:成效与案例:支付风控场景的效能提升
需求到上线的周期缩短比例
风控策略验证效率提升
代码缺陷率/返工率降低
研发人员专注高阶任务的时间占比提升
听众收益:
~ 了解以MCP/AI Agent为协调中枢、串联设计、开发、测试、治理各环节的具体架构方法,为自身团队或企业的技术规划提供宝贵思路。
~ 了解如何将模糊的语义需求,通过可测试用例(TDD)和交互契约进行精确转化,并驱动自动化开发与策略生成,获得端到端的实践路径指导。
~ 借鉴eBay在高合规、高复杂性业务场景中,通过风控DSL和自研AI Workflow解决策略验证与治理难题的实战经验,此经验对金融、交易、安全等相关领域尤为珍贵。
AI Agent落地实战:汇丰科技的智能化SDLC改造之路
AlAgents 和 MCP 正在引领软件开发生命周期(SDLC)的深刻变革。通过内部开源与协作共建,我们创建多个 Agent+MCP 方案无缝集成到主流开发工具如 VSCode,GitHub Copilot,Jira,Confluence等),提升团队效率,推动软件开发的创新实践与质量提升。
演讲提纲:
1. 金融科技开发的现实与挑战
- SDLC 中的核心痛点:效率,协作,质量与合规压力
2. Al Coding 与 Agent 平台建设实践
- 内部开源与社区共建的 Al Coding 实践分享平台
- 定制化 Copilot 插件与 MCPHub,实现与 VS Code,GitHub Copilot,Jira 等工具的深度集成
3. SDLC实践案例分享
- AlAgent 在需求分析,架构设计,编码,评审,测试,部署等环节的典型案例
4. 落地经验与关键要素
- 组织与团队的适配路径:从试点到规模化推广的实践方法
听众收益:
深入了解 AI Agent + MCP 在 SDLC 中的实际应用及易与价值;
掌握 AI Agent 和 MCP 如何优化软件开发生命周期的各个环节,从需求分析到测试部署,助力团队降本增效;
把握 AI 驱动软件开发的未来趋势,为团队引入智能化开发模式提供参考。
从代码补全到自主执行:Code Agent 的架构与研发落地实践
随着大模型能力从“代码补全”扩展到“任务规划与工具调用”,Agent 正从生成式辅助工具演化为具备执行闭环的系统。本次分享将从系统架构层面拆解 Code/助理 Agent 的核心组成,并结合 OpenClaw 等开源实现分析其运行时设计思路。重点讨论这些技术如何组合成可落地的自动化研发系统,以及其在多文件修改、自动调试和测试生成中的工程挑战。最后,将对 Code Agent 等这类Agent的能力边界与未来演进方向进行结构化判断。
演讲提纲:
一、背景介绍
- 研发痛点:代码生成工具局限、开发效率瓶颈
- 引出问题:为什么从 Copilot 到 Agent 是一次范式升级
二、业界新技术介绍 + 模型能力要求
1. 技术演进
2. 对模型能力的要求
三、研发流程重构
- Agent 如何嵌入研发流程,从“辅助工具”到“执行闭环”
- 人机分工:人负责抽象与决策,Agent 负责执行与验证
四、能力边界与使用模式
五、落地挑战与未来趋势
听众收益:
1. 系统理解 Code Agent 技术演进与核心能力
2. 明确 Agent 在研发流程中的最佳落地方式
3. 清晰判断 Agent 的能力边界与未来趋势
LLM × 低代码:智能化研发的双引擎实践
随着大模型能力的快速演进,AI 如何从"辅助工具"真正升级为"智能工作流",成为研发提效的关键命题。本次演讲将介绍如何基于 Spec-Driven Development(SDD)思想,将低代码平台、LLM 与数据资产深度融合,打造覆盖需求分析、流程设计、辅助编排、持续优化的全链路智能工作流。同时分享在 Spec 文档效率、AI 能力释放与风险收敛、使用门槛三方面的优化策略与实战经验,并探讨如何构建知识复利体系,让沉淀的业务经验持续反哺智能化能力。
演讲提纲:
一、业务背景
1.1 业务研发的现状与痛点
- 需求变更频繁,业务规则差异化大
- 大量重复性繁琐工作(Dirty Work)消耗研发精力
- 研发与业务沟通存在理解偏差
1.2 AI 赋能研发的行业趋势
- 从 Copilot 式"辅助工具"到"智能工作流"的演进
- 大模型能力边界的拓展与落地可能性
1.3 本次分享核心命题
- 如何将 AI 大模型的潜能,系统性地注入业务研发的核心链路?
二、方案选型
2.1 核心思想:Spec-Driven Development(SDD)
- 什么是 SDD?—— "Spec 文档先行"的研发模式
- 为什么选择 SDD?
- 结构化输入更适配 LLM 能力边界
- 可追溯、可复用、可持续优化
2.2 整体架构设计
- 三位一体整合:低代码平台 + 大模型 + 沉淀的数据资产
- 全链路覆盖:需求分析 → 流程设计 → 辅助编排 → 持续优化
2.3 技术选型考量
- 低代码平台的定位与边界
- LLM 能力的选择与调优方向
- 数据资产的沉淀与复用策略
三、落地挑战
3.1 效率挑战
- SDD 模式引入了新环节(Spec 文档),如何避免增加额外负担?
- 文档生成的准确性与完整性如何保障?
3.2 灵活性挑战
- 活动需求频繁变更,AI 如何快速响应?
- 业务规则差异化大,如何避免"一刀切"式生成?
3.3 易用性挑战
- 用户对 AI 的认知成本高
- 人机交互体验不顺畅,工具"难上手"
四、解决思路
4.1 策略一:优化 Spec 文档环节效率
4.2 策略二:提升 AI 辅助生成的灵活性
4.3 策略三:降低使用门槛
五、未来规划
- 数据资产持续沉淀,反哺模型效果
- 用户反馈闭环,驱动体验迭代
- 自动化迭代能力建设:AI 质量保障能力整合
听众收益:
1、获得低代码 + AI 的融合范式:了解如何将成熟的低代码平台与大模型能力深度结合,从"可视化编排"进化到"智能化编排",进一步突破效率天花板
2、借鉴大规模验证的实战经验:学习 AI 能力释放与风险收敛的平衡策略,获得可落地的优化思路
3、理解开放生态的智能化延伸:掌握如何将沉淀的业务资产(方法、模块、服务)转化为 AI 可理解的知识体系,构建越用越强的知识复利闭环
OpenClaw引领的AI应用范式迁移
从对话到任务:用多智能体重构「上下文工程」
工程实践中越来越核心的问题是,当任务从单轮对话扩展到长程、多步骤、多工具协作时,我们如何管理越来越复杂的“上下文”?
传统的上下文工程,可能还停留在如何让一个模型记住更长的对话。但在真实的企业场景中——无论是销售数据更新、市场调研,还是游戏生产——任务往往是异步的、并行的、容错需求极高的。这就需要我们把上下文从“一段文本”,升级为可编程、可追踪、可恢复的任务记忆与状态系统。
在这次分享中会介绍如何在 CAMEL 框架中,通过“角色扮演”机制和架构设计,让多个智能体自主管理任务上下文、分工协作的。并详细展示新一代系统 Eigent——它不仅仅是一个多智能体框架,更是一个具备组织行为的AI 劳动力系统,能像人类团队一样处理长达数周、需要动态调整的复杂任务。
加以实际案例说明,这种范式如何从根本上改变我们构建大模型应用的方式——从精心设计单一提示词,到设计智能体的组织规则与协作流程。
演讲提纲:
一、重新思考上下文:从对话记忆到任务进程
- 从我们过去的项目经验说起:当任务步骤超过10步、工具调用超过3个,传统“长上下文”设计的瓶颈在哪?
- 为什么多智能体协作本质上是“上下文的分布式管理与演进”?
二、CAMEL 的设计哲学:用角色扮演解耦复杂任务上下文
- 如何通过定义“角色”与“社会规范”,让智能体自主维护与交换任务上下文?
- 底层架构如何支持这种上下文的持久化、共享与版本控制?
三、聚焦 Eigent:长程任务上下文的管理实践
- 上下文即状态:我们如何实现任务的异步执行与断点续传?
- 上下文的鲁棒性:任务链中途失败,如何自动诊断、修复上下文,而非重头再来?
- 上下文的动态扩展:系统如何根据任务进展,实时组建新智能体、加载新工具,动态扩展上下文边界?
四、未来展望:智能体的“组织上下文”与缩放定律
- 当智能体数量增长,组织内的上下文交换如何引发智能涌现?
- 我们对“智能体缩放定律”的早期观察:环境复杂度、智能体数量与任务成功率的关系。
- 下一代上下文工程:从管理文本,到管理智能体组织的记忆、决策与协作流程。
听众收益点:
1. 理解“上下文工程”如何从单一模型的文本管理,演进为多智能体系统的任务状态与组织记忆管理。
2. 通过企业自动化案例,获得在多步骤、多工具、高容错场景下的系统设计思路与避坑经验。
3. 了解智能体协作中的缩放定律与研究前沿,为自身技术布局与产品规划提供参考。
开源OpenViking,面向 Agent 的上下文数据库技术与工程实践
在 AI Agent 时代,高质量的上下文管理是构建智能应用的核心挑战。传统 RAG 系统面临上下文碎片化、Token 成本高、检索不稳定、黑箱不可调试等痛点。OpenViking 作为开源的 Agent 原生上下文数据库,采用文件系统范式(viking:// URI)统一管理记忆、资源和技能,通过 L0/L1/L2 分层按需加载和目录递归检索,让上下文管理从"黑箱"走向"可见",为 Agent 应用提供高效、可观测的上下文工程方案。
演讲提纲:
1、Agent 落地的真正瓶颈
2、上下文工程的四个难题
- 上下文碎片化:信息散落各处(代码、文档、向量库、对话历史),形成数据孤岛
- Token 成本高昂:全量加载上下文导致预算浪费,无法聚焦关键信息
- 检索效果波动:扁平 Top-K 检索缺乏语义深度,结果不稳定
- 黑箱不可观测:检索过程不透明,出了问题不知道错在哪
3、核心洞察:像管理文件系统一样管理上下文
4、Demo 与效果展示
5、工程化能力
6、未来规划与社区邀请
听众收益:
- 理解 Agent 上下文管理的核心挑战,以及为什么传统 RAG 不够用
- 掌握 OpenViking 的文件系统范式、分层加载、递归检索等核心设计思想
从 Prompt到 Working Memory:Search Agent 的 Todo、Outline 与过程控制
从“记住你”到“学会做”:MemOS 增强 OpenClaw 的记忆系统落地实践
OpenClaw 让 Agent 记忆走入大众视野,但真正进入业务场景后,记忆膨胀、检索噪音、偏好冲突、跨端不同步和经验难复用等问题会迅速放大。
本次分享将结合 MemOS 增强 OpenClaw 的落地实践,拆解我们为何从“功能式记忆”升级到“系统级记忆”,以及如何通过无侵入接入、三级去重、Mem2Skill 技能沉淀和团队共享,完成从“记住用户”到“学会做事”的跃迁。
演讲提纲:
业务背景:OpenClaw 让 Agent 记忆能力进入大众视野,但在真实业务中,“有记忆”并不等于“记得好”。
方案选型:为什么我们没有停留在简单的记忆外挂,而是选择 MemOS 的系统级融合增强范式。
落地挑战:记忆膨胀、检索噪音、语义冲突、跨设备不同步,以及团队知识难以沉淀和复用。
解决思路:基于 Hook 的无侵入接入、三级漏斗智能去重、Mem2Skill 技能化沉淀、Memory Viewer 可视化治理、Hub 团队共享协作。
落地成效:四项 Benchmark 全系第一,工业级压测下高并发稳定运行,A/B 测试实现质量提升、成本下降、轮次减少。
未来规划与总结:从个体记忆走向组织级记忆,从“记住用户”走向“学会任务”,推动 Agent 持续进化。
听众收益:
- 系统理解 Agent 记忆能力从“对话存储”走向“记忆调度、技能沉淀、团队共享”的演进路径。
- 获得一套面向真实业务的落地方法,包括无侵入接入、智能去重、记忆治理和可视化运维。
- 通过 Benchmark、压测结果和行业案例,判断记忆系统在质量、成本和复用效率上的实际业务价值。
自进化智能体的技术突破与演进趋势
复旦大学教授、博导,上海青浦复旦未来技术研究院副院长,上海市数据科学重点实验室主任。长期从事大数据、认知智能研究。 荣获ICDE2024十年影响力论文奖、ACL 2025 & 2023杰出论文奖。发表 CCF-A 、B 类等论文 400 余篇。出版学术专著与教材五部。入选东方英才拔尖项目。完成近百项政府及人工智能头部企业研发项目。荣获包括华为、阿里、美团等机构授予的几十项科研奖项。
Agent-Ready的Data+AI基础设施
本体论在银行的应用探索(暂定)
从AR到Agent——智能体技术生态的演进与平台布局
企查查字段血缘的大模型实践
深耕大数据领域十年,拥有丰富的数据平台建设与治理经验。对数据架构、血缘治理有深刻理解,是资深的数据技术实践者与分享者。
AGI 浪潮下的数据革命:从“人管”到“智理”的范式跃迁
云计算与数据库领域资深产品专家,曾担任阿里云云数据库 RDS、数据仓库、数据库管理工具等产品线产品负责人。 开创性定义全球领先的云原生数据管理产品体系,从 0 到 1 构建数据管理服务 DMS、数据传输DTS、数据库备份 DBS、数据库自治服务 DAS 等云原生数据管理产品,通过不断创新突破,持续保持业界领先地位。
企业级智能问数场景高质量评测集构建方法与实践
阿里巴巴高级数据研发工程师,专注企业级数据资产建设,先后在法务、数字办公、HR领域从事数据研发相关的工作。在DATA+AI驱动方面,致力于打造高质量、可迭代、自动化的 AI 评测集体系,在智能问数场景落地与实践,提升问数准确性。
商业化-AI时代下的资产与特征建设
毕业于浙江大学,数据研发专家,毕业进入美团从事数据研发、人群画像等工作,2021年加入快手面向商业化业务,探索切实落地的数据价值落地方案。
超越通用大模型:金融领域的高效适配与数据价值挖掘
资深算法专家,上海市高级工程师,国际注册特许工程师;专注大模型算法研究与应用,在金融科技、通信、医疗等业务场景成功落地多个商业项目;接受环球时报、人民日报、中国商务新闻网等知名媒体采访,发表多篇科技署名文章、政策解读及学术论文,国内与国际发明授权专利 10 多项。
金融大模型:架构变革、工程实践与Agent智能体的前沿探索
恒生电子研究院AI首席技术专家,AI产品部部长,高工,浙江省人工智能学院博导,浙江师范大学、浙江理工大学兼职教授。主要研究领域包括自然语言处理、大模型、OCR等,并拥有超过20多项AI专利和论文,赋能投顾、客服、运营、风控、投行等场景。
光大银行基于大模型的数据开发一体化创新实践
中国人民大学计算机应用技术硕士,开源社区Committer,主导光大银行数据领域第一个全行员自研项目并取得良好效果,后历任多个项目技术经理、项目经理,现担任团队主管。
eBay自动化根因分析Agent在风控业务领域建设和应用实践
香港大学硕士,现任 eBay 高级技术专家,在 IT 和金融领域拥有超过 10 年的研发经验。曾先后就职于陆金所等知名互联网金融公司,在技术与互联网金融风控系统业务实践方面积累了深厚的经验。目前,讲师专注于互联网金融领域的技术创新,特别是在风控 MLOps 系统、金融风控模型和大语言模型应用等设计和开发方面有着丰富的实战经验。除此之外,讲师还参与编写了专业书籍《并行计算与程序设计》,在高性能计算与程序设计领域也有深入的研究与实践。
本体驱动的可信AI——让大模型在银行"说得清、信得过"
近10年大数据与AI从业经验,历任多家金融科技企业平台负责人,多次主导大数据平台从0到1建设。曾获中国人民银行金融科技发展奖,现任银行智能平台部负责人,统筹全行AI平台与大模型场景建设。
面向大模型的企业知识管理升级:从无序走向自动化合规与质量治理
电子科技大学硕士毕业,曾服务于中通服,TeraData 等知名公司。现就职于平安科技数据管理部门,任技术平台组负责人(高级经理),曾负责引领集团数据中台的规划、建设,现负责集团数据技术管理运营工作以及集团数据管理相关平台的建设。
本体论驱动,UModel 构建 AI 时代可观测模型
专注于可观测全栈研发与数据建模架构设计,作为UModel(阿里云可观测数据建模模型)核心开发者,在可观测 AI Agent 领域具有较丰富的工程实践经验,深度参与了企业级可观测性平台的架构构建。
在本体论驱动下,母基金多层穿透管理的数字化与AI实践
主导基金全链路运营体系搭建,深耕数智化转型与信披合规领域,推动 AI 技术在 LP 沟通、投后穿透、合规风控等场景的落地,擅长将技术能力与私募行业特性结合,实现运营效率与合规透明度的双重提升。
EverMemOS 仿生长期记忆技术的研发与落地实践
现任职EverMind算法负责人,主导EverMemOS及相关基准测试研发,核心技术应用于定位为“AI联合创始人”、助力小团队高效协作的tanka产品。此前任职于奇虎360人工智能研究院,从0-1搭建智能物联网设备CV算法体系,后担任行业大模型负责人,主导研发的税务大模型荣获人民网数造新实体典型案例等荣誉。
Agentic RAG赋能业务增长:从场景痛点到价值落地的建设实践
太平洋保险集团云首席专家兼AI中台负责人,具备十多年的系统开发维护,云产品架构设计、解决方案设计经验,多年金融单位、互联网云厂商工作经验,做为总架主导过多家大型银行私有云/金融云、某保险集团混合云/专有云建设、城商行云化转型等项目建设;目前主要负责集团云计算云原生、AI中台能力建设、业务双活/单元化体系建设,资源混部、智能运维、混沌工程等课题。
AI驱动的UI自动化在蚂蚁的落地实践
AI驱动广告商业化领域实验优化新范式
深耕互联网算法领域近十年,先后负责过腾讯广告合约广告系统,多创意广告策略及模型,召回策略及模型、行业技术模型等工作。
迈向 Giga-Scale AI 工厂
NVIDIA 网络亚太区高级总监,原 Mellanox 公司亚太区市场开发高级总监,首席架构师,技术总监。
NVIDIA Spectrum-X搭建高性能AI推理存储方案基石
负责 NVIDIA 网络中国区新市场开发与方案推广工作,设计并推广 AI 大数据,数据库等领域高性能存储方案,推动高性能 RDMA 网络/ DPU /交换机产品落地应用。
NVIDIA Certification:验证运营数据中心的能力,开拓新机遇
利用 NVIDIA DOCA 构建未来 AI 基础设施
于 2003 年毕业于中国科技大学计算机系,获系统体系结构方向博士学位。先后就职于英特尔,Mellanox 和 NVIDIA,从事的方向包括计算机系统性能优化,解决方案开发,网络系统架构师等。
为训推一体分布式 AI 计算优化通信软件
负责 NVIDIA 公司在中国区的高性能网络技术市场方案,提供关键大客户的技术支持和方案选型,长期从事云计算、人工智能,高性能计算行业支持,在 计算系统架构,软件优化等有多年积累。
上海道客网络科技有限公司 AI Infra 研发工程师
携手 NVIDIA 网络,木犀智能打造超大规模 GPU 集群的智算底座
深耕企业级 IT 服务,赋能企业数智化转型
冯晖先生拥有多年企业级 IT 技术与解决方案领域的深厚积累,专注于云计算、AI 基础设施、数字化转型等领域的技术落地与服务实践。作为神州数码企业业务集团(EBG)技术管理部负责人,他带领团队搭建完善的企业级技术服务体系,聚焦 AI 基础设施与行业解决方案的技术支持与落地推进,以专业技术能力助力各行业客户数智化转型与创新发展。
自由交流、展位咨询
开场致辞
DataWorks Data Agent 的演进与工程化实践
阿里云DataWorks产品负责人,打造全链路数据开发治理平台支撑阿里巴巴集团与阿里云上众多客户的数字化转型。
Agentic Lake:DLF构建AI时代全模态Agent底座
DLF在百炼RAG的实践
基于Flink+Fluss构建企业级OpenClaw实时风控中心
从文档到 LLM:工业级数据流水线的构建实践
主导开源项目DataFlow的设计,该项目已获得3000+ Github Star,并且取得ICML SeePhy比赛第一名,智源LIC挑战赛第一名。同时参与Camel,LLaMAFactory的数据模块设计,分别获得16k+和65k+ stars。
北京大学大数据科学研究中心博士生,曾获得北京大学校长奖学金,兴业奖学金等。本科毕业于北京理工大学,获校最高奖徐特立奖学金,国家奖学金。第一作者/共同第一作者发表9篇CCF-A论文,获得NDBC萨师煊学生论文奖。
多模融合+原生智能:构建数智时代自主可控数据底座
武汉大学博士,15年以上数据库内核设计与开发经验,主导全自研多模融合数据库YashanDB,现已在多领域落地并验证能力。目前,担任深圳市人民政府批准建设的十大基础研究机构之一的深圳计算科学研究院技术总监&崖山科技技术副总裁,已发表多篇国际顶会论文及技术专利,熟悉OLTP,HTAP业务场景及前沿技术趋势。曾负责华为新型数据库架构设计,研发的产品服务全球数亿用户。
让多模态更懂企业:先进知识认知体系与高效推理的智能化融合
专注多模态与大模型研究,涵盖图文与视频理解,探索高效推理与稀疏化机制,积累丰富科研与应用经验。
智能体革命:数据平台如何重塑保险业未来
平安财产险数据服务平台组负责人,负责数据产品平台、搜索推荐、客户策略平台、共同资源AI团队。在大模型Agent平台建设以及数据平台赋能智能体有丰富经验。
LLM + 知识图谱驱动的数仓智能化实践:从基建架构到交付流重构
主导构建了B站商业数仓“智能化底座”,通过Neo4j知识图谱与 MCP 标准化感知协议,打通了 LLM 与万级数仓资产的通信闭环。目前专注于需求交付工作流(prd2sql)的智能化重构,在万级任务规模下实现了高准确率的人机协同开发实践。
基于多云AI驱动的数据基础设施架构设计与最佳实践
陈廷梁(王贲),数新智能创始人兼CEO,中国计算机学会大数据专委会执委、数据治理与发展技术委员会执委员,哈工大计算学部浙江校友会会长。原阿里云研发总监,阿里大数据平台DataWorks创始人和人工智能平台PAI的工程开发负责人。2020年创立数新智能,核心定位做全球领先的一站式多云AI原生数据智能平台,做大模型时代大数据 + 人工智能一体化底座平台。国际化方向支持跨国多云多引擎多中心,国内支持信创和国产替代。
推理多模态大模型的构建及前沿探索
xLLM在复杂业务场景下的统一调度优化实践
本硕毕业于中国科学技术大学,现任京东算法工程师,专注于xLLM大模型高性能推理引擎研发,主导调度系统与框架优化。相关研究成果发表于NIPS、MLSys、NAACL、DASFAA等国际顶会,谷歌学术引用量逾250次,具备扎实的学术与工程能力。
AI行程规划构建 - 基于垂类数据和模型的行业AI应用构建实战
先后供职于腾讯、百度和携程;从事搜索、推荐、知识图谱、智能问答、智能客服及AI行程规划等工作。工作多次提名和获得集团杰出技术贡献奖、CEO奖等;发表相关技术工作在ACL、Coling等会议;相关工作获得中国智慧·上海方案2025“AI+文旅”十大优秀案例。
面向开放域浏览器操作的智能体架构:多模态模型协同与在线强化学习实践
毕业于电子科技大学,从事计算机视觉,多模态理解等领域。
哈啰AI Agent平台从0到1落地实战:选型、踩坑与价值实现
曾就职于好未来、地平线,自2019年开始从事AI Infra相关建设工作,现于哈啰出行负责AI平台、大模型平台、AI Agent平台的基础设施建设与优化。
从数据到行动:自动驾驶场景下 Data Agent+DeepResearch 的工程化落地
多年深耕大数据、云原生、AI Infra 及 AI Agent 领域,拥有丰富的工程化实战经验,聚焦前沿技术与业务场景深度融合,致力于分享可落地、可复用的技术实践方法论。
多模态内容表征在音乐推荐场景的应用
网易云音乐推荐算法专家,有多年一线推荐算法和大模型应用开发经历,对大模型结合推荐系统有深入了解和实际落地经验。
AI搜索中的数据归因分析Agent:如何让Agent成为你的搜索效果僚机
专注于智能对话与生成式推荐领域的研究者。从业以来,长期深耕于前沿技术探索与产品落地,相关研究成果曾发表于ACL、NAACL、CIKM等国际顶级学术会议。
从流量连接到任务托管:1688B2B生意在Agentic范式下的技术演进迭代
张进目前是阿里集团1688 买家 Agentic AI团队负责人。具有多年NLP,多模态,强化学习等AI相关领域的研究工作,多年AI创业经历,当前负责1688的AI原生应用以及AI创新产品的研发。
基于算子优化的大模型高效推理落地实践
博士毕业于南京大学计算机科学与技术学院,研究方向为边缘计算,读博期间在国际高水平会议及期刊上发表多篇学术论文。2025年通过中兴通讯"蓝剑计划"加入端侧推理团队,主要从事编译优化与算子优化相关工作,致力于推动大模型推理优化技术的创新、研发和在异构设备上的工程落地。
基于国产智算的大模型推理优化及运营商落地实践
上海交通大学博士,浙江移动数智化部AI平台负责人,负责智算算力体系、模型服务体系、智能体体系等能力建设,谷歌学术引用千余次。
注意力全局竞争的消解与重建——大模型长文本高效推理探索
崔万云,上海财经大学信息学院副教授,博士生导师。他是AI2000最具影响力学者提名,ACM中国优博提名奖、ACM上海优博奖得主。在NeurIPS、ICLR、ACL、EMNLP、SIGMOD、PVLDB、IJCAI、AAAI等会议上发文二十余篇。主持国家自然科学基金青年项目、上海市青年扬帆项目等。
高效AI创新的技术路径、组织实践与工具沉淀
在互联网行业深耕16年,曾在DDD领域驱动设计,公司级系统稳定性建设以及企业技术文化建设方面有较多的研究、落地实践与文字输出。25年以来创建去哪儿网 QUNAR AI Lab,聚焦于 AI toC端应用实践,尤其是旅游OTA垂类的AI to C端应用实践。
DataAgent在同程分析和营销场景的智能化建设探索
长期深耕大数据领域,擅长大数据应用平台建设和AI for Data 和 Data for AI 数据平台体系建设和落地,目前专注Data+AI,帮助业务提升数据赋能效率,驱动业务决策。
从数据分析到业务决策:观远数据智能决策平台的演进与落地实践
本科毕业于清华大学自动化系,浙江大学控制理论与控制工程专业硕士,10年以上数据分析与商业智能产品研发设计经验。曾任微策略公司数据接入团队负责人,目前带领观远数据产品设计团队,负责公司产品战略规划与设计。
从ChatBI到DataAgent:小红书AI取数规模化落地与洞察交付升级
从事10多年企业大数据相关系统研发工作,曾就职网易杭研、网易严选、网易数帆、小红书,参与过前端平台、各类数据产品、BI平台等多个产品项目。
让DataAgent真正用起来:DataAgent在企业信用的优化和实践
2015年加入玻森数据从事全栈研发,2018年加入蚂蚁技术中台团队,深耕大数据领域,目前在企信团队负责数据架构工作。
eBay支付风控在智能研发中从“代码生成”到“智能研发闭环”的升级之路
eBay支付风控模型工程技术专家,毕业于上海交通大学,先后供职于京东和 eBay 支付风控部门。担任eBay 风控数据工程、模型工程及自动化工作流调度平台的研发工作,长期专注于风控领域的数据与模型工程实践,在电商场景下的大规模模型推理系统建设方面具备丰富的一线经验。主持自研 eBay 新一代自动化工作流调度管理平台,现已成为 eBay Payments & Risk、Compliance、Trust 等多个部门模型与数据批处理调度的标准化解决方案。曾多次受邀出席业界技术会议,分享模型工程在大规模业务落地过程中的系统设计理念与工程化实践。
AI Agent落地实战:汇丰科技的智能化SDLC改造之路
具有15年金融科技从业经验,工作范围包含软件开发、测试、运维、架构师、项目经理、交付经理、产品经理等;服务过汇丰科技、广汽汽车金融、小鹏融资租赁、恒生银行等企业。
从代码补全到自主执行:Code Agent 的架构与研发落地实践
现任上海阶跃星辰智能科技有限公司 Agent 组成员,专注于 Code Agent 与智能代理系统的研发与实践。具备丰富的 Agent 系统搭建、模型训练及落地经验。毕业于上海交通大学,曾就职于旷视科技有限公司。
LLM × 低代码:智能化研发的双引擎实践
曾任职于多家全球知名科技公司,专注营销活动技术领域,持有多项技术专利。2023年起聚焦 LLM 与工程效能的深度融合,作为核心负责人主导某互联网大厂低代码平台AI能力建设。
成功完成多年数据资产的价值转化,将人工经验沉淀提炼为知识复利方法论,构建"LLM + 低代码"双驱动的智能研发体系。打通"一句话需求到上线"的端到端智能化链路,推动承载数百款业务的平台完成从传统开发模式向 AI 原生开发范式的演进升级。
OpenClaw引领的AI应用范式迁移
从对话到任务:用多智能体重构「上下文工程」
范文栋 CAMEL-AI.org核心工程师,都柏林大学统计学硕士。自2024年4月加入团队并主导开源CAMEL多智能体框架的开发和优化。在任期间,CAMEL和OWL两个开源项目Github破万。
擅长数据建模、机器学习、自然语言处理(NLP)和生成式AI。曾任巴斯夫AI工程师,为销售,供应链,生产等多个业务领域构建AI解决方案,曾主导团队的第一个生成式AI项目并取得专利。曾在爱尔兰中央统计局开发NLP驱动的职业分类系统,实现人口普查数据处理自动化;曾参与平安科技知识图谱项目,构建企业级产业链数据库。具备从AI模型研发到应用部署的完整技术能力。
开源OpenViking,面向 Agent 的上下文数据库技术与工程实践
大连理工本科,4年上下文工程经验。曾深度参与字节跳动 VikingDB 向量数据库构建,支持万亿级向量检索,广泛应用于内部智能问答、搜索推荐、数据去重等场景。参与创建个人上下文管理应用MineContext和上下文数据库OpenViking 两大开源项目,双双斩获5k+Star,在开发者社区形成广泛影响力。
从 Prompt到 Working Memory:Search Agent 的 Todo、Outline 与过程控制
硕士毕业于复旦大学,2025年加入蚂蚁集团参与ai agent应用搭建与底层数据构造,深耕模型推理任务与数据处理,共发表3篇顶会论文,论文引用量总计300+。
从“记住你”到“学会做”:MemOS 增强 OpenClaw 的记忆系统落地实践
主要负责 MemOS 和 ClawForce 产品研发。曾带领团队研发新语 NewsCopilot 多智能体融合生产引擎,相关效果优于 GPT-4。曾任职于微软亚洲研究院、阿里巴巴、美团,并与纽约大学、中山大学开展产学研合作。长期从事自然语言处理、强化学习与安全强化学习研究,在 ICML、NeurIPS、ICLR、ACL 等国际顶级会议发表论文 40 余篇。