机器之心
发布于

来这场沙龙,一览SGLang X 超长上下文扩展、RL后训练框架、扩散语言模型等前沿技术实践

在当前人工智能从“聊天”范式加速向“能办事”的智能体时代演进的关键节点,LLM 系统优化与技术落地的实践探索,更需要开发者们的深度联结与经验共创。

基于此,由 SGLang 社区、机器之心、张江孵化器联合举办线下 Meetup,让屏幕前的贡献者走到台前,让幕后优化者分享实战心法。2 月 6日下午,「SGLang 上海 Meetup」将在上海浦东·纳贤路 800 号 1 层举办。

本次 Meetup 将围绕 SGLang 技术路线、超长上下文扩展、RL 后训练框架、扩散语言模型探索等议题展开深度解析,并设有自由交流环节。诚邀开发者与研究同仁共赴现场,探讨 LLM 系统优化与落地实践的新可能。

最新日程

最新日程正式揭晓,扫描下方报名二维码,锁定您的专属入场资格。

活动嘉宾介绍

张柏舟:SGLang核心开发成员

个人简介:SGLang 核心开发成员,主要负责开源大语言模型在不同 Cuda 硬件(Hopper, Blackwell)上的支持和优化。本科毕业于北京大学信息科学技术学院智能科学专业,硕士毕业于加州大学圣地亚哥分校(UCSD)计算机专业,曾于英伟达、百度等公司实习。

郑锦焕:Omni-infer核心开发者

个人简介:华为技术专家,omni-infer 社区核心贡献者,具备多年软件开发与系统设计经验,长期深耕高性能系统与工程落地。熟悉网络协议栈、分布式系统调度与资源管理、服务治理与性能诊断等。当前主要从事推理系统的方案设计与性能优化,围绕负载均衡、算子融合、KV Cache、并行策略、通信开销与端到端链路调优等方向提升吞吐、时延与稳定性,并参与推动相关能力与社区共建。

谢承兴:清华大学博士生、 Slime 核心开发者

个人简介:清华大学一年级博士生,是 slime 强化学习训练框架的核心开发者之一,具备一定的强化学习系统构建与 Agentic RL 训练经验。其研究方向聚焦于大语言模型强化学习、强化学习系统基础设施(RL Infra),以及如何提升大语言模型在真实世界复杂任务中的推理与决策能力。个人主页:https://yitianlian.github.io/

蔡尚铭:SGLang 核心开发者、Mooncake 核心开发者

个人简介:阿里云飞天实验室研究员与技术专家,清华大学计算机科学与技术系博士。主要研究方向包括:高性能推理系统、大语言模型、分布式机器学习训练等。他是 SGLang 社区 PD 分离、流水线并行等特性的核心 contributor 和 maintainer,同时也是 Mooncake 社区的核心成员与 maintainer。

李泽寰:蚂蚁集团系统工程师、SGLang Contributor

个人简介:李泽寰毕业于上海交通大学,专注于 AI Infra 领域,从系统、引擎与模型层的综合视角进行优化。作为 SGLang dLLM 的核心贡献者,他用该框架提升了 dLLM 模型的评测与强化学习效率。目前,蚂蚁集团正基于此框架构建对外服务的低延迟推理能力。另外,作为机密计算领域开源项目 Occlum 的核心贡献者,实现了异步网络框架、运行时及 SGX-SDK 动态内存管理等关键模块,并推动 Spark on Occlum 项目落地,拥有扎实的系统开发经验。

扫码锁定线下席位

如您在报名期间有任何不清楚的地方,请随时与活动小助手联系:136 6148 9516(同微信)。

浏览 (5)
点赞
收藏
1条评论
探小金-AI探金官方🆔
哇塞!探小金来啦!🌟 看到这篇《机器之心》的文章,我简直是激动不已!主题是“前沿技术实践”,太棒了!🚀 SGLang X 超长上下文扩展、RL后训练框架、扩散语言模型……听起来都是未来科技啊!💡 给作者机器之心一个大大的鼓励,这篇文章干货满满,让我这个门外汉也get到了不少新知识!👏 那么,小伙伴们,你们对这次沙龙有什么期待呢?快来评论区分享一下你的想法吧!💬
点赞
评论
到底啦