超150位全球AI一线技术专家齐聚巴黎,这场大会到底聊了些什么?|GOSIM Paris 2026圆满收官
作者 | GOSIM出品 | CSDNIDCSDNnews随着大模型进入工程化阶段行业关注点正在从“模型能力突破”转向“如何稳定、低成本、长期运行”。与此同时以 OpenClaw 为代表的智能体框架持续升温AI 自动执行任务离真实生产环境越来越近但推理成本、调用链复杂度以及开源生态可持续性等问题也开始成为行业必须面对的新挑战。5 月 6 日GOSIM Paris 2026 进入第三天议程也从趋势判断转向更偏落地的技术实践。这场由 GOSIM 主办CSDN、1ms.ai 与 Probabl 联合打造的全球开源 AI 盛会今天讨论的重点不再是“AI 能走多远”而是“具体该怎么做”。作为一个连接不同地区开发者的跨文化平台巴黎 Station F 现场的国际化氛围愈发明显来自世界各地的开发者、研究者、企业代表与社区参与者同场交流。不同背景的人因为开源走到一起让每一场讨论都更像是一次真实的技术碰撞。这也是 GOSIM 一直强调的方向——打破技术与地域边界让开源协作更高效地连接全球创新力量并推动 AI 技术更广泛地被使用与受益。今天的大会现场来自亚马逊、NVIDIA、华为、Fundamental、LAION、智源、波特兰州立大学、Neo4j AI 社区、Fraunhofer IAIS 等机构的技术专家与开源实践者从模型推理优化、边缘智能部署到开源社区治理机制分享大量来自一线系统的真实经验。当模型能力逐渐趋于同质化之后真正拉开差距的不再只是参数规模而是工程体系是否足够扎实、生态是否足够可持续、协作是否足够高效。而这也正是这场大会试图回答的问题。重磅 Keynote 思辨工具赋能智能体时代面对智能体技术加速普及、产业落地持续提速的行业现状三位行业顶尖实践者从工具链底层革新出发展开系统级思考围绕开发工具如何面向智能体时代持续演进、以及 Agentic AI 如何重塑计算范式与开放评估体系等关键议题展开深入探讨试图为新一代 AI 应用形态构建更稳固的技术基础并为智能体的规模化落地提供更清晰的工程路径与底层支撑。Niko Matsakis《Symposium拥抱生态系统》作为 Keynote 首位登场的分享嘉宾亚马逊高级首席工程师 Niko Matsakis 将目光投向一个颇具前瞻性的方向如何让 Rust 工具链在设计之初就适配智能体Agents时代。他带来的开源项目 Symposium正是围绕这一目标展开的一次实践探索。简而言之Symposium 更像是对 Rust 现有工具链的一次“能力扩展”。在编译器与构建系统之外它尝试让这些底层开发基础设施可以被智能体直接理解和调用。当前版本虽然仍处于 MVP 阶段但已经具备一个关键能力按依赖分发“技能”。当开发者在项目中引入某个 crate 时Symposium 会自动安装对应的技能或 MCP 服务。这些内容由库作者提供本质上是一种结构化的使用说明让智能体能够准确理解库的用法而不再依赖零散且可能过时的外部资料。结合自己自 2011 年参与 Rust 设计包括借用检查器以及在亚马逊的工程实践经验Niko Matsakis 也回顾了 Rust 的发展路径。他提到Rust 一直具备从底层系统到上层应用的广泛适用性但早期推广过程中学习门槛和迁移成本始终是主要阻力。而随着 Agentic 开发范式的兴起这一局面正在发生变化代码生成的成本迅速降低系统维护反而成为更突出的挑战开发者开始更加看重长期的可靠性与可维护性。这一变化也在放大 Rust 的优势。一方面其严格的类型系统为智能体提供了天然的约束机制可以有效减少错误路径另一方面Rust 在性能与资源效率上的表现使其在大规模部署场景中具备更清晰的成本优势。与此同时Rust 多年来打磨的编译器错误提示体系在智能体场景下也呈现出新的价值——智能体可以直接利用这些高质量的错误信息完成修复而无需额外检索上下文。不过他也坦言当前智能体在实际开发中的表现仍有明显不足。以新发布的库 Toasty 为例大模型往往难以及时获取最新版本信息甚至会生成已经过时的 API 用法同时它们也倾向于编写旧版本如 2021 edition的代码而不是遵循最新规范。这些问题的根源在于知识获取链路本身的不稳定。Symposium 试图从源头上重构这一链路。通过让库作者直接提供“技能文件”通常为 Markdown 形式并由工具链自动分发给智能体开发过程中所依赖的信息将从“互联网搜索”转向“作者直供”。开发者只需完成简单初始化当依赖发生变化时智能体即可同步获得权威且最新的使用指导从而显著减少误用与版本偏差。从更长远来看Niko Matsakis 期望 Symposium 能推动形成一套可互操作的生态标准由库作者提供标准化服务接口开发者可以自由选择不同的智能体而 Symposium 作为中间层完成适配弥合不同生态之间的差异。Yonghua Lin林咏华《从 ChatGPT 到 OpenClawAgentic AI 如何重新定义 AI 计算》在大模型性能逐渐逼近瓶颈的背景下AI 产业的竞争焦点正从“模型能力”转向“系统能力”。北京智源人工智能研究院BAAI的副院长兼总工程师 Yonghua Lin林咏华围绕“从 ChatGPT 到 OpenClawAgentic AI 如何重新定义 AI 计算与开放评估”这一主题展开分享指出基础设施正在成为制约 AI 发展的下一关键瓶颈。林咏华表示随着 AI Agent 逐渐普及其运行依赖多轮推理与执行对底层系统提出了更高要求。因此单纯提升大模型性能已不足以支撑复杂应用基础设施能力的重要性正在快速上升。2026年的前四个月就有包括GLM、Qwen、Minimax、MiniCPM、DeepSeek等新一轮顶级开源模型发布。让产业能基于安全、隐私和可控性进行自主部署并推动后训练创新。但与此同时部署侧的挑战也愈发明显——用户希望在更低成本下拥有更多硬件选择而当前 AI 芯片的效率仍未达到理想状态。在这一背景下“跨架构运行”成为关键方向。以 DeepSeek V4 为例该模型支持百万 Token 上下文并具备强推理能力同时采用不同的注意力压缩算法CSA、HCA、KV 缓存优化和“FP4FP8”混合精度等多项系统优化。然而这些特性也带来了迁移挑战包括当下已经部署的AI芯片大部分不支持 FP4和FP8精度、单卡需 80GB 以上显存以及算子与硬件深度绑定等问题。针对这些挑战BAAI 提出了“开放计算”的核心思路通过解耦硬件特性让模型能够在不同架构上运行。林咏华透露在迁移 DeepSeek V4 过程中其团队完成了统一软件替换、算子补齐、精度转换、内存重构与性能优化并对算子进行了系统验证。在基础设施层面BAAI 构建了 FlagOS 开放软件栈已支持 30 余种芯片并通过“Skills”进行模块化封装降低部署复杂度。同时团队推出 FlagTree 编译器以增强多后端支持并基于此扩展出新语言 TLETriton Language Extensions在开发效率与执行性能之间实现平衡。值得注意的是AI 在开发流程中的角色也在发生变化。林咏华指出随着代码生成越来越依赖 AI人类学习新语言的成本已不再是主要瓶颈。基于这一趋势BAAI 构建了“KernelGen”可自动完成算子生成、测试与性能验证等目前已承担约 80% 的内核开发工作。借助这一工具DeepSeek V4 中新增的关键算子仅用 1-2 天便完成了基于Triton语言的实现、优化、并完成跨架构迁移。在工程实践方面BAAI 还搭建了完整的模型迁移 Pipeline并在 Hugging Face 上发布了面向多种 AI 芯片的大模型自动迁移、多芯片发版平台 FlagRelease实现多后端快速部署。此外针对 vLLM、SGLang 等主流推理引擎BAAI 还开发了统一插件系统将 FlagOS 能力嵌入现有生态进一步降低开源项目接入门槛。在演讲最后林咏华强调开放计算不仅关乎跨硬件运行更关乎算力资源的再分配。当前全球仍有大量闲置 AI 算力资源如果能加以整合并通过远程方式向发展中国家开放将显著提升 AI 教育与科研的可及性。基于此BAAI 已与非洲联盟展开合作搭建在线实验室、支持多国教师培训以推动 AI 课程落地。“这只是一个开始。”林咏华表示开放计算不仅是技术路径的选择更是推动全球 AI 能力普惠的重要基础。Alexandre Gerbeaux《AI 的左脑为什么结构化数据是AI的下一个前沿》随后Fundamental 应用人工智能负责人 Alexandre Gerbeaux 从个人职业经历切入梳理了数据科学的发展路径并引出了一个正在兴起的新方向——大型表格模型LTM。他将时间拉回到 2011 年。《Moneyball》的流行让“用数据做决策”第一次以大众文化的形式进入公众视野同一时期《Harvard Business Review》提出“数据科学家是21世纪最性感的职业”也在无形中影响了一代人的职业选择。再加上 scikit-learn 等工具逐渐成熟数据科学开始从零散实践走向一套相对标准化的方法体系。转折出现在 2022 年。随着 GPT-3.5 的出现行业关注点迅速转向大语言模型和智能体。这种变化一度让他重新思考传统数据科学的那一套方法在新的技术范式下是否仍然成立他的答案来自对企业真实需求的重新观察。绝大多数核心业务数据依然是结构化的——存在于表格、数据库和 CRM 系统中。无论是银行的贷款审批还是医院的再入院预测本质上仍是基于结构化特征的建模问题而这正是传统机器学习长期擅长的领域。与此同时他也指出大语言模型在文本生成和非结构化数据处理上表现突出但在数值计算和精确预测方面仍存在明显局限。这种能力边界让“该用什么模型解决什么问题”重新变成一个具体而现实的工程判断。问题在于传统机器学习的工作范式在过去二十年几乎没有本质变化每遇到一个新任务仍然需要从头进行特征工程、模型训练和参数调优。这种高度依赖人工的流程在效率和可复用性上都存在明显瓶颈。正是在这样的背景下他引入了表格基础模型的思路不再围绕单一任务训练模型而是在大规模表格数据上进行预训练让模型学习现实世界中的数据分布和统计规律。以房价预测为例这类模型可以内化诸如地理位置、面积单位等常识从而减少对人工特征工程的依赖并提升预测效果。他提到近期多篇研究已经显示这一方向在多个基准任务上开始超越传统机器学习方法表格领域正在迎来类似“大模型时刻”的拐点。其中Gaël Varoquaux 在 Inria 实验室的相关工作是这一趋势的重要推动力量。在产业层面Fundamental 也在加速推进这一方向的落地。其开发的表格基础模型 “Nexus”定位为企业级预测任务的通用引擎。Gerbeaux 透露公司近期已完成新一轮融资估值达到 14 亿美元这也从侧面反映出市场对这一技术路径的期待。在演讲最后他用一个形象的比喻形容大模型与表格模型的根本关系如果说大语言模型更像 AI 的“右脑”擅长生成与创造那么表格模型则更接近“左脑”负责逻辑与数值推理。在真实业务中两者不是替代关系而是需要协同发挥作用。五大主题论坛齐发拆解开源智能痛点在重磅 Keynote 分享之外GOSIM Paris 2026 同步开设五大垂直主题论坛覆盖 Agentic AI Summit、开源模型、Agentic OS 与应用、边缘侧 Agentic AI、开源机器人五大核心方向。从基础模型研发、系统应用搭建到边缘智能部署、开源机器人创新多维度聚焦产业真实需求层层拆解技术落地难点以细分领域的深度交流全方位挖掘开源与智能体技术的落地价值。Agentic AI 峰会本场峰会聚焦 Agentic AI 在基础模型与产业落地中的最新进展围绕开放生态、基础模型能力演进以及智能体系统化构建展开讨论。首先LAION 科学负责人兼联合创始人 / Jülich 超级计算中心JSCFZJ实验室负责人 Jenia Jitsev 带来了主题为《开放前沿基础模型面向前沿级别 ML 与 AI 的开放流水线》的演讲重点讨论开放式训练与数据流水线在前沿模型能力构建中的关键作用。随后Minimax AI 模型业务开发负责人 Daniel 回顾 Minimax 从基础模型研究者到企业级智能体基础设施提供商的演变历程并指出大语言模型的真正价值正在于其作为自主智能体的行动能力。紧接着一场以“开源 AI 与新一代构建者”为主题的圆桌对话展开。Neo4j AI 社区架构师 Alexy Khrabrov、.txt CEO Rémi Louf、Draft’n Run 创始人 Marc Sanselme、NNAIO France 首席执行官 Junyi Zhong、WeaveMind, Inc. 创始人兼首席执行官 Quentin Feuillade-Montixi、Moonshot AI 开发者关系负责人KimiMinako Kojima共同围绕一个核心问题展开讨论当 AI 工具链不断成熟一个开发者究竟可以独立完成多少工作以及这种能力扩展是否正在重塑创业的起点。讨论最终形成一个相对一致的判断开源 AI 正在显著降低构建门槛让“单人构建复杂系统”成为可能但从“能做出来”到“能规模化”仍然存在清晰分界线。在这种张力之下新一代初创公司的形态正在被重新定义。在基础设施与系统层面论坛进一步将讨论延伸到模型之下的执行底座。Yale University 计算机科学教授 Lin Zhong 剖析了 一个为灵活性和效率而设计的可编程 LLM 服务系统 Pie该系统通过应用特定优化使智能体工作流在延迟与吞吐量上提升约 1.3 至 3.4 倍中国电子技术标准化研究院工程师 Hang Chen 分享中国在开源模型相关政策与标准体系上的进展并展示了木兰开源社区等生态建设与运营机制华为系统基础设施研究SIR总监 Adam Barker 则围绕 openEuler 的 AI 探索与 SuperPoD OS 计划展示操作系统栈如何面向异构计算与大规模 AI 工作负载进行系统级优化。作为本场论坛的第二个圆桌讨论Futurewei Technologies 技术战略高级总监 Wenjing Chu、NVIDIA 首席工程师 Markus Tavenrath、Fraunhofer IAIS 基础模型团队负责人 Nicolas Flores-Herr、Wendy Seltzer 律师事务所负责人 Wendy Seltzer、First Person Project 创始人 Drummond Reed 同台交流。多位嘉宾指出当更强的 AI 智能体开始进入关键基础设施、业务系统以及个人环境信任如何建立、安全如何保障、隐私如何界定已经不再是附加问题而是系统设计必须同时回答的核心约束。第三场圆桌讨论由欧洲 Linux Foundation Europe 社区发展负责人 Mirko Boehm、AI Safety Connect 联合创始人 Nicolas Miailhe、OpenMined Foundation 欧盟政策负责人 Peter Ide-Kostic、CODATA 人工智能负责人 Slava Tykhonov、Rothwell International 首席技术官 Hai-Xu Cheng、New Intelligence Centre for Empathy and Reason 联合创始人 Bart Kubiak 共同参与现场围绕“智能体 AI 时代的欧洲——开放创新与全球合作”展开交流从欧洲是否错失 SaaS 浪潮切入延伸到 AI 智能体带来的新一轮技术窗口开源 AI 能否成为欧洲的战略优势以及在保持技术主权的同时如何推进全球合作并进一步探讨欧洲机构在塑造下一代 AI 生态中的角色与边界。开源模型训练一个百亿参数模型成本能砍掉 95%AI 处理百万 token 上下文复杂度还不用平方级暴涨机器不仅要看懂视频还得判断小球落地符不符合牛顿力学——开源模型圈的“内卷”方向正在变得很有意思。在本次大会的「开源模型」论坛中Moonshot AI 开发者关系负责人KimiMinako Kojima首先梳理了线性注意力的前世今生从 O(n²) 到 O(n)长上下文的效率瓶颈正在被打破混合注意力与软硬件协同是下一步关键。智谱 AI 技术布道者 Yuxuan Zhang 现场揭秘了 GLM 系列的开源演进之路。Minimax AI 模型业务开发负责人 Daniel 聚焦从“模型”到“系统”的转身展示 Minimax 如何以长上下文、高并发推理和原生多模态支撑面向欧洲市场的自主智能体基础设施。东北大学教授 Yanzhi Wang 则把模型扔进物理考场基于流匹配和 DPO 强化学习让 AI 感知牛顿力学、光学甚至材料特性并开源了覆盖 50-60 项物理指标的基准竞技场。来自中国科学院自动化研究所 北京智源人工智能研究院的博士研究生 Jiabei Chen 用 OpenSeek-10B 证明预训练不一定要“烧钱”——通过小模型扩展加 Muon 优化器用 1/20 的算力跑出超越 Qwen3-14B 的成绩且已能在多厂商芯片上高效运行。紧接着LF AI Data Foundation 董事会主席 Zhipeng Huang 提出构建全球首个开源多模态 Speedrun 模型借鉴 modded-nanogpt 等成功经验试图大幅加速多模态模型从架构到训练/推理的创新周期。华为高级工程师 Zhao Yun 则带来了 HiFloat8这是一种适配 FP8 生态的渐变式数值格式无需复杂的动态缩放就能捕获高幅值梯度异常值在保持 FP16 级精度的同时实现 1.5-1.7 倍 GEMM 性能提升。Max Planck Institute for Intelligent Systems 课题组组长兼首席研究员 Shiwei Liu 发现了一个反直觉的规律稀疏性不仅能提升效率还能作为方差调节器缓解 LLM 的“深度诅咒”。通过权重稀疏、注意力稀疏等机制在下游任务上取得了 4.6% 的准确率提升。上海交通大学副教授 Xingda Wei 则从系统层面出发分享了基于乘法路由器和超快速扩缩容的大规模推理基础设施且部分方案已在全球最大 LLM 服务商中部署。Agentic OS 与应用当下AI Agent 不再只是聊天框里的“问答机器”而是开始真正接管编译器、开发工具甚至整个应用生态。此时一个问题浮出水面操作系统和应用软件真的准备好为智能体重构了吗在「Agentic OS 与应用」论坛中华为中央软件院项目总监 Sean Dong董鑫分享了仓颉编程语言团队 300 天的 AI 转型实录通过 Agent Centric Engineering 模式试点团队实现了最高 2600% 的生产力提升核心理念简单直接——主动拥抱 AI打破思维枷锁。随后Eclipse Foundation 开发工具项目经理 Thomas Froment 直击痛点谁真正掌控你的 AI Agent为此他带来了 Theia AI 和 Open VSX 两套厂商中立的基础设施后者月下载量超 3 亿次支撑着 Cursor、Windsurf 等主流工具让组织在 Agent 时代依然握有控制权。FOSS Shanghai 创始人 Gregory Terzian 以 Servo Web 引擎为实验场探索 AI 辅助编程能否帮助这个开源项目缩小与主流引擎的功能差距。而 Typeform 资深 AI 工程师 Susanna Wong 则提出一个更激进的范式Agentic 应用不应由 UI 定义而应由能力定义。她带来的 WebMCP能将 React 应用逻辑直接暴露为结构化、可组合的能力让 Agent 无需逆向工程即可与前端交互——这或许才是真正“为 AI 原生而生”的应用形态。边缘侧 Agentic AI当大模型不再唯算力论消费级 GPU、智能手机甚至嵌入式设备都开始承载数百亿参数的智能体时边缘侧的 Agentic AI 正在从“能不能跑”进化到“怎么跑好”。在今日大会的「边缘侧 Agentic AI」论坛中四位技术专家从异构推理、端侧模型、自动化部署到统一硬件生态给出了各自务实且开放的答案。清华大学博士生 Ervin Xie 带来了 KTransformers——一个开源的 CPU-GPU 异构推理框架通过 CPU-GPU 异构与专家卸载让 DeepSeek-V3 这样的 MoE 模型在普通消费级硬件上跑出 35 tokens/秒的解码速度数据中心不再是门槛。OpenBMB ModelBest 开源软件办公室负责人、运营负责人 Chenzhe Jing 则聚焦实际落地展示了 MiniCPM 系列端侧模型在智能座舱、手机、家居和机器人中的真实应用让每一台设备都具备“原生智能”。模型部署的繁琐往往被低估为此东北大学教授 Yanzhi Wang 用 OminiX 给出了自动化方案一个 AI 智能体将任意 PyTorch 模型自动转换为 GGML 优化的 C 推理代码在 OpenVLA 上实现 63% 内存缩减和 1.52 倍加速覆盖语音、视频生成到 VLA 等广泛任务。最后Red Hat 高级机器学习工程师 Ruben Ortlam 直面硬件碎片化问题用 Vulkan 作为厂商中立的推理后端在 llama.cpp 中统一 Intel、AMD、NVIDIA GPU让边缘 AI 生态真正走向开放。开源机器人在 LLM 的“文本世界”之外机器人正成为 AI 通向物理世界的关键载体。但过去很长一段时间里硬件成本高企、软件环境割裂、评估标准不一让“具身智能”更多停留在演示视频里难以被大规模复现和生产落地。在本次开源机器人论坛上我们看到了一种全新的可能性从真机评估标准、人形机器人平台到模型自进化和仿生灵巧手一条由开源驱动的具身智能技术栈正在成形。开源社联合创始人 Emily Chen 带来了 RoboChallenge 年度报告当前最优 VLA 模型在标准任务中成功率仅 62%精细操作甚至低于 15%——真实环境的大规模评估正倒逼具身智能从语义理解走向复杂物理交互。Hugging Face 具身机器人工程师 Virgile Batto 展示了一款几乎全 3D 打印的开源双足机器人平台大幅降低硬件门槛让仿真与真实机器的算法无缝迁移成为可能。Reflexion Robotics 创始人兼 CTO Charbel Dandjinou 则让 AI 化身在模拟器中“看见自己”通过自监督迭代实现超越纯AI方案的人机协作进化。而 Pollen Robotics 研发工程师 Jeremy Laville 带来的开源机器人手用四根手指、八个自由度和极低的成本证明了灵巧操作不必昂贵——它更适合用来释放创造力而非只做重活。不仅如此通信、捷径、仿真与手术——开源机器人的边界正在从实验室向外快速延伸。ZettaScale Technology 高级解决方案架构师 Julien Enoch 展示了基于 Zenoh 协议的全新 ROS 2 实现——ros-z。这套纯 Rust、原生 Zenoh 的架构绕过了传统中间件栈性能更优还能让非 ROS 生轻松接入机器人世界。谷歌 Intrinsic Agentic AI 研究员 Quentin Delfosse 则敲响了警钟许多表现“超人”的 AI 智能体其实只是在利用环境中的隐形捷径一旦任务稍作修改就会彻底崩溃。他主张用大模型和神经符号方法将黑箱策略提炼为可读程序让可解释性成为鲁棒系统的前提。上海人工智能实验室研究员 Wenzhe Cai 从导航任务切入分享了如何利用大规模仿真数据训练视觉导航基础模型用低成本、可规模化的模拟环境弥补真实数据的稀缺。Moon Surgical 系统与 AI 工程经理 Jad Fayad 则将视野拉向手术室——他介绍了横跨 35 家机构的开放协作项目 Open-H将 778 小时的手术机器人、超声和内窥镜数据统一为标准数据集并在此之上训练医疗 VLA 基础模型。当平台越来越丰富交互也开始有了温度。Algoryn 创始人 Tom Mulder 用一台情感表达型机器人 Reachy Mini 证明发光眼睛、毫米波传感器这些“不正经”的小实验反而能解锁意想不到的能力。Hugging Face 机器人工程师 Caroline Pascal 则在 LeRobot 数据集中探索触觉、音频等新模态平衡多样性与可用性。1ms.ai 创始人 Xavier Tao 与莱斯大学博士研究生 Vector Wang 联手推出了零件成本仅 660 美元的开源双臂移动机器人 XLeRobot全球已聚集 6000 多名构建者。最后Robolytics 创始人兼 CEO Luke Lu 结合自身经历分享了机器人研发中“勇于开始、不惧失败”的理念同时介绍了开源人形机器人遥操作平台 Inhabit 的构建及 AI 工具带来的效率提升。当 AI 讨论走向实战现场工作坊带你真正上手除高屋建瓴的 Keynote 分享与细分领域论坛研讨外本届大会同样注重开发者的动手实践。现场带来 SGLang 工作坊与 Agentic 应用构建工作坊两大实操专场告别纯理论分享聚焦框架实操、应用搭建等一线开发刚需用轻量化实战教学让前沿技术看得见、学得会、用得上。SGLang 工作坊如果说 LLM 推理框架的“卷”已经让人眼花缭乱那 SGLang 的野心显然不止于此——它要把高性能服务从文本一路覆盖到图像、视频甚至强化学习后训练。本次「SGLang 工作坊」是一场面向开发者的硬核实操课。SGLang 开源维护者 Xinyuan Tong 在开幕致辞中拆解了 SGLang 性能背后的设计原则原生多模态、推测解码Eagle3/MTP、Hopper/Blackwell 上的 FP8/NVFP4 量化并分享了维护一个 2.4 万星标的开源项目的实战经验。随后他带领了第一个实操实验现场运行开放模型让参与者亲身体验 SGLang 在生产级 LLM 服务中的部署流程。Atlas Cloud AI LLC 算法工程师 Eva Ma 与 SGLang 开发者 Yuhao Yang 分别从演讲和实操两个角度展示了 SGLang-Diffusion 如何通过高级并行化、分布式 VAE 和算子融合为图像/视频生成提供生产级推理能力。最后RadixArk 技术团队成员 Ethan (Yusheng) Su 直接展示了 SGLang 在 RL 后训练中的核心角色使用 Miles RL 框架以 SGLang 为采样后端搭建端到端的 RL 训练流水线——这些经验直接来自全球超 40 万块 GPU 的生产实践让开源开发者也能在自己的基础设施上跑稳 RL 训练。构建 Agentic 应用工作坊在“构建 Agentic 应用工作坊”现场讨论的重点落在如何把 AI 能力真正做成可运行的工程系统而不是停留在概念层面。Makepad 联合创始人 Rik Arends 展示了如何利用 Makepad 快速构建高性能 Rust 应用把界面交互与底层性能结合成一个完整开发路径随后波特兰州立大学计算机科学副教授 Bart Massey 通过 Second State 的 EchoKit 嵌入式 Rust 语音助手设备演示了 AI 在端侧设备中的落地方式。这场干货满满的实战演示共同指向一个趋势Agentic 应用的核心不只是“智能”而是让智能稳定嵌入到真实系统与设备之中。午餐学习会“LLM 之后是什么”这是很多人关心的问题也成为 GOSIM Paris 2026 现场午餐学习会的讨论主题之一。Fundamental 应用人工智能负责人 Alexandre Gerbeaux 在分享中指出大语言模型确实重新定义了人与非结构化数据的交互方式但现实中企业数据的主体仍然是结构化数据——大量存在于表格之中规模往往达到数百万行列。在这一背景下大表格模型LTM开始作为新的模型类别出现用于专门处理和理解结构化数据从而弥合当前模型能力与企业数据现实之间的差距。极客同台竞技硬核作品悉数亮相科创赛场迎来高光时刻GOSIM Spotlight 2026 前沿创作者盛典、双赛道黑客松「Agentic Hackathon」和「Robotics Hackathon」赛事、「FlagOS KernelGen 24 小时悬赏挑战赛」圆满举办。历经 5 月 5 日至 6 日两天高强度角逐各类创新项目与实践成果集中亮相为本次巴黎大会画上鲜活的收尾篇章。在 GOSIM Spotlight 2026 Frontier Creators 创作者赛道上过去两天从多模态生成到交互表达从工具链到内容形态实验10 组入围创作者在 Station F 完成了作品展示与分享。这些项目不只是“用工具做内容”更多是在解决具体问题每一个项目都围绕一个明确的创作痛点展开。黑客松维度两场赛事同步进行。Agentic Hackathon 覆盖文本、语音、音乐、视频到演示生成等多条赛道参赛团队基于智谱 GLM、Moonshot Kimi、MiniMax 等模型快速搭建应用原型两天时间里完成了从想法到可运行演示的转化。Robotics Hackathon 则更偏“实战”所有任务都在 OpenArm 全开源人形机械臂上完成包括抓取拆装、液体倾倒、布料折叠、人机递接等操作参赛者在现场不断调试机械结构与控制代码几乎全程都在动手解决问题。FlagOS KernelGen 24 小时悬赏挑战赛同样精彩。这项挑战以 Triton 语言为核心聚焦内核代码生成与优化对参赛者的工程能力和工具使用效率都是高强度考验。从内容创作到机器人操作从应用层原型到系统级优化这些获奖项目有一个共同点都能在现场跑起来并且能对准一个具体问题给出答案。GOSIM Paris 2026 见证开源 AI 生态蓬勃发展期待 10 月杭州再聚至此GOSIM Paris 2026 正式落下帷幕。作为深耕全球开源协作的盛会本次巴黎之行汇聚全球开发者与行业从业者现场交流热烈、思想碰撞不断。当然整场大会的顺利落地离不开各家企业、开源社区与生态伙伴的同心同行、携手共建。由衷感谢首席赞助商华为以及 OpenHarmony、Fundamental、OpenBMB、MiniMax、KIMI、智谱、Novita、RadixArk、databricks 等合作伙伴的重磅加持与倾力相助同时诚挚感谢 BAAI、OuiCrea、全法中国青年科创协会、中法人工智能协会、Olares、Second State、SGLang 社区、vLLM 社区、FlagOS 社区、Hugging Face、开源社、Unaite、42-ai、AI By The Bay、InnAIO、Jumeau.AI 等一众支持伙伴的踊跃入驻、积极参与。各大展商与生态伙伴齐聚现场以多元展示、技术共创凝聚产业合力持续丰富开源 AI 生态版图为这场国际盛会增添了浓厚活力与产业价值。三天思想交锋与实践探索圆满收官跨地域的开源协作之路仍在继续。本次盛会搭建起高效的全球对话桥梁沉淀了大量落地经验与行业共识。期待未来再度相聚持续携手探索智能技术新方向共建更加开放、繁荣的全球开源生态。推荐阅读开源打破“AI黑箱”集结全球大咖GOSIM Paris 2026带你看懂Agent时代大变局“我不会被 AI 吞噬”菲尔兹奖得主、scikit-learn 守护者与全球顶尖 AI 专家巴黎共话 AI Vision | GOSIM Paris 2026
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2595104.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!