刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 最近更新| 安卓软件| 安卓游戏| 电脑版| 手机版

当前位置: 首页单机游戏冒险解谜→ (5分钟科普下)刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相_哔哩哔哩_bilibil

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相v5.32.98.61

猜你喜欢
分类:单机 / 冒险解谜 大小:3.4MB 授权:免费游戏
语言:中文 更新:2025-09-11 06:50 等级:
平台:Android 厂商: 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相股份有限公司 官网:暂无
权限: 查看
允许程序访问网络.
备案:湘ICP备2023018554号-3A
标签: 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相最新版 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相中文版
详情
介绍
猜你喜欢
相关版本

截图

内容详情

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相游戏介绍

⚾2025-09-11 12:03 「百科/秒懂百科」【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相】🍓支持:32/64bi🐯系统类型:(官方)官方网站IOS/Android通用版/手机APP(2024APP下载)《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

🏈2025-09-11 12:03 「百科/秒懂百科」【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相】🍌支持:32/64bi🦈系统类型:(官方)官方网站IOS/Android通用版/手机APP(2024APP下载)《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

🏊2025-09-11 14:01 「百科/秒懂百科」【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相】🐳支持:32/64bi🍒系统类型:(官方)官方网站IOS/Android通用版/手机APP(2024APP下载)《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

🦈2025-09-11 10:05 「百科/秒懂百科」【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相】🐰支持:32/64bi🐍系统类型:(官方)官方网站IOS/Android通用版/手机APP(2024APP下载)《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

🐬2025-09-11 12:30 「百科/秒懂百科」【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相】🐙支持:32/64bi🥌系统类型:(官方)官方网站IOS/Android通用版/手机APP(2024APP下载)《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相版本特色

1. 🐪「科普」🏄 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v0.08.06.30(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

2. 🤸「科普盘点」🐱 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v2.65.34.16(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

3. 🍂「分享下」🚴 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v4.80.42.51(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

4. 🏹「强烈推荐」🤼‍♀️ 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v8.70.09.28(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

5. 🐪「重大通报」🏌️ 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v0.33.44.25(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

6. 🐢「返利不限」🌳 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v8.73.52.75(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

7. 🏐「欢迎来到」🏀 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v8.27.59.51(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

8. 🌸「娱乐首选」🦆 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v3.20.42.46(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

9. ⛳「免费试玩」🤾 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官网-APP下载🎾🥑🦊支持:winall/win7/win10/win11🐦系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载(2024全站)最新版本IOS/安卓官方入口v8.63.51.91(安全平台)登录入口🍁《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相下载方式:

①通过浏览器下载

打开“刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相”手机浏览器(例如百度浏览器)。在搜索框中输入您想要下载的应用的全名,点击下载链接【blog.m.blog.m.share.mobile.m.m.blog.blog.m.m.jxgzymxz.com】网址,下载完成后点击“允许安装”。

②使用自带的软件商店

打开“刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相”的手机自带的“软件商店”(也叫应用商店)。在推荐中选择您想要下载的软件,或者使用搜索功能找到您需要的应用。点击“安装”即 可开始下载和安装。

③使用下载资源

有时您可以从“”其他人那里获取已经下载好的应用资源。使用类似百度网盘的工具下载资源。下载完成后,进行安全扫描以确保没有携带不 安全病毒,然后点击安装。

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相安装步骤:

🦛🤽🏇第一步:🏀访问刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相官方网站或可靠的软件下载平台:访问(http://blog.m.blog.m.share.mobile.m.m.blog.blog.m.m.jxgzymxz.com/)确保您从官方网站或者其他可信的软件下载网站获取软件,这可以避免下载到恶意软件。

🏌️🚴🐌第二步:💐选择软件版本:根据您的操作系统(如 Windows、Mac、Linux)选择合适的软件版本。有时候还需要根据系统的位数(32位或64位)来选择刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相。

🐋🛺🦁第三步:🐼 下载刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相软件:点击下载链接或按钮开始下载。根据您的浏览器设置,可能会询问您保存位置。

⛳🐳🏐第四步:💐检查并安装软件: 在安装前,您可以使用 杀毒软件对下载的文件进行扫描,确保刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相软件安全无恶意代码。 双击下载的安装文件开始安装过程。根据提示完成安装步骤,这可能包括接受许可协议、选择安装位置、配置安装选项等。

🌰🦘🏂第五步:🦘启动软件:安装完成后,通常会在桌面或开始菜单创建软件快捷方式,点击即可启动使用刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相软件。

🎋🏋️🐮第六步:🏈更新和激活(如果需要): 第一次启动刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相软件时,可能需要联网激活或注册。 检查是否有可用的软件更新,以确保使用的是最新版本,这有助于修复已知的错误和提高软件性能。

特别说明:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相软件园提供的安装包中含有安卓模拟器和软件APK文件,电脑版需要先安装模拟器,然后再安装APK文件。

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相使用讲解

🎢第一步:选择/拖拽文件至软件中点击“🥉添加刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相”按钮从电脑文件夹选择文件《🐢🧸blog.m.blog.m.share.mobile.m.m.blog.blog.m.m.jxgzymxz.com》,或者直接拖拽文件到软件界面。

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相讲解

🥀第二步:选择需要转换的文件格式 打开软件界面选择你需要的功能,刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相支持,PDF互转Word,PDF互转Excel,PDF互转PPT,PDF转图片等。

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相讲解

🍃第三步:点击【开始转换】按钮点击“开始转换”按钮, 开始文件格式转换。等待转换成功后,即可打开文件。三步操作,顺利完成文件格式的转换。

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相讲解

进入刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相教程

1.打开刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相,进入刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相前加载界面。

2.打开修改器

3.狂按ctrl+f1,当听到系统“滴”的一声。

4.点击进入刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相,打开选关界面。

5.关闭修改器(不然容易闪退)

以上就是没有记录的使用方法,希望能帮助大家。

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相特点

🏋️‍♀️2025-09-11 11:26 🍏MBAChina🐮【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 】系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相(官方)官方网站IOS/Android通用版/手机APP(2024APP)【下载次数62435】🤾🏑🍓支持:winall/win7/win10/win11🐠🍃现在下载,新用户还送新人礼包🐙刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

🥇2025-09-11 10:36 🤼‍♀️欢迎来到🎾【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 】系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相(官方)官方网站IOS/Android通用版/手机APP(2024APP)【下载次数78396】🌴🦨🎾支持:winall/win7/win10/win11🌿🐶现在下载,新用户还送新人礼包🦇刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

🥋2025-09-11 16:02 🦊HOT🐸【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 】系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相(官方)官方网站IOS/Android通用版/手机APP(2024APP)【下载次数41894】🤼⛷️🦐支持:winall/win7/win10/win11🏀🏋️‍♀️现在下载,新用户还送新人礼包🐯刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

🤺2025-09-11 13:23 🦎娱乐首选🍊【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 】系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相(官方)官方网站IOS/Android通用版/手机APP(2024APP)【下载次数44933】🍐🦧🐮支持:winall/win7/win10/win11🥋🏈现在下载,新用户还送新人礼包🦢刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

🚵2025-09-11 11:09 👾返利不限🏏?【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 】系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相(官方)官方网站IOS/Android通用版/手机APP(2024APP)【下载次数81228】🏂🥇🍊支持:winall/win7/win10/win11🍒👾现在下载,新用户还送新人礼包🍁刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

相关介绍

🤾ωειcοmε🌴【 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相 】🐺🦁🍊系统类型:刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相(官方)官方网站-IOS/安卓通用版/手机app🌵支持:winall/win7/win10/win11🌳🌿🌻【下载次数999】🐜🎴现在下载,新用户还送新人礼包🀄刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相2024更新

他星域的商队一般都是直接来这里进行买卖,也就是说,外星域的货物只

> 厂商新闻《刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相》特朗普继续对日本施压:日本需要开放市场 时间:2025-09-11 16:47

    • 编辑:CN




    机器之心报道

    机器之心编辑部

    真正的元凶是缺乏批次不变性。

    就在今天,由 OpenAI 前 CTO Mira Murati 成立于今年 2 月的人工智能初创公司 Thinking Machines Lab,发了第一篇文章 ——《克服 LLM 推理中的不确定性》(Defeating Nondeterminism in LLM Inference)。



    这篇博客属于 Thinking Machines Lab 新提出的博客栏目 Connectionism,意为「连接主义」。该公司表示:「我们相信,分享才能让科学更好地发展。Connectionism 将涵盖与我们的研究一样广泛的主题:从核函数数值计算到提示工程。Connectionism 这一名称可以追溯到 AI 的早期年代。它曾是 20 世纪 80 年代的一个研究分支,专注于神经网络及其与生物大脑的相似性。」

    此外,Thinking Machines Lab 联合创始人、著名技术博主翁荔(Lilian Weng)还在转推中透露了一个消息,Connection Machine,即「连接机」,难道他们的产品要来了?



    真是让人期待呢。



    地址:https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/

    博客主要作者为 Horace He,这位 PyTorch 核心开发者于今年 3 月从 Meta 离职,加入了 Thinking Machines。



    接下来看博客原文内容。

    可复现性(reproducibility)是科学进步的基石。然而,从大语言模型中获得可复现的结果却非常困难。

    例如,你可能会发现:即使是向 ChatGPT 提出同一个问题多次,也可能得到不同的回答。这本身并不令人意外,因为语言模型生成结果的过程涉及采样 —— 这个过程会将模型的输出转换为一个概率分布,并以概率方式选择一个 token。

    更令人惊讶的是,即使我们将温度参数调到 0(理论上使采样过程变为确定性),大语言模型的 API 在实际中仍然不是确定性的。研究者已经对此有诸多讨论。

    即使是在你自己的硬件上,使用开源推理库(如 vLLM 或 SGLang)运行推理,采样过程依然不是确定性的。

    为什么大语言模型的推理引擎不是确定性的呢?

    一个常见的假设是:浮点运算的非结合性(non-associativity)与并发执行的某种组合会导致不确定性,这取决于哪个并发核心首先完成。我们将这种解释称为「LLM 推理不确定性的『并发 + 浮点』假设」。例如,一篇最近的 arXiv 论文(arXiv:2506.09501)写道:

    GPU 中的浮点运算具有非结合性(non-associativity),意味着 (a+b)+c≠a+(b+c),这是由于精度有限和舍入误差所致。这一特性会直接影响 transformer 架构中注意力得分和 logit 的计算,因为在多线程中进行的并行操作,其执行顺序不同会导致结果差异。

    虽然这个假设并不完全错误,但它并没有揭示事情的全貌。

    例如,即使在 GPU 上,对相同的数据反复进行相同的矩阵乘法运算,每次的结果也都是每一位都相同的。我们确实在使用浮点数,GPU 也确实具有高度并发性。

    那为什么在这个测试中却看不到不确定性呢?



    要理解大语言模型推理不确定性的真正原因,我们必须更深入地探究。

    不幸的是,甚至连「LLM 推理是确定性」的这一说法的定义都很难明确。或许令人困惑的是,以下这些看似矛盾的说法实际上同时都是真实的:

      GPU 上的一些核(kernel)是不确定性的。然而,语言模型在前向传播过程中使用的所有核都是确定性的。此外,像 vLLM 这样的 LLM 推理服务器的前向传播过程,也可以被认为是确定性的。尽管如此,从使用推理服务器的任何用户的角度来看,结果却是不确定性的。

    在这篇文章中,我们将解释为什么「并发 + 浮点」假设没有达到目的,揭露 LLM 推理不确定性背后的真正罪魁祸首,并解释如何克服不确定性并在 LLM 推理中获得真正可重复的结果。

    原罪:浮点数的非结合性

    在讨论不确定性之前,有必要先解释一下为什么存在数值差异。毕竟,我们通常将机器学习模型视为遵循交换律或结合律等结构性规则的数学函数。我们的机器学习库难道不应该提供数学上正确的结果吗?

    罪魁祸首是浮点非结合性(floating-point non-associativity)。也就是说,对于浮点数 a、b、c,有:



    讽刺的是,正是打破结合律让浮点数变得有用。

    浮点数之所以有用,是因为它们允许动态的精度。为了便于解释,我们将使用十进制(而不是二进制),其中浮点数的格式为:尾数 * 10^ 指数。这里还将使用 3 位数字作为尾数,1 位数字作为指数。(注:在计算机科学中,尾数(mantissa,或有效数)是浮点数中用来表示精度的部分,它决定了数字的有效数字位数和精度。)

    例如,对于值 3450,我们可以将其精确表示为 3.45*10^3。我们也可以将更小的值(例如 0.486)表示为 4.86*10^-1。这样,浮点数既可以表示非常小的值,也可以表示非常大的值。在科学领域,我们可以说浮点数使我们能够保持有效数的个数恒定。

    如果两个浮点数的指数相同,它们的加法运算看起来与整数加法类似。例如:



    但是,如果两个浮点数的指数不同,例如 1230 和 23.4,又会发生什么情况呢?理论上,它们的和应该是 1253.4。然而,由于浮点数运算只能保留 3 位有效数字,因此结果会被舍入为 1.25×10³(或 1250)。



    表示 1230 需要 3 位有效数字,表示 23.4 也需要 3 位有效数字。但是,这两个数相加的结果(1253.4)却需要 5 位有效数字才能精确表示。因此,我们的浮点数格式必须舍弃最后两位(34)。某种程度上,这相当于我们在相加之前,将原来的 23.4 四舍五入为 20.0。

    然而,这样做会导致信息丢失。请注意,只要我们对两个不同阶位(即不同指数)的浮点数进行加法运算,就会发生这种情况。而实际应用中,我们经常需要对不同指数的浮点数进行加法运算。事实上,如果我们能够保证所有浮点数的指数都相同,那么我们完全可以只使用整数!

    换句话说,每次以不同顺序相加浮点数时,结果都有可能完全不同。举个极端的例子,对于某个数组,根据加法顺序的不同,其求和结果可能出现 102 种不同的结果。



    虽然这是导致输出结果不一致的根本原因,但它并不能直接解释不确定性行为的来源。它也无法帮助我们理解为什么浮点数的加法顺序会改变、这种情况在什么时候发生、以及我们如何避免它。

    答案藏在核函数(kernel)的实现方式中。

    为什么核函数计算中数字加法顺序并非总是固定的?

    如前所述,解释核函数计算中数字加法顺序不一致的一个常见原因是「并发性 + 浮点运算」假设。

    该假设认为,如果并发线程的执行顺序是不可预测的,并且累加操作的顺序依赖于并发线程的执行顺序(例如原子加法 /atomic adds),那么最终的累加结果也会变得不可预测。

    然而,令人困惑的是,尽管这种现象会导致核函数计算结果的不确定性,但并发机制(以及原子加法)实际上与大型语言模型推理中的不确定性无关!

    为了解释真正的罪魁祸首是什么,我们首先需要了解为什么现代 GPU 核函数很少需要使用原子加法。

    什么时候需要使用原子加法操作?

    GPU 通常会同时在多个核心(即流处理器)上并行运行程序。由于这些核心之间没有内置同步机制,因此如果它们需要相互通信,就会很麻烦。例如,如果所有核心都需要对同一个元素进行累加,就可以使用原子加法(有时也称为 fetch-and-add)。原子加法是不确定性的,结果的累加顺序完全取决于哪个核心先完成计算。

    具体来说,假设你要使用 100 个核心对一个包含 100 个元素的向量进行求和(例如 torch.sum ())。虽然可以并行加载所有 100 个元素,但最终我们必须将结果汇总为一个值。一种实现方法是使用某种原子加法操作,硬件保证所有加法操作都会执行,但并不保证执行顺序。



    原子加法操作可以确保每个核心的计算结果都能最终反映在总和中。但是,它并不能保证这些结果的累加顺序。累加顺序完全取决于哪个核心先完成计算,这是一种不确定性行为。

    因此,多次执行相同的并行程序可能会产生不同的结果。这通常就是人们所说的不确定性,即,使用完全相同的输入数据执行两次相同的程序,但最终结果却可能不同。这被称为运行间不确定性(run-to-run nondeterminism),例如,运行两次完全相同的 Python 脚本,即使依赖库版本完全相同,结果也可能不同。

    虽然并发的原子加法操作会使核函数的执行结果变得不可预测,但对于大多数核函数来说,原子加法并非必需。

    事实上,在 LLM 的典型前向传播过程中,通常根本不需要使用原子加法。这可能令人感到意外,因为并行化计算中的归约操作通常可以从原子加法中获益。但实际上,原子加法在大多数情况下并非必需,主要原因有两点。

    1. 通常情况下,批处理维度上的并行性已经足够,因此我们无需在归约维度上进行并行化。

    2. 随着时间的推移,大多数神经网络库都采用了各种策略,以在不牺牲性能的情况下实现结果的可预测性。

    由于上述两个因素,对于绝大多数神经网络操作来说,不使用原子加法几乎不会带来性能损失。

    当然,仍然有少数常见操作在不使用原子加法时会遭遇显著的性能下降。例如,PyTorch 中的 scatter_add(即 a [b] += c)。不过,在大语言模型中唯一常用且依赖原子加法的操作,是 FlashAttention 的反向传播(backward)。

    然而,LLM 的前向传播过程中并不涉及任何需要原子加法的操作。因此,LLM 的前向过程本质上是运行间确定的(即每次运行结果一致)。



    维基百科上写道:一个确定性算法是在给定特定输入的情况下,始终产生相同输出的算法。而在这里,只要输入完全相同(即推理服务器处理的请求完全一致),前向传播就总是会生成完全相同的输出。

    然而,前向传播本身是确定性的并不意味着整个系统也是确定性的。比如,如果某个请求的输出依赖于并行用户的请求(例如 batch-norm 这样的操作),那么由于每个请求都无法预知其他并发请求的内容,从单个请求的视角来看,整个 LLM 推理过程就会是不确定性的。

    事实证明,我们的请求输出确实依赖于其他并发用户的请求。但这并不是因为跨 batch 泄露了信息,而是因为我们的前向传播过程缺乏批次不变性(batch invariance),这导致同一个请求的输出会受到前向传播中 batch size(batch size)变化的影响。

    批次不变性与确定性

    为了说明什么是批次不变性,我们可以简化问题,只关注矩阵乘法(matmul)。你可以假设所有的 matmul 实现都是运行间确定的,也就是说,同样的输入,每次运行都会得到相同的结果。

    但它们并不是批次不变的。换句话说,当 batch size 发生变化时,batch 中的每个元素可能会得到不同的计算结果。

    从数学角度来看,这是一种相当反常的性质。理论上,矩阵乘法在 batch 维度上应当是独立的,batch 中其他元素的存在与否,或 batch 的大小,都不应影响某个具体元素的计算结果。

    然而,我们通过实验证据可以发现,现实情况并非如此。



    请注意,这里的确定性是指每次运行结果都相同。如果你多次运行该脚本,它会始终返回相同的结果。

    但是,如果将非批处理不变的核函数用作更大推理系统的一部分,则整个系统可能变得不确定性。当你向推理端点发送请求时,从用户角度来看,服务器的负载情况是不可预测的。负载决定了核函数的 batch size,从而影响每个请求的最终结果。



    如果你把某种核函数不具备不变性的属性(例如:batch size)与该属性本身的不确定性(例如:服务器负载情况)组合在一起,就会得到一个不确定性的系统。

    换句话说,几乎所有大语言模型推理端点之所以是不确定的,主要原因就是负载(以及由此决定的 batch size)本身具有不确定性!这种不确定性并非仅限于 GPU,使用 CPU 或 TPU 运行的 LLM 推理端点也会存在同样的问题。因此,如果我们想避免推理服务器中的不确定性,就必须确保核函数对 batch size 具有不变性。

    为了理解如何实现这一点,我们首先需要了解为什么核函数默认情况下并不具备批处理不变性。

    我们如何使核具有批次不变性?

    为了确保 Transformer 模型的实现与 batch size 无关,我们必须确保模型中的每个核心模块都与 batch size 无关。幸运的是,我们可以假设每个逐点运算(pointwise operation)都与 batch size 无关。因此,我们只需要担心涉及的 3 个操作:RMSNorm、矩阵乘法和注意力。

    巧合的是,这些操作的难度正好是依次递增的。要想在保持合理性能的同时实现批次不变性,每一种操作都需要一些额外的考量。我们先从 RMSNorm 开始谈起。

    RMSNorm



    RMSNorm 实现方式:



    批次不变性的要求是,无论核函数的 batch size 如何,每个元素的归约顺序都必须保持不变。需要注意的是,这并不意味着我们必须始终使用相同的归约策略。例如,即使我们改变了要进行归约的元素数量,只要归约顺序不变,我们的算法仍然可以满足批处理不变性的要求。

    因此,只有当 batch size 影响到归约策略时,我们才会打破批次不变性。

    让我们来看一下 RMSNorm 的标准并行化策略。一般来说,并行算法都会从尽量减少核心之间的通信中获益。在这里,为了方便讨论,你可以假设我们所说的核心(cores)就是指 SM(Streaming Multiprocessors,流处理多处理器)。更具体地说,这里重要的性质是:核函数启动的线程块(threadblocks)数量多于 SM 的数量。

    基于这一点,一种可行的策略就是:将每个 batch 元素分配给一个核心,就像上图展示的那样。

    当我们增加 batch size 时,并不会影响归约策略;如果 batch size = 200 已经能为核函数提供足够的并行性,那么 batch size = 2000 显然也同样能够提供足够的并行性。



    另一方面,减小 batch size 也会带来一些挑战。由于我们为每个批次元素分配一个核心,减小 batch size 会导致核心数量大于批次元素数量,从而造成部分核心闲置。遇到这种情况,优秀的核函数工程师会采用前面提到的解决方案之一(原子加法或分段求和),从而保持良好的并行性,进而提升性能。然而,这会改变求和策略,导致该核函数不再具备 batch size 不变的特性。



    最简单的解决方案就是直接忽略这些情况。这并不是完全不合理的,因为当 batch size 很小时,核函数通常本来就能很快执行,因此即使出现一些减速,也不会造成灾难性的影响。

    如果我们必须优化这种场景,一种方法是:始终使用一种在极小 batch size 下也能提供足够并行度的归约策略。这样的策略会在 batch size 较大时导致过度并行,从而无法达到峰值性能,但它可以让我们在整个 batch size 范围内都获得尚可(虽然不是最佳)的性能表现。

    批次不变矩阵乘法



    从本质上讲,你可以把矩阵乘法看作是一次逐点运算后接一次归约。那么,如果我们通过将输出划分为小块来并行化矩阵乘法,就能得到一种类似的数据并行核函数策略,使得每一次归约都在单个核心内完成。

    与 RMSNorm 类似,矩阵乘法的批次维度(M 和 N)也可能变得过小,迫使我们必须沿归约维度(K)进行拆分。尽管有两个批次维度,矩阵乘法仍然需要每个核心有更多的工作量才能有效利用张量核心。例如,对于一个 [1024, K] x [K, 1024] 的矩阵乘法和一个标准的 [128, 128] 二维 tile 大小,数据并行策略最多只能将其分配到 64 个核心上,这不足以使 GPU 达到饱和。

    在矩阵乘法中沿归约维度进行拆分被称为 Split-K 矩阵乘法。与 RMSNorm 的情况一样,使用这种策略会破坏批次不变性。



    矩阵乘法还有一个额外的复杂性,即张量核心指令。对于归约操作,我们可以一次只处理一行;但高效的矩阵乘法核函数必须一次性操作一整个 tile。

    每条张量核心指令(例如 wgmma.mma_async.sync.aligned.m64n128k16)在内部可能有不同的归约顺序。选择不同张量核心指令的一个原因可能是 batch size 非常小。例如,如果我们使用的张量核心 PTX 指令操作的是一个长度为 256 的 tile,但 batch size 只有 32,那我们几乎浪费了所有的计算资源!当 batch size 为 1 时,最快的核函数通常根本不使用张量核心。



    因此,确保矩阵乘法批次不变性的最简单方法是:编译一个固定的核函数配置,并将其用于所有形状的计算。尽管这会损失一些性能,但在 LLM 推理场景下,这种损失通常不是灾难性的。特别是,Split-K 策略在 M 和 N 维度都很小时才最被需要,而幸运的是,在我们的应用场景中,N 维度(即模型维度)通常都相当大!



    批次不变性注意力机制



    在实现了矩阵乘法的批次不变性之后,注意力机制又引入了两个额外的难题 —— 这也很贴切,因为它正好包含两次矩阵乘法。

    1. 与 RMSNorm 和矩阵乘法仅在特征维度上进行归约不同,注意力机制现在需要在特征维度和序列维度上都进行归约。

    2. 因此,注意力机制必须处理各种影响序列处理方式的推理优化(例如分块预填充、前缀缓存等)。

    因此,为了在 LLM 推理中实现确定性,我们的数值计算必须对两个因素保持不变:一是单次处理的请求数量,二是每个请求在推理引擎中的切分方式。

    我们首先来了解一下注意力机制的标准并行策略,该策略最初由 FlashAttention-2 提出。与 RMSNorm 和矩阵乘法类似,其默认策略是数据并行策略。由于归约是沿着键 / 值(K/V)张量进行的,因此数据并行策略只能沿着查询(Q)张量进行并行化。

    例如,根据推理引擎的选择,一个序列可能被分成几个部分处理(如在分块预填充中),也可能一次性处理完毕(如果预填充未被分割)。为了实现批次不变性,对于一个给定的 token,其归约顺序必须独立于其所在序列中同时被处理的其他 token 的数量。

    如果你将 KV 缓存中的 K/V 值与当前正在处理的 token 的 K/V 值分开进行归约(就像在 vLLM 的 Triton 注意力核函数中那样),这个目标就无法实现。例如,在处理序列中的第 1000 个查询 token 时,无论 KV 缓存中有 0 个 token(预填充阶段)还是 999 个 token(解码阶段),其归约顺序都必须完全相同。



    为解决此问题,我们可以在注意力核函数运行前就更新 KV 缓存和页表,从而确保无论处理多少个 token,我们的键和值始终具有一致的内存布局。

    加上这一额外处理(以及前文提到的所有措施,如使用一致的 tile 大小),我们便能实现一个批次不变性的注意力机制!

    然而,这里存在一个重要问题。与矩阵乘法不同,LLM 推理中的注意力计算形状通常确实需要一个拆分 - 归约核函数(split-reduction kernel),这类核函数常被称为 Split-KV 或 FlashDecoding。这是因为如果我们不沿着归约维度进行并行,就只能沿着批次维度、头维度和查询长度维度进行并行。

    在注意力的解码阶段,查询长度非常小(通常为 1),因此除非 batch size 非常大,否则我们往往无法使 GPU 达到饱和状态。不幸的是,这种情况不像在 RMSNorm 和矩阵乘法中那样容易被忽略。例如,如果你的 KV 缓存非常长,即使只处理一个请求,注意力核函数的计算也可能耗时很长。



    此外,常用于注意力的拆分 - 归约策略也给批次不变性带来了挑战。例如,FlashInfer 的平衡调度算法会选择能够使 GPU 所有核心饱和的最大拆分大小,这使得其归约策略并非批次不变的。然而,与 RMSNorm / 矩阵乘法不同,无论 batch size 如何,仅仅选择一个固定的拆分数量是不够的。

    相反,为了实现批次不变性,我们必须采用固定拆分大小策略。换言之,我们固定的不是拆分的数量,而是每个拆分块的大小,这样最终会得到一个可变的拆分数量。通过这种方式,我们可以保证无论正在处理多少个 token,我们总是执行完全相同的归约顺序。



    实现

    我们基于 vLLM,通过利用其 FlexAttention 后端和 torch.Library,提供了一个确定性推理的演示。通过 torch.Library,我们能够以一种非侵入式的方式替换掉大部分相关的 PyTorch 算子。

    你可以在 thinking-machines-lab/batch-invariant-ops 找到「批次不变性」核函数库,以及在「确定性」模式下运行的 vLLM 示例。

    地址:https://github.com/thinking-machines-lab/batch_invariant_ops

    实验

    完成结果的不确定性程度如何?

    我们使用 Qwen3-235B-A22B-Instruct-2507 模型,在温度为 0 的设置下,使用提示词「Tell me about Richard Feynman」(非思考模式)采样了 1000 次完成结果,每次生成 1000 个 token。

    令人惊讶的是,我们得到了 80 个不同的完成结果,其中最常见的一个出现了 78 次。

    通过观察这些结果的差异,我们发现它们在前 102 个 token 上实际上是完全相同的!

    首次出现差异是在第 103 个 token。所有的结果都生成了「Feynman was born on May 11, 1918, in」这个序列。然而,接下来,其中 992 次结果生成了「Queens, New York」,而另外 8 次则生成了「New York City」。

    然而,当我们启用批次不变性核函数后,全部 1000 次结果都变得完全相同。这正是我们期望采样器应有的表现,但若不使用我们的批次不变性核函数,就无法实现确定性结果。

    性能

    目前,我们还没有投入精力优化批次不变性核函数的性能。不过,我们还是进行了一些实验来验证其性能是否仍在可用范围内。

    我们搭建了一个配备单块 GPU 的 API 服务器,运行 Qwen-3-8B 模型,并请求生成 1000 个序列,输出长度控制在 90 到 110 个 token 之间。



    性能下降的主要原因在于 vLLM 中的 FlexAttention 集成尚未经过深度优化。尽管如此,我们看到其性能并未出现灾难性下降。

    真正的在策略强化学习

    正如研究人员所指出的,训练和推理之间的数值差异会隐式地将我们的在策略强化学习(on-policy RL)转变为离策略强化学习(off-policy RL)。

    当然,如果我们甚至无法从两次相同的推理请求中获得每一位都相同的结果,那么在训练和推理之间获得每一位都相同的结果也是不可能的。因此,确定性推理使我们能够修改训练堆栈,从而在采样和训练之间获得每一位都相同的结果,最终实现真正的在策略强化学习。

    我们在 Bigmath 上,使用 RLVR 设置进行了实验,其中强化学习策略由 Qwen 2.5-VL instruct 8B 模型初始化,最大 rollout 长度为 4096。

    如果我们不使用离策略校正(即重要度加权)进行训练,我们的奖励会在训练中途崩溃;而添加离策略校正项则可以使训练顺利进行。但是,如果我们在采样器和训练器之间实现了每一位都相同的结果,我们就完全处于在策略状态(即 KL 散度为 0),同样可以顺利地进行训练。

    我们还可以绘制采样器和训练器之间对数概率的 KL 散度,其中所有 3 次运行都表现出显著不同的行为。在使用重要度加权运行时,KL 散度保持在 0.001 左右,并伴有偶尔的峰值。然而,在不使用重要度加权的情况下运行,最终会导致 KL 散度在大约与奖励崩溃同一时间出现峰值。当然,在运行「真正的在策略强化学习」时,我们的 KL 散度始终保持为 0,这表明训练策略和采样策略之间不存在任何差异。



    总结

    现代软件系统往往由多层抽象构成。在机器学习中,当我们遇到不确定性和一些微妙的数值差异时,人们往往会倾向于视而不见。

    毕竟,我们的系统本来就是「概率性的」,再多一点不确定性又有何妨?单元测试挂掉时,把 atol/rtol 调大点有什么问题?训练器和采样器之间的对数概率差异,应该不是真正的 bug 吧?

    我们拒绝这种消极心态。只要稍微多做一些努力,我们就能理解不确定性的根源,甚至真正解决它们!

    我们希望这篇博文能为社区提供一套可靠的思路,帮助大家在推理系统中应对不确定性,并激励更多人深入理解自己的系统。

    更新内容

    一、修复bug,修改自动播放;优化产品用户体验。

    二、 1.修复已知Bug。2.新服务。

    三、修复已知bug;优化用户体验

    四、1,交互全面优化,用户操作更加便捷高效;2,主题色更新,界面风格更加协调;3,增加卡片类个人数据

    五、-千万商品随意挑选,大图展现商品细节-订单和物流查询实时同步-支持团购和名品特卖,更有手机专享等你抢-支付宝和银联多种支付方式,轻松下单,快捷支付-新浪微博,支付宝,QQ登录,不用注册也能购物-支持商品收藏,随时查询喜爱的商品和历史购物清单。

    六、1.bug修复,提升用户体验;2.优化加载,体验更流程;3.提升安卓系统兼容性

    七、1、修复部分机型bug;2、提高游戏流畅度;

相关版本

    多平台下载

    Android版 PC版

    查看所有 0条评论>网友评论

    发表评论

    (您的评论需要经过审核才能显示) 网友粉丝QQ群号:70121100

    查看所有 0条评论>>

    相关游戏
    上海一酒店区别对待中外客人?假的 一念江南 陈都灵 杨采钰首晒与老公合照 林青霞去了巫山看了云 邓佳鑫逐日演唱会 APEX26赛季季中更新介绍 韩媒总结李在明就职100天 2024我国人均预期寿命达到79岁 东北明星超级足球赛笑点太密集 赴山海沧海一声笑MV 田曦薇脑子一动开始胡言乱语 王者联动罗小黑战记 黄一鸣直播说女儿被抢走 不是邪修是做饭天才 少女遭体罚身亡案今天再次开庭 智慧baby连麦龚琳娜 看完阅兵我就这样上车 波兰击落俄军无人机意味着什么 JYP一顶胯就转场 苹果的牙膏挤爆了 梓渝对歌曲和舞蹈新注解 JackeyLove多吃多赢 那英曾在孕期发现前任高峰出轨 洛阳两地停课一天 梓渝对歌曲舞蹈注入新的注解 尹子维十几天不见徐冬冬的反应 章昊回复说坠昊的桃黑黑 适龄女生HPV疫苗接种服务将推出 全国地域特色月饼图鉴 小学校长守校门口拦截教师节礼物 疯疯火火三角洲 特朗普下令全国降半旗 孙莉更新黄多多vlog 于适士兵突击里的许三多 才知道相声拜师有这么多讲究 许荔莎疑似现身派出所接受调查 郑州富士康近20万人赶工iPhone17 这么好的工作机器人貌似还真取代不了 这种军训对我的眼睛很好 成毅邀请赴山海之约 黄子韬徐艺洋或在10月16日左右举办婚礼 SHE合体为Ella打call 我的第一届学生现在怎么样了 红笔花束才是老师们的梦中情花 河南暴雨 智汇服贸潮向未来 曝2000万粉丝男星坠楼身亡 郑州富士康近20万人赶工iPhone17 全国地域特色月饼图鉴 欢乐家长群2给家长上难度了 扬州“越狱”卡皮巴拉喜提泳池别墅 今年的Mr Chu又来上分了 雷暴后400多人挤爆急诊科 少女遭体罚身亡案今天再次开庭 林允琥珀系船票转场 适龄女生HPV疫苗接种服务将推出 iPhone17Air和iPhone6对比 萧秋水红衣举令牌梦回李相夷 好想拥有像小狗一样的执行力 911恐袭24周年美国更加分裂 谭维维驭风海报审美遥遥领先 王者联动罗小黑 李乃文没有运气全是实力 祝绪丹回应点赞吐槽虞书欣视频 7岁孙子施救突发脑梗的奶奶 东契奇欧锦赛42分 更多大路货进入山姆会员商店 郑州非必要不外出 #让特朗普降半旗的查理柯克是谁# 一念江南 陈都灵 眼镜戴上是灵珠 眼镜一摘是魔丸 在丽江看见了哈尔的移动城堡 良子断层超过蔡徐坤 虞书欣好友米西为其发声 邪修版钓鱼就是快 6至17岁人群身高比5年前平均增加超2厘米 当你和朋友支持的是不同队伍时 那英老公回应 苹果新品哪些值得买 731鼠疫实验有多残忍
    更多>心动网络手游
    马斯克重夺首富仅领先10亿美元 特朗普政治盟友遭枪击身亡 喜欢朋友把我挂在朋友圈 易梦玲模仿JYP顶胯 良子断层超过蔡徐坤 曝高学历小花是木头美人 TFING个人演唱会 一念江南 陈都灵 男子为雨中两位老人送伞 娜扎李凯馨开播海报 人类幼崽的可爱瞬间 全智贤回来了 一念江南 王安宇 于朦胧 阿里能撼动美团的“铁王座”吗 东北明星超级足球赛笑点太密集 在丽江看见了哈尔的移动城堡 APEX26赛季季中更新介绍 特朗普政治盟友遭枪击身亡 热狗 本名羞耻症 邪修月饼只需要一秒 内娱分手季来了吗 成龙有新身份 chic拉满的流光运动风穿搭 专家分析乌政府大楼遭袭事件 赴山海沧海一声笑MV 在学校吃东西VS在家吃东西 三个少年官宣抽象到一起去了 卡塔尔是美国武器的主要购买国 长江实业辟谣李嘉诚捐款乌克兰 曾黎林熙蕾同框热聊 山河如愿英雄回家 祝绪丹回应点赞吐槽虞书欣视频 这才是真的魔童降世 归队收官戒断反应好大 杨采钰首晒与老公合照 将HPV疫苗纳入国家免疫规划 我的第一届学生现在怎么样了 罗小黑土门夜班 陈丽君谈演绎贾宝玉 JackeyLove多吃多赢 李晨晒四人聚餐合照 章昊沉浸式当爱豆的一天 王者荣耀哪吒联动皮肤 微信又有新功能 再也不怕发错群了 归队收官戒断反应好大 湖南男子驾车碾死同学被判死缓 贩毒8kg 毒贩因检举禁毒大队长免死 薛之谦出道20周年发文 美大豆收获季最大买家中国未下一单 看个厨综对豆瓣香水心动了 花少7也有自己的换乘恋爱 王者荣耀哪吒联动皮肤 巴黎合伙人 王者荣耀 医药股大幅下挫 宋亚轩星期五晚上 甲骨文创始人超越马斯克成世界首富 我画的赴山海变成吧唧 疯疯火火三角洲 长江实业辟谣李嘉诚捐款乌克兰 赴山海沧海一声笑MV 檀健次工作室精准突围式卷法 许昌暴雨 北斗七行全员祝贺辛芷蕾 巴黎合伙人 不是邪修是做饭天才 东北明星超级足球赛笑点太密集 911恐袭24周年 黄子韬徐艺洋的婚纱照路透 金灿荣说卡塔尔被以色列打懵了 李昀锐古力娜扎同框 艾瑞吧弟唱歌直拍 这么好的工作机器人貌似还真取代不了 那英曾在孕期发现前任高峰出轨 于适士兵突击里的许三多 麦小登关于母亲的遗憾 曾黎纽约看秀外场人气 刘耀文正是学习的年纪 暹罗猫小豆泥去世
    更多>mod游戏
    三个少年官宣抽象到一起去了 2分钟的预告成毅打了60秒 外交部回应蔡英文窜访日本 苹果2025秋季发布会 有人动武有人浇油 欧洲剑指俄罗斯 章昊沉浸式当爱豆的一天 花开锦绣 少女遭体罚身亡案今天再次开庭 用这首歌记录与世界的帧帧瞬间 吴京 送外卖是没双休的 全国地域特色月饼图鉴 微信又有新功能 再也不怕发错群了 郑允彩进行曲 王源红衣变装氛围感 孙莉更新黄多多vlog 赴山海今日开播成毅发文 2024年我国人均预期寿命达到79岁 杨采钰首晒与老公合照 李雪琴李一桐上不去的快乐老家 张婧仪活人感 巡乐环游记全阵容官宣 热狗 本名羞耻症 于朦胧快出来辟谣 政治盟友遭枪击身亡 特朗普:降半旗 刘宇宁巡演上海站明日开票 苹果2025秋季发布会 张婧仪回应一辈子演苗靖 许昌中心城区停工停业停运停课 诛仙鬼厉林惊羽高能对战 刘宇宁和他的百灵鸟朋友们 车澈街头小便 我们的歌翻唱 多名外籍人士上海街头冲突 调查公布 洛阳两地停课一天 北京原副市长高朋一审获刑12年 曝一念江南没有男演员愿意接 JYP一顶胯就转场 章若楠直播 巴黎合伙人 李晟40岁生日是和浪姐度过的 尹子维十几天不见徐冬冬的反应 哈马斯为何在卡塔尔开会 赵丽颖年度关键词大女主 内娱分手季来了吗 人民日报披露仪仗司礼大队受阅细节 当我养一只捷克狼犬想让他保护我 911恐袭24周年 眼镜戴上是灵珠 眼镜一摘是魔丸 7岁孙子施救突发脑梗的奶奶 马思纯回应网友让她和张晚意拍戏 特朗普盟友遭枪击身亡现场视频曝光 一念江南片方想换女主 河南多地发布暴雨红色预警 特朗普宣布降半旗纪念政治盟友 李宇春演唱会造型提前曝光 袁老 带学生比种水稻累多了 惠英红点赞网友制作全女版捕风追影 严浩翔觉得永远有反转永远有期待 陈建斌与蒋勤勤在江西庐山甜蜜撒糖 经典老歌什么时候听都不过时 鞠婧祎秋日邻家女大 7岁孙子施救突发脑梗的奶奶 李默庵故居第三次拍卖1595万成交 张峻豪Loventure演唱会 储殷:美国正在发生危险的变化 事发时那英正在伦敦陪伴女儿留学 惠英红点赞网友制作全女版捕风追影 不爱做家务可能是没归属感 特朗普宣布降半旗纪念政治盟友 三角洲周年庆新赛季爆料 网红回应夹子音爆火引全网模仿 巨石强森一身肌肉快瘦没了 外交部回应蔡英文窜访日本 胡军一家四口合照 业内制片人说一念江南没换人 孟子义喜人奇妙夜录制路透 辛芷蕾内娱女将军模版 北斗七行全员祝贺辛芷蕾 于朦胧 北斗七行全员祝贺辛芷蕾
    更多>像素rpg游戏
    一念江南 王安宇 那英曾在孕期发现前任高峰出轨 乌木香我只认TF 舒淇 感谢你成就了现在的我 高瀚宇尚筱菊来宿舍讲相声了 iPhone17系列上手 #让特朗普降半旗的查理柯克是谁# 新上海滩导演离世 雷暴后400多人挤爆急诊科 梓渝对歌曲和舞蹈新注解 林青霞去了巫山看了云 高佑思带无语哥按摩出新表情包 邪修版钓鱼就是快 北斗七行全员祝贺辛芷蕾 科学怪人拉挖稀 台湾高雄发电厂发生爆炸 我画的赴山海变成吧唧 河南大雨暴雨大暴雨 为何建立黄岩岛国家级自然保护区 于适士兵突击里的许三多 羽毛球冠军郑思维在云南花式带娃 罗小黑土门夜班 许昌中心城区停工停业停运停课 人类幼崽看到妈妈后变成乌萨奇 chic拉满的流光运动风穿搭 曝卢泰愚之子将任韩国驻华大使 九三阅兵后劲太大了 祝绪丹回应点赞吐槽虞书欣视频 谭维维驭风海报审美遥遥领先 肖战同款焖猪蹄爆单骑手来不及送 国防部提醒日本谨言慎行 蒲熠星语气里全是不确定 Bad Blood舞蹈挑战 SHE合体为Ella打call “中国未下单” 美方急了 北京原副市长高朋一审获刑12年 九三受阅官兵迎接志愿军烈士回家 爱奇艺把李莲花摇过来了 科学怪人拉挖稀 王者哪吒罗小黑联动皮肤 有人动武有人浇油 欧洲剑指俄罗斯 阿里能撼动美团的“铁王座”吗 檀健次演技稳 虞书欣陷多重舆论风波 这种军训对我的眼睛很好 丝瓜汤的N种吃法 古力娜扎助理被粉丝当成明星 人民日报披露仪仗司礼大队受阅细节 那英曾在孕期发现前任高峰出轨 军训服校服一衣两穿 梓渝对歌曲舞蹈注入新的注解 在李乃文身边林一都聪明了 被学校逼出来的潜能 科学怪人拉挖稀 河南多地因暴雨停课 沈阳以最高礼遇迎接英雄归来 适龄女生HPV疫苗接种服务将推出 成毅邀请赴山海之约 章昊沉浸式当爱豆的一天 AngelababyG社生频 美媒炸了:卡塔尔都被打 下个会是谁 贵阳网红小猫被曝遭挖眼砍断四肢 对不起李莲花我出轨了 那英节目中曾多次表白老公 2分钟的预告成毅打了60秒 张智超舞台现场好燃 假期中的她们花果山辨真假 男童陪伴妈妈遗体数日父亲发声 才知道相声拜师有这么多讲究 韩安冉被前夫泽西指控涉毒 当我养一只捷克狼犬想让他保护我 穆祉丞自由演唱会 郑允彩进行曲 舒淇 感谢你成就了现在的我 那些值得二刷三刷的国产剧 灼灼韶华今日开播 李默庵故居第三次拍卖1595万成交 张维伊是真的听劝 喝牛奶和从不喝牛奶的身体差距 张智超舞台现场好燃
    热门冒险解谜
    最新冒险解谜
    相关专辑
    刘轩丞中气十足的恭喜失败share 叶童后悔长发执念share 网红回应夹子音爆火引全网模仿share 王安宇一念江南粉丝应援花墙share 东北明星足球超级联赛share 成毅邀请赴山海之约share 各省丰收战队申请出战share 微信又有新功能 再也不怕发错群了share 李昀锐古力娜扎同框share 7岁孙子施救突发脑梗的奶奶share 胡军一家四口合照share 车澈乃万街头拥抱share 井迪井胧姐弟钢琴大战share 章若楠直播share 网传演员于朦胧坠楼share 我的同桌是反派 天选群像剧share 特朗普政治盟友被杀后警方抓错嫌犯share 湖南男子驾车碾死同学被判死缓share 邓佳鑫逐日演唱会share 巡乐环游记全阵容官宣share 欧盟拟部分中止与以色列贸易share 偏心妈巨婴哥恶毒嫂迫嫁的她share 电影731冻伤实验有多可怕share 余宇涵超级新星演唱会share 辛芷蕾想要辛芷蕾得到share 赵磊谈上婚综原因share 郑州多部门联合保通share 我家那闺女和快乐的大人梦幻联动share 赵磊谈上婚综原因share 尼康ZR深度评测share 梓渝每一次练习都是对舞蹈新注解share 什么是雷暴哮喘share 井迪井胧姐弟钢琴大战share 张维伊造型变清爽了share 娜扎黑长直紫裙share 归龙潮开服到停服争议盘点share 被短暂超越后 马斯克重新回世界首富share 马思纯回应网友让她和张晚意拍戏share AngelababyG社生频share 半夜带好朋友去厕所的小猫share 郑州富士康近20万人赶工iPhone17share 李雪琴花式比心自己笑自己share 李雪琴花式比心自己笑自己share 石榴红了满天山share 储殷:美国正在发生危险的变化share 虞书欣掉粉超135万share 赴山海沧海一声笑MVshare 戚薇14年前的回忆正中眉心share 郑州非必要不外出share 潮汕英歌亮相宝岛台湾share 卡塔尔是美国武器的主要购买国share 单曲循环的OSTshare 老一辈严选的店总没错share 赴山海一句台词概括成毅所有角色share 历届学姐留下来的无价之宝share 诛仙鬼厉林惊羽高能对战share 警方通报女子和外卖员因剐蹭打架share iG进世界赛概率有多大share 女子称试图把父亲卖去缅甸share 和成毅一起赴山海share 男童陪伴妈妈遗体数日父亲发声share “云南公安出手打退伍军人”系谣言share 于朦胧share 孙莉更新黄多多vlogshare 水贝黄金回收价创新高share 117名韩国女性首次直接起诉美军share 警惕小学生中流行仿烟棒棒糖share 为何建立黄岩岛国家级自然保护区share 这才是真的魔童降世share 热狗 本名羞耻症share 牛弹琴:美国又全国降半旗了share 网传俄罗斯六代机share 河南大雨暴雨大暴雨share 特朗普盟友遭枪击身亡现场视频曝光share 陈好从事教师行业11年share 韩女子咬断性侵者舌头61年终获无罪share 石平是彻头彻尾的反华分子share 苹果17share 司机途经河南时备胎丢失系谣言share 特朗普政治盟友遭枪击身亡share 直击河南大暴雨share 北斗七行全员祝贺辛芷蕾share 九三阅兵后劲太大了share 陈好从事教师行业11年share 人再笨还能学不会微积分吗share 人民日报披露仪仗司礼大队受阅细节share 全球首富现任妻子是中国姑娘share 孟子义cos律政俏佳人share 许昌中心城区停工停业停运停课share 媒体:低谷的中国足球需托举非踩踏share 电影731发布四大制式海报share WTT澳门冠军赛9月11日赛程share 辽宁有望诞生一世界级金矿share 东契奇空砍39分share 余宇涵超级新星演唱会share “鬼子专业户”的另一面share 停止通过他人反应确认自我价值share 台湾高雄发电厂发生爆炸share 萧秋水红衣举令牌梦回李相夷share WTT澳门冠军赛9月11日赛程share 国防部提醒日本谨言慎行share 管乐否认把粉丝礼物送给相亲对象share 田曦薇脑子一动开始胡言乱语share 金灿荣说卡塔尔被以色列打懵了share 各省丰收战队申请出战share 蒋勤勤秋味好浓share 911恐袭24周年美国更加分裂share 这个王安宇是老公级的share 以色列袭卡塔尔有哪些余波share 93岁老兵推着98岁老兵一起走share 网红回应夹子音爆火引全网模仿share 河南多地发布暴雨红色预警share 一念江南片方想换女主share 休了他share 梓渝连续三天登顶越南趋势share iPhone 17系列怎么选share 周杰伦又在透露新歌线索了share 张峻豪Loventure演唱会share 许昌暴雨share 被短暂超越后 马斯克重新回世界首富share 李乃文没有运气全是实力share 王安宇一念江南粉丝应援花墙share 人再笨还能学不会微积分吗share 薛之谦葫芦果音乐节share 停止通过他人反应确认自我价值share 司机途经河南时备胎丢失系谣言share 甲骨文创始人超越马斯克成世界首富share 韩安冉前夫否认离婚分割财产share 十余名阿姨在路中央练舞share 曾黎纽约看秀外场人气share 人民日报披露仪仗司礼大队受阅细节share 加拿大华人屡遭冤假错案share 高瀚宇尚筱菊来宿舍讲相声了share 男子抢走60张刮刮乐 刮20张中410元share 李晟40岁生日是和浪姐度过的share 张予曦新发色美得很权威share 911恐袭24周年share 以总理要求卡塔尔驱逐哈马斯领导人share 宴请年少的自己发现是鸿门宴share 赴山海江湖浮世绘版海报share
    用户反馈

    反馈原因

    其他原因

    联系方式