首页 >热点 > > 正文

关于 Prompt Engineering 你该了解啥?OpenAI 应用研究负责人帮你梳理了

机器之心 2023-04-23 03:40:00

选自 Lil ’ Log

机器之心编译


(资料图片仅供参考)

编辑:rome rome

随着 ChatGPT、GPT-4 等模型的兴起,人们对如何创建提示以获得想要的输出越来越感兴趣。研究者对特定提示的响应可能很难预测,并且会因模型的不同而不同。本文来自 OpenAI 的翁丽莲(Lilian Weng) 撰文介绍了关于提示的一些内容,包括基础提示、指令提示等内容。

Prompt 工程,也称为 In-Context Prompt,是指在不更新模型权重的情况下如何与 LLM 交流以引导其行为来获得所需结果的方法。这是一门经验科学,Prompt 工程方法的效果在模型之间可能会有很大差异,因此需要大量的实验和启发式方法。

本文来自 OpenAI 的 Lilian Weng ( 翁丽莲 ) 介绍了一些关于提示工程的知识。翁丽莲为 OpenAI 人工智能应用研究的负责人,2018 年加入 OpenAI,在 GPT-4 项目中主要参与预训练、强化学习 & 对齐、模型安全等方面的工作。

主要内容包含以下章节,下面我们看看本文主要内容。

基础 Prompt

Zero-shot 和 few-shot 学习是 prompt 模型的两种最基本的方法,许多关于 LLM 论文都有涉及,并常用于评估 LLM 的性能。

Zero-Shot 学习

Zero-Shot 学习是简单地将任务文本输入模型并要求其返回结果。(所有情感分析示例均来自 SST-2)

Text: i"ll bet the video game is a lot more fun than the film.Sentiment:

Few-shot 学习

Few-shot 学习提供了一组关于目标任务的高质量的演示,每个演示都包含目标任务的输入和期望的输出。当模型首先看到好的例子时,它可以更好地理解人类的意图和对所需答案的标准。因此,与 zero-shot 学习相比,few-shot 学习通常会导致更好的性能。然而,这样的代价是消耗更多的 token,并且当输入和输出文本很长时,可能会达到上下文长度限制。

Text: ( lawrence bounces ) all over the stage, dancing, running, sweating, mopping his face and generally displaying the wacky talent that brought him fame in the first place.Sentiment: positive

Text: despite all evidence to the contrary, this clunker has somehow managed to pose as an actual feature movie, the kind that charges full admission and gets hyped on tv and purports to amuse small children and ostensible adults.Sentiment: negative

Text: for the first time in years, de niro digs deep emotionally, perhaps because he"s been stirred by the powerful work of his co-stars.Sentiment: positive

Text: i"ll bet the video game is a lot more fun than the film.Sentiment:

许多研究探讨了如何构建上下文示例以最大限度地提高性能,并观察到 prompt 格式、训练示例和示例顺序的选择可能导致截然不同的性能,从接近随机猜测到接近 SOTA。

Zhao 等人的研究调查了 few-shot 分类情况,并提出几个导致高方差的原因(他们在实验中使用 GPT-3):(1)如果标签在示例之间的分布不平衡,会导致 Majority label 偏差;(2) Receny 偏差是指模型可能在最后重复标签的趋势;(3) Common token 偏差表明 LLM 倾向于生成常见的 token 而不是罕见的 token。为了克服这类偏差,他们提出了一种方法来校准模型输出的标签概率,使得当输入字符串为 N/A 时,标签的概率输出变为均匀分布。

样本选择小技巧

在 embedding 空间中使用 k-NN 聚类选择与测试示例在语义上相似的示例 ( Liu et al., 2021);

为了选择多样化且具有代表性的示例集, [ Su et al. ( 2022 ) ] 提出使用基于图的方法: ( 1 ) 首先,构造一个有向图 G= ( V,E ) 基于嵌入(例如通过 SBERT 或其他嵌入模型)样本之间的余弦相似度,其中每个节点指向其 k 个最邻近节点; ( 2 ) 从一组选定样本 L= 和一组剩余样本 U 开始。每个样本 u ∈ U 的 score 表示为:,如果选择了 v 的许多邻近节点,则 s ( v ) 很低,因此评分鼓励选择不同的样本;

[ Rubin et al. ( 2022 ) ] 提出通过特定于一个训练数据集的对比学习来训练 embedding,以进行上下文学习样本选择。给定每个训练对 ( x,y ) ,一个示例 e_i(格式化的输入 - 输出对)的质量可以通过 LM 分配的条件概率来衡量:,可以将其他具有 top-k 和 bottom-k 分数的示例识别为每个训练对的正负候选集,并将其用于对比学习;

一些研究人员尝试使用 Q-Learning 来进行样本选择 ( Zhang et al. 2022 ) ;

受基于不确定性的主动学习的启发, [ Diao et al. ( 2023 ) ] 建议在多次抽样试验中识别熵较大的例子。然后注释这些示例以用于 few-shot prompt。

关于样本排序的小技巧

建议保持样本选择的多样性、与测试样本相关并以随机顺序排列,以避免 Majority Label bias 和 Recency bias;

增加模型大小或包含更多训练样本并不能减少不同上下文样本排列的方差。同一顺序可能适用于一个模型,但对另一个模型效果不佳。当验证集有限时,考虑选择顺序,使得模型不会产生极不平衡的预测或对其预测过于自信 ( Lu et al. 2022 ) 。

指令 prompt

在 prompt 中使用 few-shot 示例的目的是向模型解释我们的意图,换句话说,以演示的形式向模型描述任务指令。然而,few-shot 样本在标记使用方面可能很昂贵,并且由于上下文长度有限,它会限制输入长度。那么,为什么不直接给出指令呢?

Instructed LM 模型(例如 InstructGPT、自然指令)通过高质量的元组(任务指令,输入,正确输出)来微调预训练模型,以使 LM 更好地理解用户意图并遵循指令。RLHF(来自人类反馈的强化学习)是一种常用的方法。指令跟随式微调的好处在于,它使模型更加符合人类意图,大大降低通信成本。

与指令模型交互时,应该详细描述任务要求,尽量具体和精确,避免说 " 不要做某事 ",而是具体说明要做什么。

Please label the sentiment towards the movie of the given movie review. The sentiment label should be "positive" or "negative". Text: i"ll bet the video game is a lot more fun than the film. Sentiment:

向指定群体解释是另一种聪明的指示方式,例如为孩子们制作教育资料

Describe what is quantum physics to a 6-year-old.

以及安全的内容

... in language that is safe for work.

情境指令学习 [ Ye et al. 2023 ] 将 few-shot 学习与指令 prompt 相结合。它在 prompt 中包含多个跨不同任务的演示示例,每个演示都由指令、任务输入和输出组成。请注意,他们的实验仅针对分类任务,指令 prompt 包含所有标签选项。

Definition: Determine the speaker of the dialogue, "agent" or "customer".Input: I have successfully booked your tickets.Ouput: agent

Definition: Determine which category the question asks for, "Quantity" or "Location".Input: What"s the oldest building in US?Ouput: Location

Definition: Classify the sentiment of the given movie review, "positive" or "negative".Input: i"ll bet the video game is a lot more fun than the film.Output:

自洽采样

自洽采样 [ Wang et al. 2022a ] 是对 temperature > 0 的多个输出进行采样,然后从这些候选中选择最好的一个。选择最佳候选的标准因任务而异。一般的解决方案是选择多数票。对于易于验证的任务,例如带有单元测试的编程问题,可以简单地运行解释器并通过单元测试验证正确性。

思维链 ( CoT )

思维链 ( CoT ) prompt ( Wei et al. 2022 ) 生成一系列短句来逐步描述推理逻辑,称为推理链,最终得出最终答案。CoT 的好处对于复杂的推理任务更为明显,同时使用大型模型(例如,参数超过 50B)。简单的任务从 CoT 的 prompt 中获益甚微。

CoT prompt 的类型

CoT prompt 的两种主要类型:

few-shot CoT:通过一些演示来给模型 prompt,每个演示都包含人类编写(或模型生成)的高质量推理链。

(所有数学推理例子均来自 GSM8k)

Question: Tom and Elizabeth have a competition to climb a hill. Elizabeth takes 30 minutes to climb the hill. Tom takes four times as long as Elizabeth does to climb the hill. How many hours does it take Tom to climb up the hill?Answer: It takes Tom 30*4 = <<30*4=120>>120 minutes to climb the hill.It takes Tom 120/60 = <<120/60=2>>2 hours to climb the hill.So the answer is 2.===Question: Jack is a soccer player. He needs to buy two pairs of socks and a pair of soccer shoes. Each pair of socks cost $9.50, and the shoes cost $92. Jack has $40. How much more money does Jack need?Answer: The total cost of two pairs of socks is $9.50 x 2 = $<<9.5*2=19>>19.The total cost of the socks and the shoes is $19 + $92 = $<<19+92=111>>111.Jack need $111 - $40 = $<<111-40=71>>71 more.So the answer is 71.===Question: Marty has 100 centimeters of ribbon that he must cut into 4 equal parts. Each of the cut parts must be divided into 5 equal parts. How long will each final cut be?Answer:

Zero-shot CoT:使用像「让我们一步一步来思考」这样的自然语言语句来明确鼓励模型首先生成推理链,然后 prompt「因此答案是」来生成答案 ( Kojima et al. 2022 ) 。或者类似的陈述「让我们一步一步地解决这个问题,以确保我们有正确的答案」(Zhou et al. 2022)。

Question: Marty has 100 centimeters of ribbon that he must cut into 4 equal parts. Each of the cut parts must be divided into 5 equal parts. How long will each final cut be?Answer: Let"s think step by step.

小技巧和扩展

自洽采样可以通过抽取多个不同的答案然后进行多数表决来提高推理的准确性。 ( Wang et al. 2022a ) ;

集成学习的另一种方法是改变样本顺序或使用模型生成的基本原理来代替人工编写的基本原理,以在多个样本试验中引入随机性。然后聚合模型根据多数投票的结果获得最终答案。 ( Wang et al. 2022b ) ;

如果训练样例只与真实答案相关联,但没有基本推理,可以遵循 STaR(Self-Taught Reasoner;Zelikman et al. 2022)方法:(1)让 LLM 生成推理链,只保留那些导致正确答案的链; ( 2 ) 然后用生成的基本推理微调模型并重复该过程直到收敛。需要注意的是,较高的 temperature 更有可能产生错误的基本原理和正确的答案。如果训练样本没有真实答案,可以考虑使用多数票作为 " 正确 " 答案;

Prompt 具有更高推理复杂性的演示可以实现更好的性能,其中复杂性由链中推理步骤的数量来衡量。分隔推理步骤时,换行符 n 比 " 步骤 i"、句号或分号等要好 ( Fu et al. 2023 ) ;

Complexity-based 的一致性是通过仅在前 k 个复杂链中进行多数投票表决,选出 k 个中明确表现较好的复杂链 ( Fu et al. 2023 ) ;

[ Shum et al. ( 2023 ) ] 发现在他们的实验中,仅使用复杂示例的 CoT 提示可以提高复杂问题的准确性,但在简单问题中表现不佳 ( GSM8k 上的表现就是明显的证据);

将 Q: 更改为 Question: 发现很有帮助 ( Fu et al. 2023 ) ;

[ Ye & Durrett ( 2022 ) ] 发现,对于涉及文本推理的 NLP 任务(即 QA 和 NLI),在 prompt 中包含解释的好处有用处但是不大,并且效果因模型而异。他们观察到解释更可能是非事实的而不是不一致的(即解释是否需要预测)。非事实的解释很可能导致错误的预测;

[ Self-Ask ( Press et al. 2022 ) ] 是一种反复 prompt 模型提出后续问题以迭代构建思维过程的方法。可以通过搜索引擎结果回答后续问题。同样,IRCoT [ Interleaving Retrieval CoT;Trivedi et al. 2022 ] 和 ReAct [ Reason + Act;Yao et al. 2023 ] 将迭代 CoT 提示与维基百科 API 查询相结合,以搜索相关实体和内容,然后将其添加回语境中。

图 1. Self-Ask 如何与外部搜索查询一起使用(图源:Press et al. 2022)。

自动 Prompt 设计

Prompt 是一系列前缀 token,可增加在给定输入的情况下获得所需输出的概率。因此,可以将它们视为可训练参数,并通过梯度下降直接在嵌入空间上对其进行优化,例如 AutoPrompt [ Shin et al., 2020, Prefix-Tuning ( Li & Liang ( 2021 ) ] ,P-tuning [ Liu et al. . 2021 ) ] 和 Prompt-Tuning [ Lester et al. 2021 ] 。从 AutoPrompt 到 Prompt-Tuning 的趋势是设置逐渐简化。

APE [ Automatic Prompt Engineer;Zhou et al. 2022 ] 是一种搜索模型生成的候选指令池,然后根据所选得分函数过滤候选集以最终选择得分最高的最佳候选的方法。

1、Prompt LLM 根据 input-output 对形式的演示集合生成候选指令。例如。{{Given desired input-output pairs}}nnThe instruction is;

2、给定 Dtrain={ ( x,y ) } 的数据集,想要找到一条指令 ρ 使得 ρ =arg max ρ E ( x,y ) ∈ Dtrain [ f ( ρ ,x,y ) ] ,其中 f ( . ) 是每个样本的得分函数,比如如执行精度 [ LM ( .| ρ , x ) =y ] 或对数概率:Plm ( y| ρ ,x ) ;

3、使用迭代蒙特卡洛搜索方法通过 prompt 提出语义相似的变体来改进最佳候选,例如 Generate a variation of the following instruction while keeping the semantic meaning.nnInput: ...nnOutput:...

为了自动构建 CoT prompt [ Shum et al. ( 2023 ) ] 建议 augment-prune-select,包含三个步骤的过程:

1.Augment:使用 few-shot 或 zero-shot CoT prompt 生成给定问题的多个伪 CoT;

2.Prune:根据生成的答案是否与基本事实相匹配来修剪伪链;

3.Select:应用 variance-reduced 梯度策略来学习所选示例的概率分布,同时将示例的概率分布作为策略,将验证集的准确性作为奖励。

[ Zhang et al. ( 2023 ) ] 采用聚类技术对问题进行抽样,然后生成链。他们观察到 LLM 倾向于犯某些类型的错误。一种类型的错误在嵌入空间中可能相似,因此被组合在一起。通过只从频繁错误的集群中抽取一个或几个样本,可以防止对一种错误类型的过多错误演示,并收集一组不同的例子。

1. 问题聚类:嵌入问题并运行 k-means 聚类的方法;

2. 示例选择:从每个簇中选择一组有代表性的问题;即来自一个簇的一个示例。每个簇中的样本按到簇质心的距离排序,最接近质心的样本首先被选择;

3. 生成推理链:使用 zero-shot CoT 为选定的问题生成推理链,并构建 few-shot prompt 来运行推理。

增强语言模型

[ Mialon et al. ( 2023 ) ] 对增强语言模型进行的一项调查。涵盖了多类增强推理技能和使用外部工具能力的语言模型。推荐读者可以读一下。

检索

通常,我们需要在模型预训练时间截止或内部 / 私有知识库之后,完成需要最新知识的任务。在这种情况下,如果不在 prompt 中显式提供上下文,模型将不知道上下文。开放领域问答的许多方法都依赖于首先在知识库上进行检索,然后将检索到的内容作为 prompt 的一部分。这个过程的准确性取决于检索和生成步骤的质量。

[ Lazaridou et al. ( 2022 ) ] 研究了如何使用谷歌搜索进行文档检索以增强 LLM。给定一个问题 q,从谷歌返回的 20 个 URL 中提取文本,得到一组文档。由于这些文档很长,因此每个文档被拆分为 6 个句子的段落,{p}。段落是根据证据段落和查询之间基于 TF-IDF 的余弦相似性进行排序的。在 prompt 中只使用最相关的段落来产生答案 a.

对于闭卷问答,每个演示的格式如下,以构建 few-shot prompt。发现将问题与证据交换(问题和答案之间的距离更长)在所有数据集中始终产生较低的结果。

Evidence: ...Question: ...Answer: ...

答案的概率以三种方式计算:

1.RAG 风格,,其中 是 TF-IDF 段落和问题表示之间的归一化余弦相似度。

2. 噪声信道推断:

3.Product-of-Experts ( PoE ) ,结合上面使用的所有概率,但不包括

根据他们在生成和分类任务的实验,在三个答案的重新排序得分中,PoE > 噪声信道推断 > RAG。在所有概率中,pLM ( a|q,pi ) 和 pLM ( q|pi,a ) 提供的信息最多。pLM ( q|pi,a ) 捕捉到 LM 在给定证据段落和答案的情况下对问题的解释有多好,并且可以可靠地用于对候选答案进行重新排序。

针对基于不同日期的问题的 SituatedQA 数据集进行的一项观察是,尽管 LM(预训练截止日期为 2020 年)可以通过 Google 搜索访问最新信息,但其在 2020 年后问题上的表现仍然比 2020 年前问题差很多。这表明上下文信息和模型内部知识之间存在一些差异或参数冲突。

有趣的是,即使只有 " 内部检索 " 也是有益的,即在回答问题之前生成关于某个主题的知识 [ Liu et al. 2022 ] 。首先可以使用下面的模板来抽取知识:

Generate some knowledge about the input. Examples:

Input: What type of water formation is formed by clouds?Knowledge: Clouds are made of water vapor.

Input: {question}Knowledge:

然后用模型生成的知识,进一步给 LM 进行 prompt 得到答案。

编程语言

既有 PAL(程序辅助语言模型 ) [ Gao et al. 2022 ] 和 PoT ( Program of Thoughts prompting [ Chen et al. 2022 ] 要求 LLM 生成编程语言语句来解决自然语言推理问题,从而将解决方案步骤转移到运行时,如 Python 解释器。这样的设置解耦了复杂的计算和推理。该方法依赖于具有足够好的编程技能的 LM。

图 2. 比较 CoT 和 PoT. ( 图片源自 : Chen et al. 2022 ) 。

外部 API

TALM(Tool Augmented Language Models [ Parisi et al. 2022 ] )是一种通过文本到文本 API 调用增强的语言模型。LM 被引导生成以任务输入文本为条件的工具调用和工具输入文本,以构建 API 调用请求。当 result 出现时,调用指定的工具 API,并将返回的结果附加到文本序列。最终输出是在 output token 之后生成的。

图 3. TALM 中调用 API 的格式 ( 图片源自 : Parisi et al. 2022 ) 。

TALM 采用 self-play 的方法来迭代引导工具使用示例的数据集,并用它来微调 LM。这个迭代的 self-play 模仿了一个 RL 过程,其中 LM 是策略网络,它由带有二元奖励信号的策略梯度训练。

图 4. Self-play 迭代提升模型的性能 ( 图片源自 : Parisi et al. 2022 ) 。

Toolformer [ Schick et al. 2023 ] 是一种可以通过简单的 API 使用外部工具的 LM,通过自我监督的方式构建,每个 API 只需要少量的演示。Toolformer 的工具箱包括:

计算系统:帮助 LM 缺乏精确的数学技能;

问答系统:帮助解决无效内容;

搜索引擎:在预训练截止时间后提供最新信息;

翻译系统:提高低资源语言性能;

日历系统:使 LM 了解时间进程。

图 5. 如何构建 Toolformer. ( 图片源自 : Schick et al. 2023 ) 。

Toolformer 的训练过程如下:

1.Prompt 注释下的 API 调用。要求预训练的 LM 通过带有 API 调用使用示例的 few-shot 学习来注释数据集。格式化示例:

图 6. 数据集如何在调用 API 的时候注释 ( 图片源自 : Schick et al. 2023 ) 。

每个 API 调用都表示为一个元组(API 名称,相应的输入),其对应的结果记为 r。有结果和无结果的 API 调用序列分别标注如下:

基于概率 的 API 调用,如果概率大于某个阈值,则选择前 k 个候选在位置 i 进行 API 调用;

然后,从 LM 中采样潜在的 API 调用,其中序列 [ prompt ( x ) ,x1, … ,xi 1, API ] 作为前缀, /API 作为后缀。

2. 根据 API 调用是否有助于模型预测未来 token 来过滤注释。使用自监督损失来确定哪些 API 调用产生实际的帮助。

执行每个 API 调用 c_i 得到对应的结果 r_i;

计算 LM 在 token 序列 xi,...,xn 上的加权交叉熵损失,当模型以 prompt 为前缀时。计算了两个版本,一个带有 API 结果,另一个带有空序列 ε;

仅保留大于阈值的 API 调用,这表示添加此 API 调用及其结果有助于模型预测未来的 token。

3. 在注释数据集上微调 LM。新的训练序列构造为训练数据是原始数据集(例如论文中的 CCNet 子集)及其增强版。

在推理时,解码会一直运行,直到模型产生 " → "token,表明它期待接下来来自 API 调用的响应。

Toolformer 目前不支持在链中使用工具(即使用一个工具的输出作为另一个工具的输入)或以交互方式(即在人工选择后采用 API 响应)。两者都是未来扩展模型的方向。

原文链接:https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/

THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

上一篇: 下一篇:
x
推荐阅读

关于 Prompt Engineering 你该了解啥?OpenAI 应用研究负责人帮你梳理了

2023-04-23

中疾控:4月14日至20日,新发现本土重点关注变异株275例-环球今日讯

2023-04-23

蔡司成长乐镜片原理_蔡司成长乐镜片优缺点|独家

2023-04-23

宝马120i后视镜怎么调节,120i倒车镜怎么加热_全球关注

2023-04-23

世界观速讯丨小黄车押金退不了怎么没有人管呢_小黄车押金退不了怎么办

2023-04-23

逍遥开天录txt_逍遥开天录|世界短讯

2023-04-22

世界聚焦:覆盆子酒品牌_覆盆子酒

2023-04-22

四川稻城县雷击森林火灾扑救进行中 火场地形复杂多为断崖-焦点要闻

2023-04-22

澳门男单4强出炉!樊振东出局,王楚钦PK张本智和,马龙决战黑马-播资讯

2023-04-22

明天开幕!未来可期

2023-04-22

环球快资讯丨贵州省毕节市发布冰雹橙色预警

2023-04-22

大众朗逸1.5T车型发布 动力更强

2023-04-22

微速讯:重磅微视频:读书之美

2023-04-22

精选!截至3月末私募基金管理规模达20.33万亿元

2023-04-22

聚焦:qq个人轨迹查看方法介绍_qq个人轨迹查询教程

2023-04-22

天津13所高校新增36个本科专业_热点

2023-04-22

七国外长会议声明内容_七国外长会议

2023-04-22

扎心格列兹曼:菲利克斯来马竞一年就西甲夺冠,我九年了还没|世界热门

2023-04-22

化解冲突,展现对话协商的力量(寰宇平)

2023-04-22

新漫评:2023年已有万人命丧枪下 美国政府管控无能

2023-04-22

奇迹世界2虚拟机多开_奇迹世界2多开器|天天讯息

2023-04-22

全球百事通!新鲜贝贝小南瓜保存 新鲜贝贝小南瓜如何保存呢

2023-04-22

恩比德:不记得自己的恶犯了 但记得导致克拉克斯顿被驱逐的技犯 当前速递

2023-04-22

当前热点-特雷-杨:后卫应该掌控比赛 我跟穆雷都是相当优秀的后卫

2023-04-22

三角形三条边的关系(三角形三条边的关系是什么四年级)-天天快消息

2023-04-22

雨洁携云南真实故事登上抖音闻香季,打样国货香氛

2023-04-22

两大新能源巨头大动作,钠电池年内将“上车”!这些概念股业绩报喜,市盈率最低不到5倍

2023-04-22

男篮世界杯抽签分档公布 中国男篮位居第六档|全球热点评

2023-04-22

红米Note13Pro曝光:天玑8000+5000mAh+三摄,性价比机皇来了 天天热消息

2023-04-22

耶鲁大学心理学公开课课件(耶鲁大学有什么专业)-全球今日报

2023-04-22

春节的来历和风俗是什么(殷商时期年头岁尾的祭神祭祖活动)

2023-04-22

世界观热点:【甘快看】甘肃100家劳动者驿站增设“健康互助小屋” 统一添置健康设备,邀请医护人员驻点服务

2023-04-22

医学SCI文献阅读翻译软件

2023-04-22

环球简讯:华商报吧 陕西华商报

2023-04-22

即时焦点:深圳持续发力优化营商环境 经营主体突破四百万户

2023-04-22

我们的节日|上巳,三月三日天气新-全球最资讯

2023-04-22

热心志愿服务的宁波“银发夫妻档”_全球播报

2023-04-22

毛语伦比/估值低股息率高 花旗目标53美元\毛君豪_头条

2023-04-22

【聚看点】动物洗的什么奇葩澡

2023-04-22

锦江酒店:19年及20年持续加盟费收入占持续加盟费及劳务派遣服务收入的近80%-世界滚动

2023-04-22

环球热资讯!摔角动态戴娜·布鲁克无缘女子冠军赛的真实原因曝光

2023-04-22

世界新消息丨电蚊香液离地面多少距离?

2023-04-22

焦点消息!难怪不兴卫衣了!今年流行的“大一号”衬衫,原来这么时髦洋气

2023-04-22

2023年4月21日1美元兑多少卢布

2023-04-22

天天微资讯!诗情画意的意思和造句-诗情画意的意思

2023-04-22

中国清洁家电出海报告:通过SNS营销并促成购买成新趋势

2023-04-22

安迪_关于安迪的介绍 全球快报

2023-04-22

美金对泰国币汇率价格查询(2023年4月21日) 世界快讯

2023-04-22

天天报道:我的世界地狱门怎么做不了_我的世界地狱门怎么做

2023-04-22

世运电路(603920.SH)发布2022年度业绩,净利润4.34亿元,同比增长107.01%,拟10派6元

2023-04-22

突发!英国副首相辞职|环球快看点

2023-04-22

精工钢构(600496):4月21日北向资金减持103.92万股

2023-04-22

华仪电子2022年净利1313.08万同比扭亏为盈 毛利同比增加 今头条

2023-04-22

文博日历丨“最炫中国风”200多年前已吹到欧洲 天天信息

2023-04-22

深度|岂止于大:储能电池的身材比武启示录 环球快资讯

2023-04-22

热头条丨海外利空突袭,人工智能概念掀起跌停潮!

2023-04-22

观察:打卡“麦田里的博物馆”!黄河流域12家博物馆59件代表性展品在郑州集中展现!

2023-04-22

模拟内部楼层起火 北京西城消防开展大型商业综合体消防安全演练_天天报道

2023-04-22

新蔡县杨庄户乡驻村第一书记车宝光:村里的那座断桥

2023-04-22

结束燃油时代的狂欢,丰田全面拥抱新时代?

2023-04-22

python-异常处理和错误调试-asyncio中的错误调试(二)|重点聚焦

2023-04-22

减小振幅,减小弹片音——TTC发布钢铁轴

2023-04-22

今日诺基亚c5刷机(诺基亚6208C刷机能后台运行吗)-全球实时

2023-04-22

精彩看点:汇丰前高管:中国制造业竞争力不但没有减弱,反而越来越强

2023-04-22

【全球新要闻】即将举行的十四届全国人大常委会第二次会议看点前瞻

2023-04-22

今日讯!四环医药旗下创新药子公司轩竹生物3款1类新药获批IND源头创新是核心竞争力

2023-04-21

生抽和老抽的区别是什么呢_生抽和老抽的区别是什么

2023-04-21

合盛硅业(603260.SH)拟向全资子公司中部合盛增资55亿元 世界观察

2023-04-21

超50家美企齐聚大湾区,期待与中国开展更多合作-全球报资讯

2023-04-21

环球微动态丨周鸿祎要求360全员拥抱人工智能,称“已领先一个身位”

2023-04-21

全球即时:2022年3月8日黄金TD行情分析

2023-04-21

勘设股份: 勘设股份第五届董事会第八次会议决议公告

2023-04-21

焦点快报!“新黄色新闻”泛滥:短视频正在“杀死”新闻?

2023-04-21

深桑达A今日跌停 二机构净卖出1.1亿元

2023-04-21

2023年1季度中国家电市场总结及未来预测 全球新动态

2023-04-21

天天微资讯!商海观潮:广交会展现中国经济活力

2023-04-21

意天空:什克需要30-40天恢复伤病,其国米生涯可能已提前结束 环球新资讯

2023-04-21

电子版圣经下载到手机(电子圣经电脑版下载)

2023-04-21

天天实时:车子抵押银行能贷多少钱?这样做额度更高

2023-04-21

monster歌曲中文_moster歌曲_天天热点评

2023-04-21

天天热议:春城夜谭|实名曝光猥亵者 斩断隐藏在人群里的“咸猪手”

2023-04-21

国能日新主要股东财通创新拟减持不超1%股份

2023-04-21

偷了一款手提包 戴上一副“新手镯” 即时焦点

2023-04-21

环球速讯:司成奎副局长带队前往西宁市公安局监管支队学习交流

2023-04-21

Consul 的架构和设计思路

2023-04-21

三大运营商一季度净赚383亿元:产业数字化业务营收增长提速|全球时讯

2023-04-21

规范服务行为,工信部将加强APP全链条治理

2023-04-21

天天短讯!青海省中医院与果洛州人民医院签署对口帮扶协议

2023-04-21

ST弘高(002504)4月21日主力资金净买入136.34万元 天天热推荐

2023-04-21

河北邢台信都区:多样阅读空间享“悦”读_滚动

2023-04-21

深夜风云!特斯拉股价暴跌近10%!啥情况?

2023-04-21

烟台黄渤海新区:不动产登记中心为民办事无微不至

2023-04-21

国际机构上调中国全年增长预期-天天快资讯

2023-04-21

焦点快报!慈利县:党建引领多方赋能 辣椒产业旧貌换新颜

2023-04-21

XBB.1.16流行情况如何?会导致结膜炎吗?国家疾控局回应-天天热点评

2023-04-21

【独家焦点】委外加工账务处理及结转_产品委外加工账务处理

2023-04-21

老鹰vs凯尔特人明天NBA预测推荐和大小分分析:老鹰能否主场扳回一城

2023-04-21

天天热门:东吴证券:给予华东医药买入评级

2023-04-21

行业与市场分析摘要_行业与市场分析怎么写

2023-04-21

世界观焦点:准备好了吗?申城降温了,雨日也多了!

2023-04-21