大模型算法工程师的面试题来了(附答案)

自 ChatGPT 在去年 11 月底横空出世,大模型的风刮了整一年。

历经了百模大战、Llama 2 开源、GPTs 发布等一系列里程碑事件,将大模型技术推至无可争议的 C 位。基于大模型的研究与讨论,也让我们愈发接近这波技术浪潮的核心。

最近大模型相关的招聘也非常多,小编整理了一些大模型面试常见问题,供大家参考。希望在找相关机会的同学能有好的收获。

大模型面试题更新速度比较快,我们会第一时间在技术群和星球及时更新,向关注的朋友,可以加入我们。

技术交流群

前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~

建了技术交流群&星球!想要资料、进交流群的同学,可以直接加微信号:mlc2060。加的时候备注一下:研究方向 +学校/公司,即可。然后就可以拉你进群了。

方式①、添加微信号:mlc2060,备注:大模型资料 or 技术交流
方式②、微信搜索公众号:机器学习社区,后台回复:大模型资料 or 技术交流

在这里插入图片描述

在这里插入图片描述

目录

  • 大模型(LLMs)基础面

    1. 目前 主流的开源模型体系 有哪些?
    1. prefix LM 和 causal LM 区别是什么?
    1. 涌现能力是啥原因?
    1. 大模型LLM的架构介绍?
  • 大模型(LLMs)进阶面

    1. llama 输入句子长度理论上可以无限长吗?
    1. 什么是 LLMs 复读机问题?
    1. 为什么会出现 LLMs 复读机问题?
    1. 如何缓解 LLMs 复读机问题?
    1. LLMs 复读机问题
    1. llama 系列问题
    1. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
    1. 各个专业领域是否需要各自的大模型来服务?
    1. 如何让大模型处理更长的文本?
  • 大模型(LLMs)微调面

    1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
    1. 为什么SFT之后感觉LLM傻了?
    1. SFT 指令微调数据 如何构建?
    1. 领域模型Continue PreTrain 数据选取?
    1. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
    1. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
    1. 进行SFT操作的时候,基座模型选用Chat还是Base?
    1. 领域模型微调 指令&数据输入格式 要求?
    1. 领域模型微调 领域评测集 构建?
    1. 领域模型词表扩增是不是有必要的?
    1. 如何训练自己的大模型?
    1. 训练中文大模型有啥经验?
    1. 指令微调的好处?
    1. 预训练和微调哪个阶段注入知识的?
    1. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
    1. 多轮对话任务如何微调模型?
    1. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
    1. 微调模型需要多大显存?
    1. 大模型LLM进行SFT操作的时候在学习什么?
    1. 预训练和SFT操作有什么不同
    1. 样本量规模增大,训练出现OOM错
    1. 大模型LLM进行SFT 如何对样本进行优化?
    1. 模型参数迭代实验
  • 大模型(LLMs)langchain面

    1. 基于LLM+向量库的文档对话 基础面
    1. 基于LLM+向量库的文档对话 优化面
    1. 基于LLM+向量库的文档对话 工程示例面
    1. LLMs 存在模型幻觉问题,请问如何处理?
    1. 基于LLM+向量库的文档对话 思路是怎么样?
    1. 基于LLM+向量库的文档对话 核心技术是什么?
    1. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
    1. 痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
    1. 痛点2:在基于垂直领域 表现不佳
    1. 痛点3:langchain 内置 问答分句效果不佳问题
    1. 痛点4:如何 尽可能召回与query相关的Document 问题
    1. 痛点5:如何让LLM基于query和context得到高质量的response
    1. 避坑记录
    1. 本地知识库问答系统(Langchain-chatGLM)
    1. 什么是 LangChain?
    1. LangChain 包含哪些 核心概念?
    1. 什么是 LangChain Agent?
    1. 如何使用 LangChain ?
    1. LangChain 支持哪些功能?
    1. 什么是 LangChain model?
    1. LangChain 包含哪些特点?
    1. LangChain 如何使用?
    1. LangChain 存在哪些问题及方法方案?
    1. LangChain 替代方案?
    1. LangChain 中 Components and Chains 是什么?
    1. LangChain 中 Prompt Templates and Values 是什么?
    1. LangChain 中 Example Selectors 是什么?
    1. LangChain 中 Output Parsers 是什么?
    1. LangChain 中 Indexes and Retrievers 是什么?
    1. LangChain 中 Chat Message History 是什么?
    1. LangChain 中 Agents and Toolkits 是什么?
    1. LangChain 如何调用 LLMs 生成回复?
    1. LangChain 如何修改 提示模板?
    1. LangChain 如何链接多个组件处理一个特定的下游任务?
    1. LangChain 如何Embedding & vector store?
    1. LangChain 低效的令牌使用问题
    1. LangChain 文档的问题
    1. LangChain 太多概念容易混淆,过多的“辅助”函数问题
    1. LangChain 行为不一致并且隐藏细节问题
    1. LangChain 缺乏标准的可互操作数据类型问题
  • 大模型(LLMs)langchain 面

  • 基于LLM+向量库的文档对话 经验面

  • 大模型(LLMs)参数高效微调(PEFT) 面

  • 一、LoRA篇

  • 二、QLoRA篇

  • 三、AdaLoRA篇

  • 四、LoRA权重是否可以合入原模型?

  • 五、ChatGLM-6B LoRA后的权重多大?

  • 六、LoRA 微调优点是什么?

  • 七、LoRA微调方法为啥能加速训练?

  • 八、如何在已有LoRA模型上继续训练?

  • 1.1 什么是 LoRA?

  • 1.2 LoRA 的思路是什么?

  • 1.3 LoRA 的特点是什么?

  • 2.1 QLoRA 的思路是怎么样的?

  • 2.2 QLoRA 的特点是什么?

  • 3.1 AdaLoRA 的思路是怎么样的?

  • 一、为什么需要 提示学习(Prompting)?

  • 二、什么是 提示学习(Prompting)?

  • 三、提示学习(Prompting) 有什么优点?

  • 四、提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?

  • 4.4.1 为什么需要 P-tuning v2?

  • 4.4.2 P-tuning v2 思路是什么?

  • 4.4.3 P-tuning v2 优点是什么?

  • 4.4.4 P-tuning v2 缺点是什么?

  • 4.3.1 为什么需要 P-tuning?

  • 4.3.2 P-tuning 思路是什么?

  • 4.3.3 P-tuning 优点是什么?

  • 4.3.4 P-tuning 缺点是什么?

  • 4.2.1 为什么需要 指示微调(Prompt-tuning)?

  • 4.2.2 指示微调(Prompt-tuning)思路是什么?

  • 4.2.3 指示微调(Prompt-tuning)优点是什么?

  • 4.2.4 指示微调(Prompt-tuning)缺点是什么?

  • 4.2.5 指示微调(Prompt-tuning)与 Prefix-tuning 区别 是什么?

  • 4.2.6 指示微调(Prompt-tuning)与 fine-tuning 区别 是什么?

  • 4.1.1 为什么需要 前缀微调(Prefix-tuning)?

  • 4.1.2 前缀微调(Prefix-tuning)思路是什么?

  • 4.1.3 前缀微调(Prefix-tuning)的优点是什么?

  • 4.1.4 前缀微调(Prefix-tuning)的缺点是什么?

  • 4.1 前缀微调(Prefix-tuning)篇

  • 4.2 指示微调(Prompt-tuning)篇

  • 4.3 P-tuning 篇

  • 4.4 P-tuning v2 篇

  • 一、为什么 需要 适配器微调(Adapter-tuning)?

  • 二、适配器微调(Adapter-tuning)思路?

  • 三、 适配器微调(Adapter-tuning)特点是什么?

  • 四、AdapterFusion 思路 是什么?

  • 五、AdapterDrop 思路 是什么?

  • 六、AdapterDrop 特点 是什么?

  • 七、MAM Adapter 思路 是什么?

  • 八、MAM Adapter 特点 是什么?

  • 微调方法是啥?如何微调?

  • 为什么需要 PEFT?

  • 介绍一下 PEFT?

  • PEFT 有什么优点?

  • 微调方法批处理大小模式GPU显存速度?

  • Peft 和 全量微调区别?

  • 多种不同的高效微调方法对比

  • 当前高效微调技术存在的一些问题

  • 高效微调技术最佳实践

  • PEFT 存在问题?

  • 能不能总结一下各种参数高效微调方法?

  • 大模型(LLMs)参数高效微调(PEFT) 面

  • 适配器微调(Adapter-tuning)篇

  • 提示学习(Prompting)

  • LoRA 系列篇

  • 大模型(LLMs)推理面

    1. 为什么大模型推理时显存涨的那么多还一直占着?
    1. 大模型在gpu和cpu上推理速度如何?
    1. 推理速度上,int8和fp16比起来怎么样?
    1. 大模型有推理能力吗?
    1. 大模型生成时的参数怎么设置?
    1. 有哪些省内存的大语言模型训练/微调/推理方法?
    1. 如何让大模型输出合规化
    1. 应用模式变更
  • 大模型(LLMs)评测面

  • 大模型怎么评测?

  • 大模型的honest原则是如何实现的?

  • 模型如何判断回答的知识是训练过的已知的知识,怎么训练这种能力?

  • 大模型(LLMs)强化学习面

  • 奖励模型需要和基础模型一致吗?

  • RLHF 在实践过程中存在哪些不足?

  • 如何解决 人工产生的偏好数据集成本较高,很难量产问题?

  • 如何解决三个阶段的训练(SFT->RM->PPO)过程较长,更新迭代较慢问题?

  • 如何解决 PPO 的训练过程同时存在4个模型(2训练,2推理),对计算资源的要求较高 问题?

  • 大模型(LLMs)软硬件配置面

  • 大模型(LLMs)训练集面

  • SFT(有监督微调)的数据集格式?

  • RM(奖励模型)的数据格式?

  • PPO(强化学习)的数据格式?

  • 找数据集哪里找?

  • 微调需要多少条数据?

  • 有哪些大模型的训练集?

  • 进行领域大模型预训练应用哪些数据集比较好?

  • 大模型(LLMs)显存问题面

  • 大模型(LLMs)分布式训练面

  • 大模型(LLMs)agent 面

  • 如何给LLM注入领域知识?

  • 如果想要快速体验各种模型,该怎么办?

  • Token及模型参数准备篇

  • 预训练数据 Token 重复 是否影响 模型性能?

  • SFT需要训练Token数?

  • LLMs 位置编码篇

  • 6.1 ALiBi (Attention with Linear Biases) 思路是什么?

  • 6.2 ALiBi (Attention with Linear Biases) 的偏置矩阵是什么?有什么作用?

  • 6.3 ALiBi (Attention with Linear Biases) 有什么优点?

  • 6.4 ALiBi (Attention with Linear Biases) 被哪些 LLMs 应用?

  • 5.1 什么是 长度外推问题?

  • 5.2 长度外推问题 的 解决方法 有哪些?

  • 4.1 旋转位置编码 RoPE 思路是什么?

  • 4.2 推导一下 旋转位置编码 RoPE ?

  • 4.3 旋转位置编码 RoPE 有什么优点?

  • 4.4 旋转位置编码 RoPE 被哪些 LLMs 应用?

  • 1 什么是位置编码?

  • 2 什么是绝对位置编码?

  • 3 什么是相对位置编码?

  • 4 旋转位置编码 RoPE篇

  • 5 长度外推问题篇

  • 6 ALiBi (Attention with Linear Biases)篇

  • LLMs Tokenizer 篇

  • Byte-Pair Encoding(BPE)篇

  • WordPiece 篇

  • SentencePiece 篇

  • 对比篇

  • 1 Byte-Pair Encoding(BPE) 如何构建词典?

  • 1 WordPiece 与 BPE 异同点是什么?

  • 简单介绍一下 SentencePiece 思路?

  • 1 举例 介绍一下 不同 大模型LLMs 的分词方式?

  • 2 介绍一下 不同 大模型LLMs 的分词方式 的区别?

  • LLMs Tokenizer 篇

  • Layer Normalization 篇

  • LLMs 各模型分别用了 哪种 Layer normalization?

  • 1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?

  • Layer Norm 篇

  • RMS Norm 篇 (均方根 Norm)

  • Deep Norm 篇

  • Deep Norm 有什么优点?

  • Layer Norm 的计算公式写一下?

  • RMS Norm 的计算公式写一下?

  • RMS Norm 相比于 Layer Norm 有什么特点?

  • Deep Norm 思路?

  • 写一下 Deep Norm 代码实现?

  • Layer normalization-方法篇

  • Layer normalization-位置篇

  • Layer normalization 对比篇

  • LLMs 激活函数篇

  • 1 介绍一下 FFN 块 计算公式?

  • 2 介绍一下 GeLU 计算公式?

  • 3 介绍一下 Swish 计算公式?

  • 4 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?

  • 5 介绍一下 使用 GeLU 的 GLU 块 计算公式?

  • 6 介绍一下 使用 Swish 的 GLU 块 计算公式?

  • 各LLMs 都使用哪种激活函数?

ii. 为什么会出现 LLMs 复读机问题?

出现LLMs复读机问题可能有以下几个原因:

  1. 数据偏差:大型语言模型通常是通过预训练阶段使用大规模无标签数据进行训练的。如果训练数据中存在大量的重复文本或者某些特定的句子或短语出现频率较高,模型在生成文本时可能会倾向于复制这些常见的模式。

  2. 训练目标的限制:大型语言模型的训练通常是基于自监督学习的方法,通过预测下一个词或掩盖词来学习语言模型。这样的训练目标可能使得模型更倾向于生成与输入相似的文本,导致复读机问题的出现。

  3. 缺乏多样性的训练数据:虽然大型语言模型可以处理大规模的数据,但如果训练数据中缺乏多样性的语言表达和语境,模型可能无法学习到足够的多样性和创造性,导致复读机问题的出现。

  4. 模型结构和参数设置:大型语言模型的结构和参数设置也可能对复读机问题产生影响。例如,模型的注意力机制和生成策略可能导致模型更倾向于复制输入的文本。

为了解决复读机问题,可以采取以下策略:

  1. 多样性训练数据:在训练阶段,尽量使用多样性的语料库来训练模型,避免数据偏差和重复文本的问题。

  2. 引入噪声:在生成文本时,可以引入一些随机性或噪声,例如通过采样不同的词或短语,或者引入随机的变换操作,以增加生成文本的多样性。

  3. 温度参数调整:温度参数是用来控制生成文本的多样性的一个参数。通过调整温度参数的值,可以控制生成文本的独创性和多样性,从而减少复读机问题的出现。

  4. 后处理和过滤:对生成的文本进行后处理和过滤,去除重复的句子或短语,以提高生成文本的质量和多样性。

需要注意的是,复读机问题是大型语言模型面临的一个挑战,解决这个问题是一个复杂的任务,需要综合考虑数据、训练目标、模型架构和生成策略等多个因素。目前,研究人员和工程师们正在不断努力改进和优化大型语言模型,以提高其生成文本的多样性和创造性。

iii. 如何缓解 LLMs 复读机问题?

为了缓解LLMs复读机问题,可以尝试以下方法:

  1. 多样性训练数据:在训练阶段,使用多样性的语料库来训练模型,避免数据偏差和重复文本的问题。这可以包括从不同领域、不同来源和不同风格的文本中获取数据。

  2. 引入噪声:在生成文本时,引入一些随机性或噪声,例如通过采样不同的词或短语,或者引入随机的变换操作,以增加生成文本的多样性。这可以通过在生成过程中对模型的输出进行采样或添加随机性来实现。

  3. 温度参数调整:温度参数是用来控制生成文本的多样性的一个参数。通过调整温度参数的值,可以控制生成文本的独创性和多样性。较高的温度值会增加随机性,从而减少复读机问题的出现。

  4. Beam搜索调整:在生成文本时,可以调整Beam搜索算法的参数。Beam搜索是一种常用的生成策略,它在生成过程中维护了一个候选序列的集合。通过调整Beam大小和搜索宽度,可以控制生成文本的多样性和创造性。

  5. 后处理和过滤:对生成的文本进行后处理和过滤,去除重复的句子或短语,以提高生成文本的质量和多样性。可以使用文本相似度计算方法或规则来检测和去除重复的文本。

  6. 人工干预和控制:对于关键任务或敏感场景,可以引入人工干预和控制机制,对生成的文本进行审查和筛选,确保生成结果的准确性和多样性。

需要注意的是,缓解LLMs复读机问题是一个复杂的任务,没有一种通用的解决方案。不同的方法可能适用于不同的场景和任务,需要根据具体情况进行选择和调整。此外,解决复读机问题还需要综合考虑数据、训练目标、模型架构和生成策略等多个因素,需要进一步的研究和实践来提高大型语言模型的生成文本多样性和创造性。

2 llama 系列问题

i. llama 输入句子长度理论上可以无限长吗?

理论上来说,LLMs(大型语言模型)可以处理任意长度的输入句子,但实际上存在一些限制和挑战。下面是一些相关的考虑因素:

  1. 计算资源:生成长句子需要更多的计算资源,包括内存和计算时间。由于LLMs通常是基于神经网络的模型,计算长句子可能会导致内存不足或计算时间过长的问题。

  2. 模型训练和推理:训练和推理长句子可能会面临一些挑战。在训练阶段,处理长句子可能会导致梯度消失或梯度爆炸的问题,影响模型的收敛性和训练效果。在推理阶段,生成长句子可能会增加模型的错误率和生成时间。

  3. 上下文建模:LLMs是基于上下文建模的模型,长句子的上下文可能会更加复杂和深层。模型需要能够捕捉长句子中的语义和语法结构,以生成准确和连贯的文本。

尽管存在这些挑战,研究人员和工程师们已经在不断努力改进和优化LLMs,以处理更长的句子。例如,可以采用分块的方式处理长句子,将其分成多个较短的片段进行处理。此外,还可以通过增加计算资源、优化模型结构和参数设置,以及使用更高效的推理算法来提高LLMs处理长句子的能力。

值得注意的是,实际应用中,长句子的处理可能还受到应用场景、任务需求和资源限制等因素的影响。因此,在使用LLMs处理长句子时,需要综合考虑这些因素,并根据具体情况进行选择和调整。

3 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?

选择使用哪种大模型,如Bert、LLaMA或ChatGLM,取决于具体的应用场景和需求。下面是一些指导原则:

  1. Bert模型:Bert是一种预训练的语言模型,适用于各种自然语言处理任务,如文本分类、命名实体识别、语义相似度计算等。如果你的任务是通用的文本处理任务,而不依赖于特定领域的知识或语言风格,Bert模型通常是一个不错的选择。Bert由一个Transformer编码器组成,更适合于NLU相关的任务。

  2. LLaMA模型:LLaMA(Large Language Model Meta AI)包含从 7B 到 65B 的参数范围,训练使用多达14,000亿tokens语料,具有常识推理、问答、数学推理、代码生成、语言理解等能力。Bert由一个Transformer解码器组成。训练预料主要为以英语为主的拉丁语系,不包含中日韩文。所以适合于英文文本生成的任务。

  3. ChatGLM模型:ChatGLM是一个面向对话生成的语言模型,适用于构建聊天机器人、智能客服等对话系统。如果你的应用场景需要模型能够生成连贯、流畅的对话回复,并且需要处理对话上下文、生成多轮对话等,ChatGLM模型可能是一个较好的选择。ChatGLM的架构为Prefix decoder,训练语料为中英双语,中英文比例为1:1。所以适合于中文和英文文本生成的任务。

在选择模型时,还需要考虑以下因素:

  • 数据可用性:不同模型可能需要不同类型和规模的数据进行训练。确保你有足够的数据来训练和微调所选择的模型。

  • 计算资源:大模型通常需要更多的计算资源和存储空间。确保你有足够的硬件资源来支持所选择的模型的训练和推理。

  • 预训练和微调:大模型通常需要进行预训练和微调才能适应特定任务和领域。了解所选择模型的预训练和微调过程,并确保你有相应的数据和时间来完成这些步骤。

最佳选择取决于具体的应用需求和限制条件。在做出决策之前,建议先进行一些实验和评估,以确定哪种模型最适合你的应用场景。

4 各个专业领域是否需要各自的大模型来服务?

各个专业领域通常需要各自的大模型来服务,原因如下:

  1. 领域特定知识:不同领域拥有各自特定的知识和术语,需要针对该领域进行训练的大模型才能更好地理解和处理相关文本。例如,在医学领域,需要训练具有医学知识的大模型,以更准确地理解和生成医学文本。

  2. 语言风格和惯用语:各个领域通常有自己独特的语言风格和惯用语,这些特点对于模型的训练和生成都很重要。专门针对某个领域进行训练的大模型可以更好地掌握该领域的语言特点,生成更符合该领域要求的文本。

  3. 领域需求的差异:不同领域对于文本处理的需求也有所差异。例如,金融领域可能更关注数字和统计数据的处理,而法律领域可能更关注法律条款和案例的解析。因此,为了更好地满足不同领域的需求,需要专门针对各个领域进行训练的大模型。

  4. 数据稀缺性:某些领域的数据可能相对较少,无法充分训练通用的大模型。针对特定领域进行训练的大模型可以更好地利用该领域的数据,提高模型的性能和效果。

尽管需要各自的大模型来服务不同领域,但也可以共享一些通用的模型和技术。例如,通用的大模型可以用于处理通用的文本任务,而领域特定的模型可以在通用模型的基础上进行微调和定制,以适应特定领域的需求。这样可以在满足领域需求的同时,减少模型的重复训练和资源消耗。

5 如何让大模型处理更长的文本?

要让大模型处理更长的文本,可以考虑以下几个方法:

  1. 分块处理:将长文本分割成较短的片段,然后逐个片段输入模型进行处理。这样可以避免长文本对模型内存和计算资源的压力。在处理分块文本时,可以使用重叠的方式,即将相邻片段的一部分重叠,以保持上下文的连贯性。

  2. 层次建模:通过引入层次结构,将长文本划分为更小的单元。例如,可以将文本分为段落、句子或子句等层次,然后逐层输入模型进行处理。这样可以减少每个单元的长度,提高模型处理长文本的能力。

  3. 部分生成:如果只需要模型生成文本的一部分,而不是整个文本,可以只输入部分文本作为上下文,然后让模型生成所需的部分。例如,输入前一部分文本,让模型生成后续的内容。

  4. 注意力机制:注意力机制可以帮助模型关注输入中的重要部分,可以用于处理长文本时的上下文建模。通过引入注意力机制,模型可以更好地捕捉长文本中的关键信息。

  5. 模型结构优化:通过优化模型结构和参数设置,可以提高模型处理长文本的能力。例如,可以增加模型的层数或参数量,以增加模型的表达能力。还可以使用更高效的模型架构,如Transformer等,以提高长文本的处理效率。

需要注意的是,处理长文本时还需考虑计算资源和时间的限制。较长的文本可能需要更多的内存和计算时间,因此在实际应用中需要根据具体情况进行权衡和调整。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/250045.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Stable Diffusion 微调及推理优化实践指南

随着 Stable Diffsuion 的迅速走红,引发了 AI 绘图的时代变革。然而对于大部分人来说,训练扩散模型的门槛太高,对 Stable Diffusion 进行全量微调也很难入手。由此,社区催生了一系列针对 Stable Diffusion 的高效微调方案&#xf…

动态规划习题

动态规划的核心思想是利用子问题的解来构建整个问题的解。为此&#xff0c;我们通常使用一个表格或数组来存储子问题的解&#xff0c;以便在需要时进行查找和使用。 1.最大字段和 #include <iostream> using namespace std; #define M 200000int main() {int n, a[M], d…

磁盘及文件系统(上)

这次博客我们将重点理解Ext2文件系统。 首先我们要理解什么是文件系统。 在之前我们一直理解的文件都是一个被打开的文件&#xff0c;而os为了能够管理这样的文件创建了struct_file这样的结构体对象在内核中描述被打开的文件&#xff0c;这个结构体对象中包含了被打开文件的基…

C# OpenVINO 直接读取百度模型实现图片旋转角度检测

目录 效果 模型信息 代码 下载 C# OpenVINO 直接读取百度模型实现图片旋转角度检测 效果 模型信息 Inputs ------------------------- name&#xff1a;x tensor&#xff1a;F32[?, 3, 224, 224] --------------------------------------------------------------- Ou…

拖地用什么拖把拖最干净 手持洗地机好用吗?据说拖地又亮又干净?

拖地用什么拖把拖最干净 手持洗地机好用吗&#xff1f;据说拖地又亮又干净&#xff1f; 拖地用什么拖干净&#xff1f;在拖地时&#xff0c;选择合适的拖把和清洁剂非常重要。常见的拖把类型包括胶棉拖把和平板拖把。胶棉拖把易于清洁&#xff0c;适用于硬地板和短毛地毯&#…

c语言->浅学结构体

系列文章目录 文章目录 前言 ✅作者简介&#xff1a;大家好&#xff0c;我是橘橙黄又青&#xff0c;一个想要与大家共同进步的男人&#x1f609;&#x1f609; &#x1f34e;个人主页&#xff1a;橘橙黄又青_C语言,函数,指针-CSDN博客 目的&#xff1a;学习结构体基础内容&am…

电商用户运营优化:腾讯文档API无代码集成

腾讯文档API集成&#xff1a;电商平台无代码客服系统 随着数字化时代的到来&#xff0c;电商平台日益求势于高效率和低成本的运营模式。无代码开发正在改变传统业务流程的构建方式&#xff0c;尤其在客户服务领域&#xff0c;这种转变正变得尤为明显。本文将探索腾讯文档API在…

LeetCode 300最长递增子序列 674最长连续递增序列 718最长重复子数组 | 代码随想录25期训练营day52

动态规划算法10 LeetCode 300 最长递增子序列 2023.12.15 题目链接代码随想录讲解[链接] int lengthOfLIS(vector<int>& nums) {//创建变量result存储最终答案,设默认值为1int result 1;//1确定dp数组&#xff0c;dp[i]表示以nums[i]为结尾的子数组的最长长度ve…

【leetcode】链表总结

说明&#xff1a;本文内容来自于代码随想录 链表基本操作 https://leetcode.cn/problems/design-linked-list/ 删除节点 https://leetcode.cn/problems/remove-linked-list-elements/description/&#xff0c;删除节点&#xff0c;虚拟头节点。定义两个节点&#xff0c;分别…

【算法】选择排序

一、排序逻辑 选择排序逻辑:对数组中的数据,先假定一个最小的数据下标,然后进行循环寻找到最小数据的下标,放在第一层循环的最初始位置 例: 从0 ~ N-1 寻找到最小值,放在0位置 从1~N-1 寻找到最小值 ,放在1位置 从2~N-1 寻找到最小值,放在2位置 。。。 二、code 实…

【MATLAB第82期】基于MATLAB的季节性差分自回归滑动平均模型SARIMA时间序列预测模型含预测未来

【MATLAB第82期】基于MATLAB的季节性差分自回归滑动平均模型SARIMA时间序列预测模型含预测未来 一、模型介绍 1、模型简介 季节性差分自回归移动平均模型&#xff08;Seasonal Autoregressive Integrated Moving Average Model, SARIMA&#xff09;&#xff0c;又称为周期性…

【算法集训】基础数据结构:九、完全二叉树

完全二叉树是二叉树的一种&#xff0c;它是除了叶子节点外其余各节点都为满二叉树&#xff0c;叶子节点只在倒数第一层或第二层出现。 即使是最后一层的叶子节点也是从左到右依次排列&#xff0c;中间不会空。 每一层都是按从左到右的顺序编号&#xff0c;所以一个节点i的叶子节…

C#动态生成带参数的小程序二维码

应用场景 在微信小程序管理后台&#xff0c;我们可以生成下载标准的小程序二维码&#xff0c;提供主程序入口功能。在实际应用开发中&#xff0c;小程序二维码是可以携带参数的&#xff0c;可以动态进行生成&#xff0c;如如下场景&#xff1a; 1、不同参数决定的显示界面不同…

两线制(V/F,I/F)频率脉冲信号转换器

两线制(V/F,I/F)频率脉冲信号转换器 型号&#xff1a;JSD TAF-1021S V/F,I/F频率脉冲信号转换器 型号&#xff1a;JSD TAF-1001S 高端型 型号&#xff1a;JSD TAF-1001D 经济型&#xff0c;价格优惠 新款V/F,I/F频率脉冲信号转换器属升级款&#xff0c;产品从性能&#xf…

科目三 换挡为什么要踩离合器

换挡时需要踩离合器为了切断动力传输&#xff0c;让变速器空转&#xff0c;齿轮才会同步&#xff0c;从而轻松挂挡。 在起步时&#xff0c;当车速达到15km/h时&#xff0c;从一挡换到二挡。 当车速达到25km/h时&#xff0c;可以换成三挡&#xff0c; 达到35km/h左右时&#xf…

不同的葡萄酒瓶盖会影响葡萄酒饮用的体验

首先&#xff0c;不同的葡萄酒瓶盖会影响我们找到想要喝的葡萄酒的难易程度。螺旋盖、Zork瓶塞和起泡酒“蘑菇形瓶塞”赢得了直接的满足感&#xff0c;它们只需要拔瓶塞不需要开瓶器。来自云仓酒庄品牌雷盛红酒分享对于所有其他的酒瓶封口&#xff0c;我们都需要一个工具来打开…

学校校园网站建设的作用如何

如今随着互联网线上便捷化提升&#xff0c;不仅仅是企业&#xff0c;高校或小学、幼儿园等都希望通过线上宣传、展示内容、提升服务效率、赋能更好的完善工作内容。 学校在宣传方面主要体现在招生&#xff0c;很多学校都会在每年发出大量广告用于招生&#xff0c;然而传统纸质…

IDEA——还在手动new对象set值嘛,GenerateAllSetter插件帮你解决!!!

IDEA插件 一、GenerateAllSetter插件介绍二、如何下载安装三、如何使用 总结 最近项目上有些测试需要有很多属性&#xff0c;而且大部分的属性都是要设置值的&#xff0c;一个一个手动set设值很繁琐&#xff0c;就想着有没有能解决这个问题的办法&#xff0c;就发现了一个非常好…

运营微信视频号要注意哪些问题?

视频号运营的5个雷点你别踩! 今天和你说的视频号运营的5大雷点 你踩过没? 这5点虽然和野花似的 但也不能踩哦 雷点1:违规行为 雷点2:抄袭剽窃 雷点3:没有明确目标受众 雷点4:短视频质量过低 雷点5:缺少社交互动 相信不管是视频号还是别的平台都通用哈

在线弹钢琴网站源码,带练习教学和推销乐谱功能

源码介绍 AutoPiano-在线弹钢琴网站源码&#xff0c;在线钢琴模拟器&#xff0c;自由在线弹奏虚拟钢琴&#xff0c;是所有人的绝佳音乐平台。 背景图片在./static/images, 另外需要在js内的0.7fc8a67cbbcb823cf89e.js和1.f9a3f1dba143d1b59ca4.js修改图片对应路径。 钢琴声…
最新文章