MaXiaoTiao
Always like this.
Home
Archives
Categories
Label
Moments
Photos
Link
About
学习
默认分类
随笔
学习
生活
旅行
工作
RPM和TPM在AI模型领域的含义
RPM和TPM在AI模型领域的含义 RPM 模型请求数单位(在AI模型领域): 在人工智能和机器学习领域,特别是在模型推理定价中,RPM(Requests Per Minute)表示每分钟请求数。这是衡量模型处理能力的一个关键指标,反映了模型在给定时间内能够处理的请求数量。例如,在豆包大模型的定价中
学习
2024-11-05
Prompt 提示词工程编写原则与操作实践
Prompt 提示词工程编写原则与操作实践 Prompt 提示词工程编写的原则 在编写Prompt提示词工程时,遵循一定的原则可帮助我们更有效地利用自然语言处理技术和生成高质量的内容。以下是一些重要的原则: 指令明确 清晰表达意图:确保你提供的prompt指令明确地传达了您想要达到的目标; 减少模糊
学习
2024-11-01
提示词工程——链式思考(CoT)提示
提示词工程——链式思考(CoT)提示 链式思考(CoT)提示 图片来源:
学习
2024-11-01
Anaconda相关配置及命令
Anaconda相关配置及命令 提供了一个方便的环境管理工具,使得用户可以轻松地创建、管理和切换不同的 Python 环境
学习
2024-11-01
提示词工程——简介
提示词工程——简介 提示工程是一个较新的学科,应用于开发和优化提示词(Prompt),帮助用户有效地将语言模型用于各种应用场景和研究领域。掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性。研究人员可利用提示工程来提高大语言模型处理复杂任务场景的能力
学习
2024-11-01
google-bert/bert-base-chinese下载链接
google-bert/bert-base-chinese下载链接 https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-chinese.tar.gz
学习
2024-10-31
阿里魔塔(Model Scope)微调流程
阿里魔塔(Model Scope)微调流程 1.选择模型 在模型库首页 · 魔搭社区选择所需的模型,在这里,选择的模型为零一万物的Yi-1.5-6B模型
学习
2024-10-31
DPO算法
DPO算法 DPO(Distributed Proximal Policy Optimization)算法是一种用于强化学习的优化算法,它是PPO(Proximal Policy Optimization)算法的分布式版本。DPO算法主要用于解决在多智能体环境中或者在需要并行计算的场景下,如何高效地
学习
2024-09-24
PPO算法
PPO算法 PPO(Proximal Policy Optimization)算法是一种用于强化学习的优化算法,它旨在解决策略梯度方法中的样本效率问题。PPO算法是由OpenAI团队在2017年提出的,它结合了传统策略梯度方法(如REINFORCE)和信赖域方法(如TRPO)的优点,是目前应用非常广
学习
2024-09-24
容器和虚拟机有什么区别?
容器和虚拟机有什么区别? 容器和虚拟机(VM)都是用来隔离应用和服务的工具,但它们的工作方式和资源使用上有一些关键的区别: 操作系统: 虚拟机:每个虚拟机都需要安装一个完整的操作系统。这意味着每个虚拟机都会有自己的操作系统内核,以及一系列的用户空间应用程序。 容器:容器不需要独立的操作系统,它们共享
学习
2024-09-23
上一页
下一页