MaXiaoTiao
Always like this.
Home
Archives
Categories
Label
Moments
Photos
Link
About
深度学习
#Vanna
4
#Ollama
1
#分布式存储
2
#k8s
8
#nginx
2
#docker
4
#LInux
1
#FastApi
1
#日报
0
#爬虫
12
#pandas
3
#数据处理
3
#大模型
18
#AIGC
17
#金融
33
#量化交易
8
#Swagger2
1
#Spring Boot
7
#LeetCode
9
#课程作业
1
#软件测试
2
#bert
1
#计算机网络
0
#操作系统
4
#数据结构
0
#go
0
#redis
0
#python
10
#java
30
#证据理论
1
#多标签
3
#机器学习
14
#深度学习
39
#单纯记录
0
Anaconda相关配置及命令
Anaconda相关配置及命令 提供了一个方便的环境管理工具,使得用户可以轻松地创建、管理和切换不同的 Python 环境
学习
2024-11-01
BERT 模型
BERT 模型 BERT 模型可以作为公认的里程碑式的模型,但是它最大的优点不是创新,而是集大成者,并且这个集大成者有了各项突破,下面让我们看看 BERT 是怎么集大成者的。 BERT 的意义在于:从大量无标记数据集中训练得到的深度模型,可以显著提高各项自然语言处理任务的准确率。 近年来优秀预训练语
学习
2024-04-02
chatGLM的模型架构
chatGLM的模型架构
学习
2024-04-01
LSTM原理介绍
LSTM原理介绍 什么是RNN RNN,顾名思义,是包含循环的神经网络。它与传统神经网络模型最大不同之处是加入了对时序数据的处理。以股票多因子为例,传统神经网络在某一时间截面的输入因子数据,输出下期超额收益预测;而RNN是将某支股票的长期因子数据作为时间序列,取过去一段时间内的数据作为输入值。资本市
学习
2023-11-16
BERT 之无监督训练
BERT 之无监督训练 和 GPT 一样,BERT 也采用二段式训练方法: 第一阶段:使用易获取的大规模无标签余料,来训练基础语言模型; 第二阶段:根据指定任务的少量带标签训练数据进行微调训练。 不同于 GPT 等标准语言模型使用 P(wi|w1,⋯,wi−1)P(wi|w1,⋯,wi−1) 为目标
学习
2023-05-27
embedding
embedding Embedding是一种将离散数据(如单词、图片、物品等)映射到连续向量空间的技术。在这个连续向量空间中,数据的相似性可以通过计算向量之间的距离来表示。以下是关于embedding的一些详细信息和用途: 什么是Embedding? 向量表示:Embedding将数据转换成固定长度
学习
2023-05-24
微调
微调 微调(Fine-tuning): 微调是在预训练的基础上进行的,它是针对特定任务(如情感分析、问答、文本分类等)对模型进行进一步训练的过程。微调通常使用较少量的标注数据来完成,这些数据与特定任务直接相关。 微调阶段的关键点包括: 在预训练模型的基础上添加一个或多个输出层,以适应特定任务。 使用
学习
2023-05-24
端到端模型指什么?
端到端模型指什么? 端到端的模式是什么意思?如何理解? 理解:端到端的模型本质是解决复杂问题的一种方法、思路。 端到端的模型解决问题的办法和非端到端模型解决复杂问题的区别 端到端 VS 流程化处理的区别 非端到端解决办法 在处理复杂任务的时候,倾向于将复杂任务拆解成多个子模块,分布的解决问题 比如:
学习
2023-05-16
Lora微调(Lora Fine-tuning)
Lora微调(Lora Fine-tuning) LoRA(Low-Rank Adaptation)是一种用于大型预训练模型(如Transformer模型)的微调方法,旨在通过引入低秩矩阵来高效地适应特定任务,而不需要全面微调整个模型。这种方法在保持预训练模型大部分参数不变的同时,只对一小部分参数进
学习
2023-05-04
BERT 之下句预测(NSP)
BERT 之下句预测(NSP) 下一句预测(Next Sentence Prediction,NSP)是 BERT(Bidirectional Encoder Representations from Transformers)预训练过程中的第二个任务,旨在帮助模型理解句子之间的关系。 工作原理 数
学习
2023-04-14
下一页