机器学习_最优化方法(2)
6413a94e2cbbdfbf584bfad959c926ef0f8c951c4e7454a5c9686e1974d7abfca9907508558b652783ea891f0db53a3f60a0f836764a0b7cb1782f6c7f0763e0ae25cb87ff3837bd9f546198222146a515d3a2dd6f56d6d31ab8beaa7c7775689ae57b98b3fd0d5432e7f6494465693cd3f275888981c48366cd70480acc500044dc4dce37cd2d00911383115bcd7e2a4ed2469d2e5a6df64c817d64f28269ae6a62f0c292858ce7b850835d3746a431d4238d691765b8a22c2709402042f31a85d3a75dc9c3b3dc66316d637985ad14dea52109eeaf89a5cb099b841c9bd766553e7492f1788be525ec7c588de64abce4d6523e631ad43da ...
机器学习_概率论(2)
6413a94e2cbbdfbf584bfad959c926ef0f8c951c4e7454a5c9686e1974d7abfccc834bd071b7239e863879940bb028b682a1327134d0ecbef900db00faabc7cc45ee973d783f78821a25b822666c8d7d9ea28e502e012d75f9e9dc32afc8362061248179dc51a71e0574cfb8f4d813650f92554ee275877d05822dd4082e4a4a2ac81753cb9f5f8594bc3770fefb3bddc3aada97363130915c90bbf3467afcc2106b76bf6dd1020d60b41a24f6dfa314876b5376e50e289e17e973aa13e2593922656a280ddd2cbd4cb92c62f57d021f5e51a7334c23c30721d0113f135f5d652c43614ae014525604103064d9407ac8e5dae4001a8f8c179 ...
机器学习_线性代数与矩阵论(3)
6413a94e2cbbdfbf584bfad959c926ef0f8c951c4e7454a5c9686e1974d7abfc61d1b610293b293dd4cab871bea0dd68dc52763254c20581d68afe07c8e3037fc4ba472240857c844560e840a41d00e260acadc40b1f587fc6c0d938beab3bbbffa9851ac7bb25f9e120b7c6dbd32ff0d1053c3532fa8cdc7bcaf01967526a2985581a2d9556239544aaaab5bc5b4240a0bc08f2f753f6a1ce7f0c6c93ab2fa472c32036918beeecb7f92660bca3ee775dc78099d0ebc8bf7403aa165fb6ee7bbede4b71b3b373b888bd140d371c7fa6bd5737333d408effcbd27d1fa396beebf4a0b7ef7813cdfb2821a62adfe20874d766d424a17a7ffa8 ...
机器学习_线性代数与矩阵论(2)
6413a94e2cbbdfbf584bfad959c926ef0f8c951c4e7454a5c9686e1974d7abfc029441fe19ae3f5704872f1f603b685252933310f82d10e01fb85bf1a25ec11d6a2a8272cd7b53d79abc833ebaf40aee7170ce859206423cde5463b9b032a364c0dc1575799463c2f5d66dec6f6a04a0c62bab46d204d8400d6075521a6d8db6b1224c8353aa055e1dd9a5a861baf295ad12e9d5e2f9f01f4db21a7e8321379fa90d9d451c3496d2b36819eb4e588a7a082a705b3d70934fb11c4f1237965b5c2afdc07a9cc6cd7001525ec0d2ced01095dce8e8aef654000d453653aae377ffd81acf861ca98e16d2622bf1b9d6926fd28bf354c883756a3 ...
豚妞成长记录
681af7920ccb27edf431acf32a17808572fff786cd3ec287b02690b591f5243457b2adfca738b514cb98cceb9a94159f728d3fd977864836f21090b788faccec8d72dfefd6d34380d4ebeb398afde90c58595bfea75c4e3ce3edabb1250dfe7a0d60880eb02400bed03320154f9618beb387d70665a625911e3fce63a7255e34a14a500c643aadced6964700cc343556cb35e403a51cd9e25660a12943378f4176b9a1c03031d4eb872f8c52aaebe7615c2bb6565e61908fdffcb259509be039f7c7b41087075fca371f8abd8d3a766e73f393719ab80cf1dc60d6826e4649cf8589fbd2a5b65fbd4a3c02698056068f54491ef937d024bc0 ...
图神经网络
概述
PyG Documentation
PyG(PyTorch Geometric)是一个建立在 PyTorch 基础上的库,用于轻松编写和训练图神经网络(GNN),用于与结构化数据相关的广泛应用
任务形态
GNN中常见任务:Graph级别任务、Node级别任务、Edge级别任务
包括:节点分类,节点连接预测,图相似度检测,异常检测,图分类
多层GNN不会改变图的拓扑结构,但是会改变点的特征,多层GNN处理可以扩大感受野
GCN和CNN有什么不同和相同点
不同点:图卷积中每个点的邻居数量是不确定的,图卷积中的数据输入格式不确定
相同点:GCN和CNN本质都需要对输入数据做特征提取,且都是根据某个点周围点的情况提取特征
GCN 可以处理 semi-supervised learning,即只有部分节点有标签的情况,计算损失时只用有标签的计算
GCN 的层数一般3~5层比较好,层数叠加可能导致反效果
nlp关键词和摘要提取技术整理
切词等待…
关键词提取
自动关键词抽取研究综述2017
特征驱动的关键词提取算法综述2018
关键词提取研究综述2021
概述
概念
关键词提取技术是一种自然语言处理技术,旨在从给定的文本中自动识别出最具代表性和重要性的关键词或短语
关键词通常是文本中具有特殊含义、能够概括文本主题或内容的词语或短语
使用场景
关键词提取技术的目标是对文本进行语义分析和内容抽取,从而提取出最能代表文本主题和内容的关键词
这些关键词可以用于文本分类、信息检索、文本摘要、主题建模、信息过滤等自然语言处理任务
经典方法
关键词提取技术通常结合了文本的语言统计特征、词频分布、词性、上下文关系、语义相似度等多种信息源,以识别并提取出最相关和具有区分度的关键词
常见的关键词提取方法包括基于词频、TF-IDF、文本图结构、语言模型、图模型、深度学习等多种技术手段
关键词提取技术在信息处理、文本挖掘、自动化文档处理等领域具有重要应用价值,能够帮助人们更快速、准确地理解和处理大量文本信息
分类
NLP中关键字提取方法总结和概述
基于统计统计方法是最简单的。他们计算关键字的统计数据并使用这些统计数据对它们进 ...
LLM模型微调系列
LLM模型
什么是LLM(大语音模型)
概述Large Language Model(LLM),也称为大型语言模型,是一种基于机器学习和自然语言处理技术的模型,它通过对大量的文本数据进行训练,来学习服务人类语言理解和生成的能力
LLM的核心思想是通过大规模的无监督训练来学习自然语言的模式和语言结构,这在一定程度上能够模拟人类的语言认知和生成过程
与传统的NLP模型相比,LLM能够更好地理解和生成自然文本,同时还能够表现出一定的逻辑思维和推理能力
近年来,LLM得到了广泛的应用,其中最具代表性的是谷歌的BERT和OpenAI的GPT系列。这些模型在多个自然语言处理领域已经取得了显著的成果,包括文本分类、命名实体识别、情感分析、机器翻译、自动问答等
然而,在实际应用中,LLM面临着更多的挑战
首先,LLM需要大量的计算资源和大规模的数据集来训练,这对于一般的企业和个人来说十分困难
其次,由于LLM模型的复杂性和计算量较大,对于实时的语言处理应用来说,LLM在应用效率和响应速度上还存在一定的局限性
因此,如何解决模型训练和应用过程中的计算性能和效率问题,是LLM面临的主要挑战之一
微调 ...
LLM模型部署调试推理
LLM模型
什么是LLM(大语音模型)
概述Large Language Model(LLM),也称为大型语言模型,是一种基于机器学习和自然语言处理技术的模型,它通过对大量的文本数据进行训练,来学习服务人类语言理解和生成的能力
LLM的核心思想是通过大规模的无监督训练来学习自然语言的模式和语言结构,这在一定程度上能够模拟人类的语言认知和生成过程
与传统的NLP模型相比,LLM能够更好地理解和生成自然文本,同时还能够表现出一定的逻辑思维和推理能力
近年来,LLM得到了广泛的应用,其中最具代表性的是谷歌的BERT和OpenAI的GPT系列。这些模型在多个自然语言处理领域已经取得了显著的成果,包括文本分类、命名实体识别、情感分析、机器翻译、自动问答等
然而,在实际应用中,LLM面临着更多的挑战
首先,LLM需要大量的计算资源和大规模的数据集来训练,这对于一般的企业和个人来说十分困难
其次,由于LLM模型的复杂性和计算量较大,对于实时的语言处理应用来说,LLM在应用效率和响应速度上还存在一定的局限性
因此,如何解决模型训练和应用过程中的计算性能和效率问题,是LLM面临的主要挑战之一
主 ...
huggingface基本使用教程
huggingface概述
Hugging Face
官网任务分类和示例
LLM高效调参_PEFT库简介及使用
Hugging Face是一个知名的开源社区和公司,专注于自然语言处理(NLP)和机器学习(ML)领域。他们开发了许多流行的开源工具和库,使得构建和应用NLP模型更加便捷
Hugging face起初是一家总部位于纽约的聊天机器人初创服务商,他们本来打算创业做聊天机器人,然后在github上开源了一个Transformers库,虽然聊天机器人业务没搞起来,但是他们的这个库在机器学习社区迅速大火起来。目前已经共享了超100,000个预训练模型,10,000个数据集,变成了机器学习界的github
在这里主要有以下大家需要的资源
Datasets:数据集,以及数据集的下载地址
Models:包括各种处理CV和NLP等任务的模型,上面模型都是可以免费获得
主要包括计算机视觉、自然语言处理、语音处理、多模态、表格处理、强化学习
course:免费的nlp课程
docs:文档
展开细节
Computer Vision(计算机视觉任务):包括lmage Clas ...