AiLearning: 机器学习 - MachineLearning - ML、深度学习 - DeepLearning - DL、自然语言处理 NL
- 机器学习算法地图
- 机器学习 吴恩达 Coursera个人笔记 && 视频(含官方笔记)
- CS229 课程讲义中文翻译 && 机器学习 吴恩达 cs229个人笔记 && 官网(笔记) && 视频(中文字幕)
- 百页机器学习
- 《统计学习方法》李航 && 《统计学习方法》各章节笔记 && 《统计学习方法》各章节笔记 && 推荐答案:statistical-learning-method-solutions-manual 《统计学习方法》各章节笔记 && 《统计学习方法》各章节代码实现与课后习题参考解答
- 《模式识别与机器学习》 Christopher Bishop
- 《机器学习》 周志华 && 南瓜书:pumpkin-book
- 《机器学习实战》 PelerHarrington
- 机器学习与深度学习书单
- 深度学习思维导图 && 深度学习算法地图
- 《斯坦福大学深度学习基础教程》 Andrew Ng(吴恩达)
- 深度学习 吴恩达 个人笔记 && 视频
- MIT深度学习基础-2019视频课程
- 台湾大学(NTU)李宏毅教授课程 && [leeml-notes
- 图解深度学习_Grokking-Deep-Learning
- 《神经网络与深度学习》 Michael Nielsen
- CS321-Hinton
- CS230: Deep Learning
- CS294-112
- 《深度学习》 Yoshua Bengio.Ian GoodFellow⭐
- 《自然语言处理》Jacob Eisenstein
- 《强化学习》 && 第二版
- hangdong的深度学习博客,论文推荐
- Practical Deep Learning for Coders, v3
- 《Tensorflow实战Google深度学习框架》 郑泽宇 顾思宇
- 如何系统地学习算法? && LeetCode && leetcode题解 && 《算法导论》中算法的C++实现
- 机器学习算法实战
- 深度学习框架
- 如何成为一名算法工程师 && 从小白到入门算法,我的经验分享给你~ && 我的研究生这三年 ⭐
- 编程面试的题目分类
- 《AI算法工程师手册》
- 如何准备算法工程师面试,斩获一线互联网公司机器学习岗offer?
- 【完结】深度学习CV算法工程师从入门到初级面试有多远,大概是25篇文章的距离
- 计算机相关技术面试必备 && CS-WiKi && 计算机基础面试问题全面总结 && TeachYourselfCS-CN && 面试算法笔记-中文
- 算法工程师面试
- 深度学习面试题目
- 深度学习500问
- AI算法岗求职攻略
- Kaggle实战
- 常用算法:
- Feature Engineering:continue variable && categorical variable
- Classic machine learning algorithm:LR, KNN, SVM, Random Forest, GBDT(XGBoost&&LightGBM), Factorization Machine, Field-aware Factorization Machine, Neural Network
- Cross validation, model selection:grid search, random search, hyper-opt
- Ensemble learning
- kaggle竞赛宝典第一章-竞赛框架篇!:star:
- Kaggle 项目实战(教程) = 文档 + 代码 + 视频
- Kaggle入门系列:(一)机器学习环境搭建 && Kaggle入门系列:(二)Kaggle简介 && Kaggle入门系列(三)Titanic初试身手
- 从 0 到 1 走进 Kaggle
- Kaggle 入门指南
- 一个框架解决几乎所有机器学习问题 && Approaching (Almost) Any Machine Learning Problem | Abhishek Thakur
- 分分钟带你杀入Kaggle Top 1%
- 如何达到Kaggle竞赛top 2%?这里有一篇特征探索经验帖
- 如何在 Kaggle 首战中进入前 10%?
- Kaggle 首战 Top 2%, APTOS 2019 复盘总结 + 机器学习竞赛通用流程归纳
- kaggle的riiid比赛里关于数据处理时间空间优化的笔记
- 常用算法:
- 大数据&机器学习相关竞赛推荐
- 1. 一文看懂25个神经网络模型
- 2. DNN概述论文:详解前馈、卷积和循环神经网络技术
- 3. colah's blog
- 4. Model Zoom
- 5. DNN概述
- GitHub上的机器学习/深度学习综述项目合集
- AlphaTree-graphic-deep-neural-network
- 从LeNet-5到DenseNet
- 深度学习笔记(十一)网络 Inception, Xception, MobileNet, ShuffeNet, ResNeXt, SqueezeNet, EfficientNet, MixConv
- CNN网络结构的发展
- Awesome - Image Classification:论文&&代码大全
- pytorch-image-models
- 深度学习之目标检测的前世今生(Mask R-CNN)
- 深度学习目标检测模型全面综述:Faster R-CNN、R-FCN和SSD
- 从RCNN到SSD,这应该是最全的一份目标检测算法盘点
- 目标检测算法综述三部曲
- From RCNN to YOLOv3:上,下
- 后 R-CNN时代, Faster R-CNN、SSD、YOLO 各类变体统治下的目标检测综述:Faster R-CNN系列胜了吗?
- 目标检测进化史
- CVPR2019目标检测方法进展综述
- 一文看尽21篇目标检测最新论文(腾讯/Google/商汤/旷视/清华/浙大/CMU/华科/中科院等
- 我这两年的目标检测
- Anchor-Free目标检测算法: 第一篇:arxiv2015_baidu_DenseBox, 如何评价最新的anchor-free目标检测模型FoveaBox?, FCOS: 最新的one-stage逐像素目标检测算法 && 最新的Anchor-Free目标检测模型FCOS,现已开源! && 中科院牛津华为诺亚提出CenterNet,one-stage detector可达47AP,已开源! && AnchorFreeDetection
- Anchor free深度学习的目标检测方法
- 聊聊Anchor的"前世今生"(上)&&聊聊Anchor的"前世今生"(下)
- 目标检测算法综述之FPN优化篇 && 一文看尽物体检测中的各种FPN
- awesome-object-detection:论文&&代码
- deep_learning_object_detection
- ObjectDetectionImbalance
- 图像语义分割(Semantic segmentation) Survey
- 干货 | 一文概览主要语义分割网络
- 语义分割 发展综述
- 9102年了,语义分割的入坑指南和最新进展都是什么样的
- 实例分割最新最全面综述:从Mask R-CNN到BlendMask
- 语义分割综述:深度学习背景下的语义分割的发展状况【推荐】
- Awesome Semantic Segmentation:论文&&代码
- 一篇看完就懂的最新语义分割综述
- 基于深度学习的语义分割综述
- 如何走近深度学习人脸识别?你需要这篇超长综述 | 附开源代码
- 人脸检测和识别算法综述
- 人脸检测算法综述
- 人脸检测背景介绍和发展现状
- 人脸识别算法演化史
- CascadeCNN
- MTCNN
- awesome-Face_Recognition
- 异质人脸识别研究综述
- 老板来了:人脸识别+手机推送,老板来了你立刻知道。&& 手把手教你用Python实现人脸识别 && 人脸识别项目,网络模型,损失函数,数据集相关总结
- 基于深度学习的人脸识别技术综述 && 如何走近深度学习人脸识别?你需要这篇超长综述 && 人脸识别损失函数综述(附开源实现) && Face Recognition Loss on Mnist with Pytorch && 人脸识别的LOSS(上) && 人脸识别的LOSS(下)
- 人脸关键点检测
- A Comprehensive Introduction to Different Types of Convolutions in Deep Learning && 翻译:上、下
- 卷积有多少种?一文读懂深度学习中的各种卷积
- 各种卷积
- Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积)
- 深度学习基础--卷积类型
- 变形卷积核、可分离卷积
- 对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解
- 反卷积
- Dilated/Atrous conv 空洞卷积/多孔卷积
- 卷积层输出大小尺寸计算及 “SAME” 和 “VALID” && 卷积的三种模式full, same, valid以及padding的same, valid
- 正常卷积与空洞卷积输出特征图与感受野大小的计算
- 【Tensorflow】tf.nn.depthwise_conv2d如何实现深度卷积?
- 【Tensorflow】tf.nn.atrous_conv2d如何实现空洞卷积?
- 【Tensorflow】tf.nn.separable_conv2d如何实现深度可分卷积?
- 【TensorFlow】tf.nn.conv2d_transpose是怎样实现反卷积的?
- 卷积神经网络工作原理
- 「七夕的礼物」: 一日搞懂卷积神经网络
- 一文读懂卷积神经网络中的1x1卷积核
- 如何理解神经网络中通过add和concate的方式融合特征? && 神经网络中对需要concat的特征进行线性变换然后相加是否好于直接concat?
- CNN 模型所需的计算力(flops)和参数(parameters)数量是怎么计算的? && 深度学习中卷积的参数量和计算量
- 经典CNN模型LeNet解读
- 机器学习进阶笔记之三 | 深入理解Alexnet
- 一文读懂VGG网络
- Inception V1,V2,V3,V4 模型总结
- ResNet解析
- 一文简述ResNet及其多种变体
- CapsNet入门系列
- 深入剖析MobileNet和它的变种(例如:ShuffleNet)为什么会变快?
- CNN模型之ShuffleNet
- ShuffleNet V2和四个网络架构设计准则
- ResNeXt 深入解读与模型实现
- 如何评价Momenta ImageNet 2017夺冠架构SENet?
- CBAM:卷积块注意力模块 && CBAM: Convolutional Block Attention Module
- SKNet——SENet孪生兄弟篇
- GCNet:当Non-local遇见SENet
- 深度学习笔记(十一)网络 Inception, Xception, MobileNet, ShuffeNet, ResNeXt, SqueezeNet, EfficientNet, MixConv
- 如何评价最新的Octave Convolution?
- ResNeSt 之语义分割 && 关于ResNeSt的点滴疑惑 && ResNeSt在刷榜之后被ECCV2020 strong reject
- 目标检测的性能评价指标 && NMS和计算mAP时的置信度阈值和IoU阈值 && 白话mAP && 目标检测模型的评估指标mAP详解(附代码)
- 深度学习中IU、IoU(Intersection over Union)
- Selective Search for Object Detection (译文)
- Region Proposal Network(RPN)
- 边框回归(Bounding Box Regression)详解
- NMS——非极大值抑制 && 非极大值抑制NMS的python实现
- 一文打尽目标检测NMS——精度提升篇 && 一文打尽目标检测NMS——效率提升篇
- 目标检测回归损失函数简介:SmoothL1/IoU/GIoU/DIoU/CIoU Loss
- 将CNN引入目标检测的开山之作:R-CNN
- R-CNN论文详解
- 深度学习(十八)基于R-CNN的物体检测
- Fast R-CNN
- 深度学习(六十四)Faster R-CNN物体检测 && 你真的学会RoI Pooling了吗?
- 目标检测论文阅读:Feature Pyramid Networks for Object Detection
- SSD
- 实例分割--Mask RCNN详解(ROI Align / Loss Function) && 令人拍案称奇的Mask RCNN
- 何恺明大神的「Focal Loss」,如何更好地理解? && FocalLoss 对样本不平衡的权重调节和减低损失值 && focal_loss 多类别和二分类 Pytorch代码实现 && 多分类focal loss及其tensorflow实现
- 堪比Focal Loss!解决目标检测中样本不平衡的无采样方法
- 目标检测正负样本区分策略和平衡策略总结(一) && 目标检测正负样本区分策略和平衡策略总结(二) && 目标检测正负样本区分策略和平衡策略总结(三)
- YOLO && 目标检测|YOLO原理与实现 && 图解YOLO && 【论文解读】Yolo三部曲解读——Yolov1
- 目标检测|YOLOv2原理与实现(附YOLOv3) && YOLO2 && 【论文解读】Yolo三部曲解读——Yolov2
- <机器爱学习>YOLO v3深入理解 && 【论文解读】Yolo三部曲解读——Yolov3
- YOLOv4
- 目标检测之CornerNet, 1, 2, 3
- 目标检测小tricks--样本不均衡处理
- 超像素、语义分割、实例分割、全景分割 傻傻分不清 && 语义分割、实例分割和全景分割的区别
- 语义分割卷积神经网络快速入门
- 图像语义分割入门+FCN/U-Net网络解析 && 深入理解深度学习分割网络Unet
- Unet神经网络为什么会在医学图像分割表现好?
- 图像语义分割的工作原理和CNN架构变迁
- 语义分割中的Attention和低秩重建
- 打通多个视觉任务的全能Backbone:HRNet
- 深度学习中的注意力模型(2017版)
- Attention Model(mechanism) 的 套路
- 计算机视觉中的注意力机制(推荐)
- More About Attention(推荐)
- 计算机视觉中的注意力机制
- NLP中的Attention Mechanism
- Transformer中的Attention
- 综述:图像处理中的注意力机制
- PyTorch官方实现ResNet && pytorch_resnet_cifar10
- PyTorch 63.Coding for FLOPs, Params and Latency
- 先读懂CapsNet架构然后用TensorFlow实现
- 目标检测-20种模型的原味代码汇总
- TensorFlow Object Detection API 教程
- 在TensorFlow+Keras环境下使用RoI池化一步步实现注意力机制
- mxnet如何查看参数数量 && mxnet查看FLOPS
- Pytorch-UNet
- segmentation_models.pytorch
- 千奇百怪的GAN变体
- 苏剑林博客,讲解得淋漓尽致
- The GAN Landscape:Losses, Architectures, Regularization, and Normalization
- 深度学习新星:GAN的基本原理、应用和走向
- GAN生成图像综述
- 2017年GAN 计算机视觉相关paper汇总
- 必读的10篇关于GAN的论文
- GAN原理学习笔记
- GAN万字长文综述
- 极端图像压缩的对抗生成网络
- 台湾大学李宏毅GAN教程
- CycleGAN:图片风格,想换就换 | ICCV 2017论文解读
- Wasserstein GAN && GAN:两者分布不重合JS散度为log2的数学证明
- 用变分推断统一理解生成模型(VAE、GAN、AAE、ALI)
-
word2vec
- 推荐:nlp-tutorial
- nlp-tutorial
- tensorflow中RNNcell源码分析以及自定义RNNCell的方法
- TensorFlow中RNN实现的正确打开方式
- TensorFlow RNN 代码
- Tensorflow实现的深度NLP模型集锦
- 用tensorflow LSTM如何预测股票价格
- TensorFlow的多层LSTM实践
- 《安娜卡列尼娜》文本生成——利用TensorFlow构建LSTM模型
- Graph Neural Network(GNN)综述
- 深度学习时代的图模型,清华发文综述图网络
- 清华大学图神经网络综述:模型与应用
- 图神经网络概述第三弹:来自IEEE Fellow的GNN综述
- GNN最全文献资料整理 && Awesome-Graph-Neural-Networks
- 如何理解 Graph Convolutional Network(GCN)
- 图卷积网络(GCN)新手村完全指南
- 何时能懂你的心——图卷积神经网络(GCN)
- 图卷积网络GCN的理解与介绍
- 一文读懂图卷积GCN
- 2020 年 GNN 开卷有益与再谈图卷积
- 【GCN】万字长文带你入门 GCN
- 如何解决图神经网络(GNN)训练中过度平滑的问题?
- 全连接的图卷积网络(GCN)和self-attention这些机制有什么区别联系 && CNN与GCN的区别、联系及融合
- 1. 优化算法纵览
- 2. 从梯度下降到Adam
- 3. 从梯度下降到拟牛顿法:盘点训练神经网络的五大学习算法
- 4. 正则化技术总结
- 权重衰减(weight decay)与学习率衰减(learning rate decay) && pytorch必须掌握的的4种学习率衰减策略
- 5. 最优化算法系列(math)
- 6. 神经网络训练中的梯度消失与梯度爆炸
- 7. 神经网络的优化及训练
- 8. 通俗讲解查全率和查准率 && 全面梳理:准确率,精确率,召回率,查准率,查全率,假阳性,真阳性,PRC,ROC,AUC,F1 && 机器学习之类别不平衡问题 (1) —— 各种评估指标 && 机器学习之类别不平衡问题 (2) —— ROC和PR曲线 && AUC详解与python实现 && 微平均和宏平均 && 机器学习中的性能度量 && 精确率、召回率、F1 值、ROC、AUC 各自的优缺点是什么
- 激活函数一览 && 深度学习中几种常见的激活函数理解与总结
- 深度学习笔记(三):激活函数和损失函数
- 激活函数/损失函数汇总
- 机器学习中常见的损失函数及其应用场景 && PyTorch的十八个损失函数
- 深度度量学习中的损失函数
- 反向传播算法(过程及公式推导)
- 通俗理解神经网络BP传播算法
- 10. Coursera吴恩达《优化深度神经网络》课程笔记(3)-- 超参数调试、Batch正则化和编程框架
- 11. 机器学习各种熵
- 12. 距离和相似性度量
- 13. 机器学习里的黑色艺术:normalization, standardization, regularization && 数据标准化/归一化normalization && 特征工程中的「归一化」有什么作用?
- 14. LSTM系列的梯度问题
- 15. 损失函数整理
- 16. 详解残差块为何有助于解决梯度弥散问题
- 17. FAIR何恺明等人提出组归一化:替代批归一化,不受批量大小限制
- 18. Batch Normalization(BN):1 ,2 ,3 ,4 , 5, 6, 7
- 19. 详解深度学习中的Normalization,不只是BN && 如何区分并记住常见的几种 Normalization 算法
- 20. BFGS
- 21. 详解深度学习中的梯度消失、爆炸原因及其解决方法 && 神经网络梯度消失和梯度爆炸及解决办法
- 22. Dropout, 1, 2, 3,系列解读Dropout
- 23.谱归一化(Spectral Normalization)的理解,常见向量范数和矩阵范数,谱范数正则(Spectral Norm Regularization)的理解
- 24.L1正则化与L2正则化 && 深入理解L1、L2正则化 && L2正则=Weight Decay?并不是这样 && 都9102年了,别再用Adam + L2 regularization
- 25.为什么选用交叉熵而不是MSE &&为什么使用交叉熵作为损失函数 &&二元分类为什么不能用MSE做为损失函数?&& 为什么平方损失函数不适用分类问题?
- 浅谈神经网络中的梯度爆炸问题
- 为什么weight decay能够防止过拟合
- 交叉熵代价函数(作用及公式推导) && 交叉熵损失的来源、说明、求导与pytorch实现 && Softmax函数与交叉熵 && 极大似然估计与最小化交叉熵损失或者KL散度为什么等价
- 梯度下降优化算法纵览, 1, 2, 几种优化算法的比较(BGD、SGD、Adam、RMSPROP)
- Softmax:详解softmax函数以及相关求导过程 && softmax的log似然代价函数(公式求导) && 【技术综述】一文道尽softmax loss及其变种
- 从最优化的角度看待Softmax损失函数 && Softmax理解之二分类与多分类 && Softmax理解之Smooth程度控制 && Softmax理解之margin
- 权重初始化
- 为什么说bagging是减少variance,而boosting是减少bias?
- 训练的神经网络不工作?一文带你跨过这37个坑
- Deep Learning 之 训练过程中出现NaN问题
- 神经网络训练trick
- 你有哪些deep learning(rnn、cnn)调参的经验?
- GAN的一些小trick
- 深度学习与计算机视觉系列(8)_神经网络训练与注意点
- 神经网络训练loss不下降原因集合 && loss不下降的解决方法
- 深度学习:欠拟合问题的几种解决方案 &&过拟合和欠拟合问题
- 机器学习:如何找到最优学习率及实现
- 神经网络中 warmup 策略为什么有效
- 不平衡数据集处理方法: 其一, 其二, 其三 && Awesome Imbalanced Learning && Class-balanced-loss-pytorch
- 同一个神经网络使用不同激活函数的表达能力是否一致
- 论文笔记之数据增广:mixup
- 避坑指南:数据科学家新手常犯的13个错误
- 凭什么相信CNN的结果?--可视化
- 大卷积核还是小卷积核? 1, 2
- 模型可解释性差?你考虑了各种不确定性了吗?
- 炼丹笔记系列
- 炼丹笔记三:数据增强 && 数据增强(Data Augmentation)
- 【技术综述】 深度学习中的数据增强(上) && 【技术综述】深度学习中的数据增强(下)
- 深度学习数据增广技术一览
- 《Bag of Tricks for Image Classification with CNN》&& pdf
- 深度神经网络模型训练中的最新tricks总结【原理与代码汇总】 && 神经网络训练trick
- Kaggle解决方案分享
- ensemble
- deformable
- sync bn
- ms train/test
- 目标检测任务的优化策略tricks
- 目标检测小tricks--样本不均衡处理
- 汇总|目标检测中的数据增强、backbone、head、neck、损失函数
- 目标检测算法中的常见trick
- Bag of Freebies —— 提升目标检测模型性能的免费tricks
- 目标检测比赛中的tricks(已更新更多代码解析)
- Kaggle:肺癌自动诊断系统3D Deep Leaky Noisy-or Network 论文阅读
- 干货|大神教你如何参加kaggle比赛——根据CT扫描图预测肺癌
- The Python Tutorial
- 廖雪峰Python教程
- 菜鸟教程
- 给深度学习入门者的Python快速教程 - 基础篇
- Python - 100天从新手到大师
- Python中读取,显示,保存图片的方法 && Python的图像打开保存显示的几种方式
- OpenCV-Python Tutorials
- OpenCV官方教程中文版(For Python)
- 数字图像处理系列
- python+OpenCV图像处理
- 给深度学习入门者的Python快速教程 - 番外篇之Python-OpenCV
- 如何高效地学习 TensorFlow 代码
- 中文教程
- TensorFlow官方文档
- CS20:Tensorflow for DeepLearning Research
- 吴恩达TensorFlow专项课程
- 【干货】史上最全的Tensorflow学习资源汇总
- 《21个项目玩转深度学习———基于TensorFlow的实践详解》
- 最全Tensorflow2.0 入门教程持续更新
- Github优秀开源教程
- Pytorch版动手学深度学习
- PyTorch中文文档
- WELCOME TO PYTORCH TUTORIALS
- 史上最全的PyTorch学习资源汇总
- 【干货】史上最全的PyTorch学习资源汇总
- Hands-on tour to deep learning with PyTorch
- pytorch学习(五)—图像的加载/读取方式 && PyTorch—ImageFolder/自定义类 读取图片数据
- Top 50 matplotlib Visualizations – The Master Plots (with full python code)
- Python之MatPlotLib使用教程
- 十分钟上手matplotlib,开启你的python可视化
- 给深度学习入门者的Python快速教程 - numpy和Matplotlib篇
- 1. 25个深度学习相关公开数据集
- 2. 自然语言处理(NLP)数据集
- 3.全唐诗(43030首)
- 4. 伯克利大学公开数据集
- 5. ACL 2018资源:100+ 预训练的中文词向量
- 6. 预训练中文词向量
- 7. 公开数据集种子库
- 8. 计算机视觉,深度学习,数据挖掘数据集整理
- 9. 计算机视觉著名数据集CV Datasets
- 10. 计算机视觉相关数据集和比赛
- 11. 这是一份非常全面的开源数据集,你,真的不想要吗?
- 12. 人群密度估计现有主要数据集特点及其比较
- 13. DANBOORU2017: A LARGE-SCALE CROWDSOURCED AND TAGGED ANIME ILLUSTRATION DATASET
- 14. 行人重识别数据集
- 15. 自然语言处理常见数据集、论文最全整理分享
- 16. paper, code, sota
- 17. 旷视RPC大型商品数据集发布!
- 18. CVPR 2019「准满分」论文:英伟达推出首个跨摄像头汽车跟踪数据集(汽车Re-ID)
- 19.【OCR技术】大批量生成文字训练集
- 20. 语义分析数据集-MSRA
- IEEE DataPort
- 数据集市
- 医疗/医学图像数据集:Medical Data for Machine Learning && 医疗领域图像挑战赛数据集 && 【医学影像系列:一】数据集合集 最新最全 && medical-imaging-datasets && 【数据集】一文道尽医学图像数据集与竞赛 && 医学图像数据集汇总
- 刘知远_如何写一篇合格的NLP论文
- 刘洋_如何写论文_V7
- 如何端到端地写科研论文-邱锡鹏
- 论文Introduction写作其一, 论文Introduction写作其二, 论文Introduction写作其三
- 毕业论文怎么写
- 浅谈学术论文rebuttal && 学术论文投稿与返修(Rebuttal)分享
- 研之成理写作实验室
- 智源论坛·论文写作专题报告会:《论文写作小白的成长之路》 && 《谈如何写一篇合格的国际学术论文》 && 《计算机视觉会议论文从投稿到接收》
- ResearchGo:研究生活第一帖——文献检索与管理
- ResearchGo:研究生活第二贴——文献阅读
- ResearchGo:研究生活第三帖——阅读辅助
- ResearchGo:研究生活第四帖——文献调研
- ResearchGo:研究生活第五帖——文献综述
- ResearchGo:研究生活第六帖——如何讲论文
- ResearchGo:研究生活第七帖——专利检索与申请
- ResearchGo:研究生活第八帖——写论文、做PPT、写文档必备工具集锦
- 机器学习原理⭐
- ID3、C4.5、CART、随机森林、bagging、boosting、Adaboost、GBDT、xgboost算法总结
- 数据挖掘十大算法简要说明,机器学习十大经典算法入门 && 【算法模型】轻松看懂机器学习十大常用算法
- AdaBoost到GBDT系列
- 最常见核心的决策树算法详细介绍,含ID3、C4.5、CART:star: && 最常用的决策树算法!Random Forest、Adaboost、GBDT 算法:star: && 终于有人把XGBoost 和 LightGBM 讲明白了,项目中最主流的集成算法!:star:
- 为什么xgboost要用泰勒展开,优势在哪里
- Python3《机器学习实战》学习笔记(二):决策树基础篇之让我们从相亲说起
- Python3《机器学习实战》学习笔记(三):决策树实战篇之为自己配个隐形眼镜
- 机器学习实战教程(十三):树回归基础篇之CART算法与树剪枝
- 《机器学习实战》基于信息论的三种决策树算法(ID3,C4.5,CART)
- 说说决策树剪枝算法
- 机器学习实战 第九章 树回归
- 决策树值ID3、C4.5实现
- 决策树之CART实现
- 【机器学习面试总结】—— SVM
- SVM系列-从基础到掌握
- SVM通俗导论 July
- 核函数 : 机器学习有很多关于核函数的说法,核函数的定义和作用是什么? && SVM中,高斯核为什么会把原始维度映射到无穷多维? && svm核函数的理解和选择 && 核函数和径向基核函数 (Radial Basis Function)--RBF && SVM核函数
- LightGBM大战XGBoost
- 概述XGBoost、Light GBM和CatBoost的同与不同 && XGBoost、LightGBM、Catboost总结 && XGBoost、Light GBM和CatBoost的参数及性能比较
- 梯度提升决策树
- GBDT原理及应用
- XGBOOST原理篇
- xgboost入门与实战(原理篇) && xgboost入门与实战(实战调参篇)
- 【干货合集】通俗理解kaggle比赛大杀器xgboost
- GBDT分类的原理及Python实现
- GBDT原理及利用GBDT构造新的特征-Python实现
- Python+GBDT算法实战——预测实现100%准确率
- xgboost之近似分位数算法(直方图算法)详解
- 马尔科夫决策过程之Markov Processes(马尔科夫过程)
- 马尔科夫决策过程之Markov Reward Process(马尔科夫奖励过程)
- 马尔科夫决策过程之Bellman Equation(贝尔曼方程)
- 马尔科夫决策过程之Markov Decision Process(马尔科夫决策过程)
- 马尔科夫决策过程之最优价值函数与最优策略
- 机器学习中,有哪些特征选择的工程方法? && 机器学习(四):数据预处理--特征工程概述 && 特征工程完全手册 - 从预处理、构造、选择、降维、不平衡处理,到放弃 && 特征工程中的「归一化」有什么作用
- 15分钟带你入门sklearn与机器学习——分类算法篇 && 如何为你的回归问题选择最合适的机器学习方法?
- 十分钟上手sklearn:安装,获取数据,数据预处理 && 十分钟上手sklearn:特征提取,常用模型,交叉验证
- MachineLearning_Python
- Machine Learning Course with Python
- Statistical-Learning-Method_Code
- Python3机器学习
- 含大牛总结的分类模型一般需要调节的参数
- 模型汇总-14 多任务学习-Multitask Learning概述
- (译)深度神经网络的多任务学习概览(An Overview of Multi-task Learning in Deep Neural Networks)
- Multi-task Learning and Beyond: 过去,现在与未来;
- few-shot learning是什么
- 零次学习(Zero-Shot Learning)入门
- 小样本学习(Few-shot Learning)综述
- Few-Shot Learning in CVPR 2019
- 当小样本遇上机器学习 fewshot learning
- 1. 迁移学习:经典算法解析
- 2. 什么是迁移学习 (Transfer Learning)?这个领域历史发展前景如何?
- 3. 迁移学习个人笔记
- 迁移学习总结(One Shot Learning, Zero Shot Learning)
- Domain Adaptation视频教程(附PPT)及经典论文分享
- 模型汇总15 领域适应性Domain Adaptation、One-shot/zero-shot Learning概述
- 【深度学习】论文导读:无监督域适应(Deep Transfer Network: Unsupervised Domain Adaptation)
- 【论文阅读笔记】基于反向传播的无监督域自适应研究
- 【Valse大会首发】领域自适应及其在人脸识别中的应用
- CVPR 2018:基于域适应弱监督学习的目标检测
- 强化学习(Reinforcement Learning)知识整理
- 强化学习从入门到放弃的资料
- 强化学习入门
- 强化学习——从Q-Learning到DQN到底发生了什么?
- 从强化学习到深度强化学习(上)
- 从强化学习到深度强化学习(下)
- 一文带你理解Q-Learning的搜索策略