May5

One reaps what one sows.


  • 首页

  • 关于

  • 标签

  • 分类

  • 归档

  • 算法

  • 推荐

  • 读书

  • 电影

DL_知识点随笔积累

置顶 | 发表于 2019-11-14 | 更新于 2020-09-29 | 分类于 CNN原理与视觉实践 | 评论数:
本文字数: 21k | 阅读时长 ≈ 19 分钟

1. 前言

  • 此篇博文用来记录平常见到的DL有关讲解很清楚的知识点。
  • 目前文章包括如下内容:(会坚持更新来记录有关知识)
    • 全连接层流程及softmax loss
    • 过拟合欠拟合问题
    • 权重衰减的推导
    • 归一化
    • 网络参数的几种初始化方式
    • 机器学习模型的三种评估方法
    • 感受野
    • 全局平均池化
    • 张量维度的判断技巧
    • 最近邻插值Nearest和双线性插值bilinear
    • Focal Loss
    • 有关PyTorch中nn.CrossEntropyLoss()加入权重的理解
    • Pseudo Labeling 训练策略
    • CNN计算力FLOPs
    • 评价指标ROC和AUC
    • torch.cat方法简记
      阅读全文 »

18-综合“记忆”和“泛化”的Wide&Deep

发表于 2021-01-26 | 分类于 推荐系统 | 评论数:
本文字数: 11k | 阅读时长 ≈ 10 分钟

前言

  • 本文记录了《深度学习推荐系统实战》第18讲Wide&Deep模型的要点
  • 课程地址:深度学习推荐系统实战
    阅读全文 »

17-基于Embedding+MLP的Deep Crossing

发表于 2021-01-26 | 分类于 推荐系统 | 评论数:
本文字数: 7.6k | 阅读时长 ≈ 7 分钟

前言

  • 本文记录了《深度学习推荐系统实战》第17讲Embedding+MLP模型的要点
  • 课程地址:深度学习推荐系统实战
    阅读全文 »

12-Embedding召回中的局部敏感哈希策略

发表于 2021-01-26 | 分类于 推荐系统 | 评论数:
本文字数: 6.1k | 阅读时长 ≈ 6 分钟

前言

  • 本文记录了《深度学习推荐系统实战》第12讲局部敏感哈希的要点
  • 课程地址:深度学习推荐系统实战
  • 深度学习推荐系统经常采用 Embedding 召回这一准确又便捷的方法。但是,在面对百万甚至更高量级的候选集时,线性地逐一计算 Embedding 间的相似度,往往会造成极大的服务延迟。这个时候要解决的问题就是,如何快速找到与一个 Embedding 最相似的 Embedding?这直接决定了召回层的执行速度,进而会影响推荐服务器的响应延迟。
  • 业界解决近似 Embedding 搜索的主要方法:局部敏感哈希。
    阅读全文 »

11-召回层初识

发表于 2021-01-22 | 分类于 推荐系统 | 评论数:
本文字数: 5.7k | 阅读时长 ≈ 5 分钟

前言

  • 本文记录了《深度学习推荐系统实战》第11讲召回层的要点
  • 课程地址:深度学习推荐系统实战
    阅读全文 »

09&10-线上服务和存储模块

发表于 2021-01-22 | 分类于 推荐系统 | 评论数:
本文字数: 3.1k | 阅读时长 ≈ 3 分钟

前言

  • 本文记录了《深度学习推荐系统实战》第09讲线上服务和第10讲存储模块的要点
  • 课程地址:深度学习推荐系统实战
    阅读全文 »
12…27
May5

May5

一枚渣硕
161 日志
11 分类
29 标签
GitHub Weibo
Creative Commons
鲁ICP备20008876号
鲁公网安备37142602000110号
© 2018 – 2021 May5
|