LuoTeng's Blog

每一个不曾起舞的日子都是对生命的辜负


  • 首页

  • 标签

  • 分类

  • 归档

卷积神经网络 CNN 模型

发表于 2019-03-12 | 分类于 机器学习 , 图像处理
LeNET-5模型简介LeNet-5 出自论文 Gradient-Based Learning Applied to Document Recognition,是一种用于手写体字符识别的非常高效的卷积神经网络。 下面的代码根据 LeNET-5 模型结构在每层卷积层的卷积核数量上做了相应调整,以 MNIST 数据集为例展示了 LeNET-5 在 Tensorflow 框架下的手写数字体识别。 模型代码 Tensorflow123456789101112131415161718192021222324252627282930313233343536373839404142434445464748 ...
阅读全文 »

Tensorflow 学习笔记

发表于 2019-03-09 | 分类于 工具 , tensorflow
基础创建常量1234# 创建一个(1,2)维常量m1 = tf.constant([[3,3]])# 创建一个(2,1)常量m2 = tf.constant([[2],[3]]) 定义变量12# 定义一个(2,)形状的变量x = tf.Variable([1,2]) 运算基本运算123456# 矩阵乘法op,m1,m2为可相乘的张量,product为结果张量product = tf.matmul(m1, m2)# 矩阵加法op,x+y,add为结果张量,x和y的张量维度要一致add = tf.add(x, y)# 矩阵减法op,x-y,sub为结果张量,x和y的张量维度要一致sub = tf. ...
阅读全文 »

28张知识图谱,总结吴恩达 deeplearning.ai 课程

发表于 2019-02-15 | 分类于 学习图谱
deeplearning.ai 系列课程相关的笔记和参考资料很多,这里就不过多提及。最近,发现有个来自微软的美女作者 Tess Ferrandez 制作并在 SlideShare 上分享了吴恩达深度学习专项课程 28 张精炼图解,可谓是把知识点做了很好的提炼和总结!我们一起来看一下。 1. 深度学习介绍 2. 逻辑回归 3. 浅层神经网络 4. 深层神经网络 5. 设置你的机器学习应用程序 6. 正则化防止过拟合 7. 优化训练 8. 优化算法 9. 超参数调试 10. 构建你的机器学习项目 11. 错误分析 12. 训练 vs 验证/测试 失配 13. 扩展学习 14. 卷积基础 15. P ...
阅读全文 »

详解 word2vec

发表于 2019-02-03 | 分类于 机器学习 , 自然语言处理
预备知识本节介绍 word2vec 中将用到的一些重要知识点,包括 sigmoid 函数、Beyes 公式和 Huffman 编码等。 sigmoid 函数sigmoid 函数是神经网络中常用的激活函数之一,其定义为$$ \sigma ( x ) = \frac { 1 } { 1 + e ^ { - x } } $$该函数的定义域为 $( - \infty , + \infty )$,值域为 $( 0,1 )$。下图给出了 sigmoid 函数的图像。 sigmoid 函数的导函数具有以下形式$$ \sigma ^ { \prime } ( x ) = \sigma ( x ) [ 1 - ...
阅读全文 »

图解 Attention

发表于 2019-02-03 | 分类于 机器学习 , 自然语言处理
写在前面 本文是对博文《Attn: Illustrated Attention》的翻译,有一部分是自己的理解,和原文出入不大。国内网盘链接 在基于神经网络的机器翻译 (NMT) 出现之前,基于统计的方法一直是机器翻译的主流方法。 NMT 是近些年才出现的机器翻译方法,它通过训练大型神经网络来读入文本并输出文本的翻译。目前NMT中最流行的框架是序列到序列 (seq2seq) 的方法,本文将通过图解的方法来介绍 seq2seq 框架以及其中的注意力机制。 在 seq2seq 中,有一个 Encoder 和一个 Decoder,Encoder 和 Decoder 都是 RNN。即:把要翻译的语 ...
阅读全文 »

吴恩达 Coursera(DeepLearning.ai) 笔记和作业汇总

发表于 2019-01-19 | 分类于 学习图谱 , 深度学习
最近在学习吴恩达深度学习的课程,发现知乎上有个大佬做了详细的总结,为了方便查找,所以把他的帖子链接搬运过来! 第一门课:神经网络和深度学习主要讲了神经网络的基本概念,以及机器学习的梯度下降法,向量化,而后进入了浅层和深层神经网络的实现。 第三周:主要是浅层神经网络的实现 笔记:浅层神经网络 作业:浅层神经网络 第四周:深层神经网络的实现 笔记:深层神经网络 作业:深层神经网络 第二门课:改善神经网络介绍了改善神经网络的方法,如正则化,超参数调节,优化算法等。 第一周:训练集的划分、正则化、dropout 笔记:深度学习的实践层面 作业:深度学习的实践层面 第二周:Mini-bat ...
阅读全文 »

奇异值分解 SVD 与潜在语义分析 LSA

发表于 2019-01-05 | 分类于 机器学习 , 自然语言处理
LSA概论LSA(latent semantic analysis) 潜在语义分析,也被称为 LSI(latent semantic index),是 Scott Deerwester,Susan T.Dumais 等人在1990年提出来的一种新的索引和检索方法。该方法和传统向量空间模型 (vector space model) 一样使用向量来表示词 (terms) 和文档 (documents),并通过向量间的关系(如夹角)来判断词及文档间的关系;而不同的是,LSA 将词和文档映射到 潜在语义空间,从而去除了原始向量空间中的一些 “噪音”,提高了信息检索的精确度。 传统向量空间模型使用精确的 ...
阅读全文 »

TCP Congestion 性能测试分析

发表于 2018-12-30 | 分类于 计算机网络 , 实验
配置环境 操作系统: Windows10 虚拟机操作系统: SEEDUbuntu 16.04内存大小:1G;显存大小:16MB;硬盘大小:80GB 虚拟机工具: VirtualBox 5.2.22 网络平台: GNS3 2.1.0 机器配置(共两个虚拟机,如下):机器名:SEED_Client;内存大小;1024M;处理器数量:1个;显存大小:16M机器名:SEED_Server;内存大小:1024M;处理器数量:1个;显存大小:16M机器名:SEED_Route;内存大小:1024M;处理器数量:1个;显存大小:16M 本机计算机配置:内存:8G;CPU:Intel Core i5-5200 ...
阅读全文 »

Hadoop 实现朴素贝叶斯 Naive Bayes 文本分类

发表于 2018-12-24 | 分类于 hadoop , 算法实验
实验简介Hadoop 是什么Hadoop 是一个由 Apache 基金会所开发的分布式系统基础架构。主要解决海量数据的存储和海量数据的分析计算问题。广义上来说 HADOOP 通常是指一个更广泛的概念—— HADOOP 生态圈。 Hadoop 的优势: 高可靠性:因为 Hadoop 假设计算元素和存储会出现故障,因为它维护多个工作数据副本,在出现故障时可以对失败的节点重新分布处理。 高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。 高效性:在 MapReduce 的思想下, Hadoop 是并行工作的,以加快任务处理速度。 高容错性:自动保存多份副本数据,并且能够自动将失败的任务重 ...
阅读全文 »

Hadoop 运行环境搭建与完全分布式部署

发表于 2018-12-23 | 分类于 hadoop
虚拟机环境搭建本机操作系统配置如下: linux 版本:CentOS Linux release 7.4.1708(Core)运行命令 cat /etc/redhat-release cpu info:Intel(R) Core(TM) i5-6500 CPU @ 3.20GHz运行命令 grep "model name" /proc/cpuinfo | cut -f2 -d: cpu cores:4运行命令 cat /proc/cpinfo | grep "cpu cores" | uniq MemTotal:7872792 kB运行命令 grep ...
阅读全文 »
1…456

Luo Teng

58 日志
18 分类
74 标签
GitHub 知乎
Links
  • mamaxu
  • sunyan
© 2020 Luo Teng
由 Hexo 强力驱动
|
主题 — NexT.Gemini v5.1.4