LuoTeng's Blog

每一个不曾起舞的日子都是对生命的辜负


  • 首页

  • 标签

  • 分类

  • 归档

PyCharm 永久激活方法

发表于 2020-04-02 | 分类于 配置
激活前注意事项 PyCharm尽量在官网下载:pycharm下载 本教程适用于PyCharm3.3之前的版本,3.4暂不支持,如果更新需要卸载重装之前的版本。这个是最新 PyCharm3.2的链接 | 提取码:ut64 本教程适用于 jetbrains 全系列产品(Pycharm、Idea、WebStorm、phpstorm、CLion、RubyMine、AppCode、DataGrid)目录 不需要修改 hosts 文件,以及任何配置文件,如果之前修改过 可重装软件 或删除用户目录下的.PyCharm2019目录(是个隐藏目录),切记! 激活教程下载破解补丁链接:jetbrains-a ...
阅读全文 »

Policy Based 深度强化学习总结

发表于 2020-02-23
阅读全文 »

Value Based 深度强化学习总结

发表于 2020-02-23
阅读全文 »

中文语料库预处理

发表于 2019-12-12
前言最近在做 NPL 相关的文本分类的研究,因为好多开源项目都是英文数据集,在做英文文本预处理的时候,有很多公开的方法。但是中文文本的预处理方法较少,也很少有一些总结。 所以,我将自己处理中文数据集的一些心得体会再次做一个分享! 用到的库1234import osimport reimport jiebafrom collections import Counter 中文文本处理去掉空格12context = context.replace(' ', '')context = context.replace(' ', '') 中文文本与英文文本不一样之处在于,英文文本只有一种空格,而中文文本可 ...
阅读全文 »

PCNNATT 用于关系抽取

发表于 2019-11-28
PCNNATT笔记
阅读全文 »

强化学习用于本分分类

发表于 2019-11-23
《Learning Structured Representation for Text Classification via Reinforcement Learning》阅读笔记github代码
阅读全文 »

Hierarchical Attention Networks 层次注意力网络用于文本分类

发表于 2019-11-19 | 分类于 机器学习 , 自然语言处理
HAN 概述本文参考论文为 Hierarchical Attention Networks for Document Classification,来自 本篇论文是基于论文 Document Modeling with Gated Recurrent Neural Network for Sentiment Classification 作了一些改进,区别在于,本篇论文在其基础之上增加了 Attention 机制。 这里主要结合两篇论文分别对有注意力机制和没有注意力机制的文档的分层架构模型进行介绍。 Non-Attention HAN 模型使用两个神经网络分别建模句子和文档,采用一种自下向上的 ...
阅读全文 »

Graph Neural Networks 图神经网咯学习资料汇总

发表于 2019-11-18
论文 The Graph Neural Network Model: 图神经网络开山之作论文解读 Graph Neural Networks: A Review of Methods and Applications 论文解读 A Comprehensive Survey on Graph Neural Networks 论文解读 学习资料
阅读全文 »

TextCNN 详解

发表于 2019-11-12 | 分类于 机器学习 , 自然语言处理
论文背景论文 “Convolutional Neural Networks for Sentence Classification” 由 Yoon Kim 在 2014 年 EMNLP 会议上提出。 将卷积神经网络 CNN 应用到文本分类任务,利用多个不同 size 的 kernel 来提取句子中的关键信息(类似于多窗口大小的 ngram ),从而能够更好地捕捉局部相关性。 网络结构 TextCNN 的详细过程原理图如下: 说明: Embedding:第一层是图中最左边的 7 乘 5 的句子矩阵,每行是词向量,维度=5,这个可以类比为图像中的原始像素点。 Convolution:然后经过 ...
阅读全文 »

transformer 代码详解

发表于 2019-11-11 | 分类于 机器学习 , 自然语言处理
论文背景谷歌 2017 年发了一篇论文 《Attention is all you need》,文中提出了一种新的架构叫做 Transformer,用以来实现机器翻译。它抛弃了传统用 CNN 或者 RNN 的定式,取得了很好的效果,激起了工业界和学术界的广泛讨论。而在谷歌的论文发出不久,就有人用 tensorflow 实现了 Transformer 模型:A TensorFlow Implementation of the Transformer: Attention Is All You Need。 该论文原文,论文的中文翻译 代码架构 hyperparams.py : 该文件包含所有需要用 ...
阅读全文 »
12…6

Luo Teng

58 日志
18 分类
74 标签
GitHub 知乎
Links
  • mamaxu
  • sunyan
© 2020 Luo Teng
由 Hexo 强力驱动
|
主题 — NexT.Gemini v5.1.4