当前标签: Seq
真正的完全图解Seq2Seq Attention模型
转载公众号:https://mp.weixin.qq.com/s/0k71fKKv2SRLv9M6BjDo4w <https://mp.weixin.qq.com/s/0k71fKKv2SRLv9M6BjDo4w> 原创: 盛源车 机器学习算法与自然语言处理 <> 1周前 https://zhuanlan.zh...
2018-08-14 14:39
阅读(788)
Seq2Seq模型讲解
概述 Seq2Seq是一个Encoder-Deocder结构的模型,输入是一个序列,输出也是一个序列。 Encoder将一个可变长度的输入序列变为固定长度的向量,Decoder将这个固定长度的向量解码成可变长度的输出序列。 使用x={x1,x2,...,xn}x={x1,x2,...,xn}表示输入语句,y={...
2018-08-08 17:36
阅读(532)
完全图解Seq2Seq Attention模型
五分钟看懂seq2seq attention模型。 本文通过图片,详细地画出了seq2seq+attention模型的全部流程,帮助小伙伴们无痛理解机器翻译等任务的重要模型。 seq2seq 是一个Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列, Encoder 中将一个...
2018-08-03 14:56
阅读(1376)
Seq2Seq那些事
<>1前言 本篇博客主要记录的是使用Tensorflow搭建Seq2Seq模型,主要包括3个部分的叙述:第一,Seq2Seq模型的训练过程及原理。第二,复现基于SouGouS新闻语料库的文本摘要的应用。第三,Seq2Seq模型中存在的问题及相应的Trick。 本篇博客参考多篇博客完成,主要是作为自己的学习笔记...
2018-07-28 00:40
阅读(392)
基于keras的seq2seq中英文翻译实现
* 1. seq2seq概述 <https://blog.csdn.net/PIPIXIU/article/details/81016974#1-seq2seq概述> * 1.1 seq2seq简介 <https://blog.csdn.net/PIPIXIU/article/details/81016...
2018-07-13 09:58
阅读(1655)
干货|当深度学习遇见自动文本摘要,seq2seq+attention
随着近几年文本信息的爆发式增长,人们每天能接触到海量的文本信息,如新闻、博客、聊天、报告、论文、微博等。从大量文本信息中提取重要的内容,已成为我们的一个迫切需求,而 自动文本摘要(automatic text summarization)则提供了一个高效的解决方案。 根据Radev的定义[3],摘要是“一段从...
2018-05-29 00:00
阅读(266)
PyTorch使用seq2seq+attention实现时间格式转换
pytorch实现seq2seq+attention转换日期 使用keras实现加入注意力机制的seq2seq比较麻烦,所以这里我尝试使用机器翻译的seq2seq+attention模型实现人造日期对标准日期格式的转换。 所copy的代码来自practical-pytorch教程 <https://github...
2018-05-27 22:52
阅读(904)
使用tensorflow seq2seq进行时间序列预测
时间序列预测可以根据短期预测,长期预测,以及具体场景选用不同的方法,如ARMA、ARIMA、神经网络预测、SVM预测、灰色预测、模糊预测、组合预测法等等。所谓没有最好的模型,只有最适合的模型。至于哪一种模型能针对特定预测问题达到最高的精度,需要通过实验来证明。本文通过生成的随机数利用tensorflow的seq2s...
2018-05-11 16:56
阅读(503)