当前标签: NLP
三大金融文本语料(工商,新闻,资讯) - NLP语料
<>FinancialDatasets SmoothNLP 金融文本数据集(公开) | Public Financial Datasets for NLP Researches <>数据一览 由于github存储有限, 如需全量数据集, 请联系: contact@smoothnlp.com <mailto...
2019-05-29 16:17
阅读(542)
NLP系列(10)_词向量之图解Word2vec
审校:龙心尘 作者:Jay Alammar 编译:张秋玥、毅航、高延 https://blog.csdn.net/longxinchen_ml/article/details/89077048 <https://blog.csdn.net/longxinchen_ml/article/details/89077...
2019-04-08 09:58
阅读(684)
NLP系列(9)_深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘与百度NLP联合出品 作者:Damien Sileo 审校:百度NLP、龙心尘 编译:张驰、毅航 https://blog.csdn.net/longxinchen_ml/article/details/89058309 <https://blog.csdn.net/longxinchen_ml/a...
2019-04-08 09:56
阅读(339)
NLP输出文本评估:使用BLEU需要承担哪些风险?
译者| 大鱼 责编 | 琥珀 出品 | AI科技大本营(公众号ID:rgznai100) 怎样评价输出为文本的系统? 刚接触 NLP 时常有个疑问,就是如何评估这样一个系统——其输出为文本,而非对输入分类。当把一些文本输入系统,得到的输出也为文本时,这类问题称为 seq2seq 或字符串转导(strin...
2019-02-20 17:38
阅读(213)
如何用最强模型BERT做NLP迁移学习?
作者 | 台湾大学网红教授李宏毅的三名爱徒 来源 | 井森堡,不定期更新机器学习技术文并附上质量佳且可读性高的代码。 编辑 | Jane 谷歌此前发布的NLP模型BERT,在知乎、Reddit上都引起了轰动。其模型效果极好,BERT论文的作者在论文里做的几个实验数据集都被轰平了。要做那几个数据集的人可以洗...
2019-02-03 16:26
阅读(872)
NLP系列(7)_Transformer详解
审校:百度NLP、龙心尘 翻译:张驰、毅航、Conrad 原作者:Jay Alammar 原链接:https://jalammar.github.io/illustrated-transformer/ <https://jalammar.github.io/illustrated-transformer/> ...
2019-01-20 11:29
阅读(243)
2018年AI和ML(NLP、计算机视觉、强化学习)技术总结和2019年趋势(上)
1、简介: 过去几年一直是人工智能爱好者和机器学习专业人士最幸福的时光。因为这些技术已经发展成为主流,并且正在影响着数百万人的生活。各国现在都有专门的人工智能规划和预算,以确保在这场比赛中保持优势。 数据科学从业人员也是如此,这个领域正在发生很多事情,你必须要跑的足够的快才能跟上时代步伐。回顾历史,展望未来一直...
2019-01-14 23:11
阅读(253)
简单NLP分析套路(3)---- 可视化展现与语料收集整理
文章大纲 * NLP 可视化 <https://blog.csdn.net/wangyaninglm/article/details/84901376#NLP__14> * wordCloud <https://blog.csdn.net/wangyaninglm/article/details/849...
2018-12-09 01:44
阅读(178)