计算机系教师:http://www.ntu.edu.sg/home/axsun/
收获了第一个citation而且是高人的文章 → @LCL-WHU
读了商学院同事的一篇文章,有关用户评论情感分析的. 问题,思路,跟实现方法跟我们不一个套路,也挺有意思的。
//@52nlp: 公开的标注数据还是不多,这些年貌似通过半监督的方法利用大规模的数据做分词不知道效果如何? 另外推荐 @张开旭 同学维护的一个中文分词文献列表 → //@AixinSG: 感觉分词最近几年应该有大的提升,一是有了大量文本数据支持,二是有了大量低成本低质量的标注
有没有中文分词主流技术的介绍?综述最好,请教 @好东西传送门
最近对中文分词很感兴趣,要找个机会试试
#NiuParser 1.0.0 Beta 发布# 朱老师带领NiuParser团队经过一年多努力研制成功并正式发布中文句法语义分析系统 NiuParser,下载网址: → , 支持中文句子级七大语言分析技术,所有代码采用C++,自主完成开发,不包含任何其它开源代码。研究用途永远免费,欢迎使用并多提修改建议。
【转】 What is Big Data? To settle the question once and for all, we asked 40+ thought leaders in publishing, fashion, food, automobiles, medicine, marketing and every industry in between how exactly they would define the phrase “Big Data.” →
Aggregated search 应该也算是一种形式,刚才看到大牛在twitter上推荐这篇综述,转个ACM DL的链接 → //@AixinSG: 大规模文档自动摘要应该还是很有前景的, 但这个问题本身的定义太难了
芝麻,小猴子,小鸭子,虎皮