相关代码 |
|
发信人: singhoo (tony), 信区: DataMining 标 题: Re: 求n-gram文章 发信站: 南京大学小百合站 (Fri Sep 27 11:06:45 2002), 站内信件 这个方法应该基于大文本训练集吧,给你单独1个文本,没有字典是不可能分出词语的 我打算将基于字典和统计模式的生词发现结合起来,应该效果比较好 【 在 pxh1018 (耐思) 的大作中提到: 】 : 我现在想不用字典对文本分词,看了一些介绍,基于统计模式的n-gram可以完成 : 不依靠分词字典,这个想法是很好的,据一些文章介绍,用n-gram分词效果很好,但是 : 我查了很多地方,没有详细的资料,哪位大侠何处有这样的资料,请告诉一下或email: : pxh@mail.csu.edu.cn : 先谢谢了! -- ※ 来源:.南京大学小百合站 bbs.nju.edu.cn.[FROM: 202.38.197.76]