文件名称:WordTest
-
所属分类:
- 标签属性:
- 上传时间:2012-11-16
-
文件大小:607.56kb
-
已下载:0次
-
提 供 者:
-
相关连接:无下载说明:别用迅雷下载,失败请重下,重下不扣分!
介绍说明--下载内容来自于网络,使用问题请自行百度
本文阐述了一个基于K-Nearest Neighbor(KNN)算法的中文网页自动分类系统的体系结构、具体设计和实现过程。系统分成三个模块:中文网页的下载与过滤(王勋完成);KNN算法的训练与分类(黄健完成);算法评估以及分词系统的整合(吴亮完成)。
本人主要是实现算法的评估以及分词系统的整合:分词系统的整合利用爱博汉语分词系统(服务器版本—共享版),将下载下来的中文网页过滤后所得到的txt文件内容进行分词,以便提供给KNN算法进行训练和分类;算法的评估是将KNN算法后所得到的结果进行分析,具体表现是通过查全率(r)、查准率(p)、宏观查全率、宏观查准率、微观查全率、微观查准率的值,以及对求出来的值以直方图、曲线图、梯形图直观的表现出来。
-This article is elaboration a system of Chinese page categorization based on K-Nearest Neighbor(KNN) algorithm while is architecture and designs as well as realizes the process specifically. The system are divides into three modules, Chinese homepage downloading and filtration (Wangxun completion), KNN algorithm training and classification (Huangjian completion), and algorithm evaluation and integration of Chinese word segmentation system (Wuliang completion).
I mainly is realizes what is algorithm evaluation and integration of Chinese word segmentation system. The Chinese word segmentation system is based on ACWPS that is will download after Chinese homepage filtration, and obtains the .txt document content carries on the participle. For it is providing for the KNN algorithm carries on the training and the classification. After the algorithm appraisal is the KNN algorithm, obtains the result carries on the analysis. Specific performance through the recall rate (r), poor-rate (p), m
本人主要是实现算法的评估以及分词系统的整合:分词系统的整合利用爱博汉语分词系统(服务器版本—共享版),将下载下来的中文网页过滤后所得到的txt文件内容进行分词,以便提供给KNN算法进行训练和分类;算法的评估是将KNN算法后所得到的结果进行分析,具体表现是通过查全率(r)、查准率(p)、宏观查全率、宏观查准率、微观查全率、微观查准率的值,以及对求出来的值以直方图、曲线图、梯形图直观的表现出来。
-This article is elaboration a system of Chinese page categorization based on K-Nearest Neighbor(KNN) algorithm while is architecture and designs as well as realizes the process specifically. The system are divides into three modules, Chinese homepage downloading and filtration (Wangxun completion), KNN algorithm training and classification (Huangjian completion), and algorithm evaluation and integration of Chinese word segmentation system (Wuliang completion).
I mainly is realizes what is algorithm evaluation and integration of Chinese word segmentation system. The Chinese word segmentation system is based on ACWPS that is will download after Chinese homepage filtration, and obtains the .txt document content carries on the participle. For it is providing for the KNN algorithm carries on the training and the classification. After the algorithm appraisal is the KNN algorithm, obtains the result carries on the analysis. Specific performance through the recall rate (r), poor-rate (p), m
(系统自动生成,下载前可以参看下载内容)
下载文件列表
分词源代码直接在内存中处理/6217.txt
分词源代码直接在内存中处理/6218.txt
分词源代码直接在内存中处理/6220.txt
分词源代码直接在内存中处理/Project1.cfg
分词源代码直接在内存中处理/Project1.dof
分词源代码直接在内存中处理/Project1.dpr
分词源代码直接在内存中处理/Project1.exe
分词源代码直接在内存中处理/Project1.res
分词源代码直接在内存中处理/Project1.rsm
分词源代码直接在内存中处理/Project1.~dpr
分词源代码直接在内存中处理/result.htm
分词源代码直接在内存中处理/test.txt
分词源代码直接在内存中处理/test1.txt
分词源代码直接在内存中处理/Unit1.dcu
分词源代码直接在内存中处理/Unit1.ddp
分词源代码直接在内存中处理/Unit1.dfm
分词源代码直接在内存中处理/Unit1.pas
分词源代码直接在内存中处理/Unit1.~ddp
分词源代码直接在内存中处理/Unit1.~dfm
分词源代码直接在内存中处理/Unit1.~pas
分词源代码直接在内存中处理/~$result.htm
分词源代码直接在内存中处理/新建 文本文档 (4).txt
分词源代码直接在内存中处理/新建 文本文档 (4).txt.txt
分词源代码直接在内存中处理
分词源代码直接在内存中处理/6218.txt
分词源代码直接在内存中处理/6220.txt
分词源代码直接在内存中处理/Project1.cfg
分词源代码直接在内存中处理/Project1.dof
分词源代码直接在内存中处理/Project1.dpr
分词源代码直接在内存中处理/Project1.exe
分词源代码直接在内存中处理/Project1.res
分词源代码直接在内存中处理/Project1.rsm
分词源代码直接在内存中处理/Project1.~dpr
分词源代码直接在内存中处理/result.htm
分词源代码直接在内存中处理/test.txt
分词源代码直接在内存中处理/test1.txt
分词源代码直接在内存中处理/Unit1.dcu
分词源代码直接在内存中处理/Unit1.ddp
分词源代码直接在内存中处理/Unit1.dfm
分词源代码直接在内存中处理/Unit1.pas
分词源代码直接在内存中处理/Unit1.~ddp
分词源代码直接在内存中处理/Unit1.~dfm
分词源代码直接在内存中处理/Unit1.~pas
分词源代码直接在内存中处理/~$result.htm
分词源代码直接在内存中处理/新建 文本文档 (4).txt
分词源代码直接在内存中处理/新建 文本文档 (4).txt.txt
分词源代码直接在内存中处理
本网站为编程资源及源代码搜集、介绍的搜索网站,版权归原作者所有! 粤ICP备11031372号
1999-2046 搜珍网 All Rights Reserved.