搜索资源列表
ToolBox
- matlab图像处理工具相,使用了主成分分析,ANN,SVM等方法。-This toolBox used in the image processing(feature extraction and classification) PCA,LDA,ICA,DCT,RBF,RBE,GRNN,KNN,minimum distance,SVM, and others
SVM
- In this paper, we show how support vector machine (SVM) can be employed as a powerful tool for $k$-nearest neighbor (kNN) classifier. A novel multi-class dimensionality reduction approach, Discriminant Analysis via Support Vectors (SVDA), is in
LDA_KNN
- 对随机选择的iris数据,用LDA进行特征提取,然后用K近邻分类器分类的完整程序-Feature extraction using LDA,and perform classification via KNN
svm
- 本程序包括:论文SVM 用于基于块划分特征提取的图像分类,和相应的matlab实现其中图像划分以及特征提取、聚类均利用matlab6.5完成。 -The procedures include: paper by SVM for feature extraction based on block classification, and the corresponding realization of one image into matlab, and feature extraction,
Chinese-text-categorization-Study
- 本文通过对Bayes、KNN、SVM 应用于中文文本分类进行比较实验研究。 应用ICTCLAS 对中文文档进行分词,在大维数,多数据情况下应用TFIDF 进行 特征选择,并同时利用它实现了对特征项进行加权处理,使文本库中的每个文本 具有统一的、可处理的结构模型。然后通过三类分类算法实现了对权值数据进行 训练和分类。-Based on the Bayes, KNN, SVM applied to compare the Chinese text ca
gaborsvm1
- 先用gabor 小波滤波器,做特征提取,然后用支持向量机(SVM)做分类,来实现人脸检测.需要用matlab 2010 或更新的版本才能运行-the code is used for face detection.Firstly it use gabor wavelet filter for feature extraction,Secondly it use support vector machine (SVM)for classification.matlab 2010 required.
onTextCategorization
- 本文比较研究了在中文文本分类中特征选取方法对分类效果的影响。考察了文档频率DF、信息增 益IG、互信息MI、V2分布CHI 四种不同的特征选取方法。采用支持向量机(SVM) 和KNN两种不同的分类 器以考察不同抽取方法的有效性。实验结果表明, 在英文文本分类中表现良好的特征抽取方法( IG、MI 和 CHI)在不加修正的情况下并不适合中文文本分类。文中从理论上分析了产生差异的原因, 并分析了可能的 矫正方法包括采用超大规模训练语料和采用组合的特征抽取方法。最后通过实验验证组合特征
KNN
- This simple KNN algorithm implementation for Feature selection, written in C-This is simple KNN algorithm implementation for Feature selection, written in C++
kNN
- matlab code to detect and identify the object feature for analysing and compraing purpose
KNN
- 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。 kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方
pattern-recognition
- 模式识别有预处理和特征抽取环节应用于图像处理,资料有两种分类方式knn,suv-Pattern recognition is a preprocessing and feature extraction process was applied to image processing, there are two kinds of data classificationknn,suv
knn所涉及
- KNN是通过测量不同特征值之间的距离进行分类。它的的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。(NN is classified by measuring the distance between the different eigenvalues. It is
knnimplementation
- 自己编写的KNN算法,不用工具包就可实现。kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性.(The core idea of the kNN algorithm is that if the majority of the k most neighboring samples of a sample in the feature space belong to a particular category
kNN
- K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:在特征空间中,如果一个样本附近的k个最近(即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。(K-nearest neighbor (KNN) classification algorithm is a relatively mature method in theory and one of the simplest machine
PCA+mnist
- 基于python,利用主成分分析(PCA)和K近邻算法(KNN)在MNIST手写数据集上进行了分类。 经过PCA降维,最终的KNN在100维的特征空间实现了超过97%的分类精度。(Based on python, it uses principal component analysis (PCA) and K nearest neighbor algorithm (KNN) to classify on the MNIST handwritten data set. After PCA dime