搜索资源列表
sndrpr.zip
- sndrpr.zipRepeat Easily 1.0 版 程序说明这个小软件是用来练习英语听力用的,有下列几个特点:1.安全。无需安装,也不需要其他的任何支持系统,直接运行,决不会对你的操作系统造成任何的损害,不要的时候,直接删掉就行了。2.界面设计简单,直观,使用方便。其实,训练听力只需要一个重复的功能就足够了,大多数人都不会愿意花上大量的时间来研究复杂的使用说明书,而这个小软件几乎是一看就会用,所以,我就不介绍用法了,你自己试一试就会了。3.开放源代码(用VC7编写的)。喜欢编程的人可以对
POSTagger
- (1)从已经标注好词性的语料中统计得到词性标记的二元转移矩阵,以及每个词以确定的词性标记出现的次数等数据(训练阶段) (2)利用动态规划算法快速选取词性标记路径,得到词性标记结果 (3)可以选择不同的词性标记集 -(1) has been marked from the Corpus POS good statistical POS be labeled binary transfer matrix, and every word to determine the POS m
GIZA++.2003-09-30.tar
- GIZA++是德国Och提供的针对统计机器翻译模型的训练工具集。这个工具可以生成IBM统计翻译模型的第4和第5种模型,采用两种方向的训练(比如对同一个语料,从中文到英文和从英文到中文的训练),再配以适当的编码,可以提取出适合基于Phrase的统计机器翻译phrase table来,为后续的工作提供数据支持。
myworkonnnet
- 多层感知器(MLP)(BP算法训练)、径向基函数网络(RBF网络)、支持向量机(SVM)对2D Mexican Hat、Gabor、Friedman 以及Polynomial等几种函数数据集进行回归和预测-multilayer perceptron (MLP) (BP algorithm training), RBF network (RBF), Support Vector Machine (SVM) to 2D Mexican Hat, Gabor, Friedman Polynomial
POSTagger
- (1)从已经标注好词性的语料中统计得到词性标记的二元转移矩阵,以及每个词以确定的词性标记出现的次数等数据(训练阶段) (2)利用动态规划算法快速选取词性标记路径,得到词性标记结果 (3)可以选择不同的词性标记集 -(1) from the good part-of-speech tagging has been the Corpus statistics to be part of speech marking the transfer of binary matrix, a
MLP
- 本程序实做MLP(Multi-layer perceptron)算法,使用者可以自行设定训练数据集与测试数据集,将训练数据集加载,在2、3维下可以显示其分布状态,并分别设定键节值、学习率、迭代次数来训练其类神经网络,最后可观看辨识率与RMSE(Root Mean squared error)来判别训练是否可以停止。
svm-toy
- 支持向量机制。SVM分类器的重要部件。可以检测和训练样本集和
IntrusionDetectionTechnologyBaseonSupportVectorMac
- 本论文将统计学习理论引入入侵检测领域,讨论了基于SVM方法的智能检测 策略,检测算法具有良好的推广能力.引入HVDM距离代替范数,改进了SVM的 RBF核函数定义,使之能够直接处理异构的网络连接信息 利用有保证的估计方法 来确定训练数据集规模,避免了依靠实验选择训练规模的盲目性 针对重复样本 和重要样本提出了样本加权的思路,降低了错分样本的可能 考虑到网络连接记 录的不同属性对检测结果贡献不一的事实,提出了特征选择与特征加权的方法, 进而得到一个更好的分类超平面,提高了检
Fsvm_Regression
- 该文研究了当训练点的输出为三角模糊数时!支持向量回归机的构建问题’ 首先将模糊回归问题转化为模糊分 类问题!并将求模糊最优分类超平面问题转化为求解带有模糊决策的机会约束规划问题’ 利用基于模糊模拟的遗传算法 求解带有模糊决策的机会约束规划!得到模糊最优分类超平面&模糊方程$!解模糊方程得到模糊回归函数’ 在此基础上! 得出模糊线性支持向量回归机&算法$’ 从而较好地解决了支持向量机中含有模糊信息的模糊回归问题’ 最后!给出显示 模糊线性支持向量回归机特点的模糊支持向量集的定义’
lsvm
- 用matlab编写的源程序,作用是对线性svm分类器参数C的最佳值选择,以此更好的对数据集进行训练和预测。
general
- ID3决策树程序,内含训练和测试数据。 输入为选择原训练数据集和测试数据集的百分数,如0.25。根据实验要求,测试数据都选全部,故都输入1。 输出结果为实验要求的实验数据结果。
simple_HMM_based_IME_with_GUI-master
- 简单的HMM拼音输入法,包括测试集和训练集,以及GUI界面(A simple typewriting based on HMM and python)
用MATLAB实现的随机抽样方法
- 用MATLAB实现的随机抽样方法,自动划分为训练集和测试集(The random sampling method realized by Matlab can be divided into training set and testing set automatically)
UCI(55个)
- 机器学习训练的数据集-UCI数据集,包含55个数据集(Machine learning training data set -UCI data set, containing 55 data sets)
MNIST_data
- MNIST数据集是机器学习领域中非常经典的一个数据集,由60000个训练样本和10000个测试样本组成,每个样本都是一张28 * 28像素的灰度手写数字图片。(The MNIST data set is a very classic data set in the field of machine learning. It consists of 60,000 training samples and 10,000 test samples. Each sample is a 28 * 28 p
data_batch_2
- cifar-10数据集由10个类的60000个32x32彩色图像组成,每个类有6000个图像。有50000个训练图像和10000个测试图像。数据集分为五个训练批次和一个测试批次,每个批次有10000个图像。测试批次包含来自每个类别的恰好1000个随机选择的图像。训练批次以随机顺序包含剩余图像,但一些训练批次可能包含来自一个类别的图像比另一个更多。总体来说,五个训练集之和包含来自每个类的正好5000张图像。 具体:batch2.mat文件,该训练集可以用于图片识别,非负矩阵分解等。(The ci
机器学习之随机森林
- Bagging是并行式集成学习方法最著名的代表,Bagging通常对分类任务使用简单投票法,随机森林(RF)是Bagging的一个扩展变体,RF在以决策树为基学习器构建Bagging 集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。在RF中,集成模型的每棵树构建时所需的样本都是由训练集经过有放回的随机抽样得来(即自助采样法bootstrap sample)。
L4_1
- a)产生两个都具有200个二维向量的数据集和(注意:在生成数据集之前最好使用命令randn(‘seed’,0)初始化高斯随机生成器为0(或任意给定数值),这对结果的可重复性很重要)。向量的前半部分来自均值向量的正态分布,并且协方差矩阵。向量的后半部分来自均值向量的正态分布,并且协方差矩阵。其中是一个2*2的单位矩阵。 (b)在上述数据集上和分别属于+1类和-1类,请在上述数据集的两类中各随机抽取150个样本作为训练集,运用Logistic regression算法得到的分类面,然后对余下的各5
基于MATLAB的手写识别(可以自行添加数据集)
- 本案例使用MATLAB的GUI设计的一个手写板,利用BP神经网络实现手写识别的项目,案例中可以利用手写板自己建立数据集,并且完成训练来添加字库。
CNN-FaceRec-keras-master.zip
- 人脸识别代码 ## CNN-FaceRec 基于Keras的CNN人脸识别 == ### 所需环境 tensorflow-gpu==2.0.0 Keras==2.3.1 h5py==2.10.0 ### 使用方法 #### 文件下载 链接:https://pan.baidu.com/s/1HxLw4oYGhfV-hughUQ7VEA 提取码:9uea 下载好权重文件放到logs文件夹里 链接:https://pan.baidu.com/s/1aC