搜索资源列表
xxl
- 信息论中各种熵的matlab实现,其中包括自信息量,互信息量,条件熵,联合熵,冗余度等等的计算。-various information theory entropy Matlab achieved, which include the volume of information, mutual information, the conditional entropy, Joint entropy, and so on the redundancy terms.
mybss
- 盲信号分离是当前信号处理研究的热点课题之一,在无线数据通信、医学、语音以及地震信号处理等领域有着广阔的应用前景。基于负熵最大的FastICA算法用于实现盲信号分离。该方法的基本思路是以非高斯信号为研究对象,在独立性假设的前提下,对多路观测信号进行盲源分离。在满足一定的条件下,能够从多路观测信号中,较好地分离出隐含的独立源信号。
msentropy.rar
- 多尺度采样熵计算程序,该程序结合采样熵程序可以计算在多尺度条件下的熵的结果,multiscale sample entropy calculation
fastica
- 用matlab实现的最大化负熵的独立分量分析方法,作了正交化处理,可以同时分离出所有的独立分量(无噪声条件下)-Using matlab to achieve the maximization of the negentropy method of independent component analysis, orthogonal made of processing, can be isolated from all of the independent component (no nois
condentropy
- 计算条件熵,可以用来计算在某种条件下的条件熵的数值-we can use it to calculate the conditional entropy
entropy
- 熵,联合熵,条件熵,平均互信息量的通用计算程序-Entropy, joint entropy, conditional entropy, average mutual information of the general-purpose computer program
Mutual-Information
- 粗糙集中信息上与条件信息熵的计算代码程序,使用matlab编写而成的-The information entropy and cond entropy of rough set calculation code, and the use of matlab program,and that is all .
sinorder
- 为sinudoidal模型的AIC阶估计.AIC信息准则即Akaike information criterion,是衡量统计模型拟合优良性的一种标准,又由于它为日本统计学家赤池弘次创立和发展的,因此又称赤池信息量准则。它建立在熵的概念基础上,可以权衡所估计模型的复杂度和此模型拟合数据的优良性。 在一般的情况下,AIC可以表示为: AIC=2k-2ln(L) 其中:k是参数的数量,L是似然函数。 假设条件是模型的误差服从独立正态分布。 让n为观察数,RSS为剩余平方和,那么AIC变为:
Entropy_measures
- 熵值计算的matlab 程序包括样本熵,近似熵,条件熵等(Matlab program for entropy calculation Including sample entropy ,approximate entropy,conditional entropy and so on.)
信息熵
- 可以计算信息熵、信息熵增益、以及选取较大增益属性作为分类条件(Entropy and Entropy gain)
信息论01
- 此代码为计算离散随机变量的熵、联合熵、条件熵、互信息的 Matlab 程序(This code is a matlab program for calculating entropy, joint entropy, conditional entropy and mutual information of discrete random variables)