高等数学
泰勒展开是什么?一般是几阶展开?为什么?
泰勒展开(Taylor Expansion)是一种利用多项式逼近复杂函数的数学方法,核心思想是用多项式函数模拟原函数在展开点附近的形态。
泰勒展开和傅立叶变换的概念以及他们在计算机领域中的应用
为了便于研究复杂的函数,用多项式来近似表达函数可以简单地进行计算,而泰勒多项式就是用多项式近似函数的一种方法,函数在某一点处展开为泰勒多项式就是泰勒展开。
泰勒多项式在计算机领域是数值分析的理论基础之一,数值微积分的很多定理和结论都是由泰勒展开推导得出。
傅里叶变换和其逆变换是一对互逆的运算,是用于对函数进行变换的工具。傅里叶变换可以将时域的非周期连续信号,转换为频域的非周期连续信号。
傅里叶变换的用途:在信号处理上,可以轻松地滤掉特定频率成分的波;在求解微分方程上,可以让微分和积分在频率中变为乘法和除法;在计算机科学中,作为DFT算法的理论基础。
傅里叶变换和傅里叶级数的区别
傅里叶级数是一个函数的近似表达,是将一个函数通过三角函数系进行表达的表达式。傅里叶级数仍然是一个函数。傅里叶级数拥有三角和复数两种表达形式。
而傅里叶变换是“函数的函数”,是一个对函数进行变换,使其拥有不同的特性,从时域转换到频域的工具。傅里叶变换是从傅里叶级数的复数形式推导而来。
傅里叶级数仅适用于周期信号,傅里叶变换可以视作傅里叶级数的延伸,可以用于分析非周期信号的频谱特性。
周期信号才有傅里叶级数,非周期信号才有傅里叶变换,傅里叶变换是由傅里叶级数将周期拓展到无穷而证明来的,傅里叶级数是对应谐波的幅度,而傅里叶变换是一个谱密度的概念。
函数零点和极值点怎么求?
函数的零点求法:
首先是,解析解:令函数值等于0,然后解方程得到零点。
对于过于复杂无法求方程解的情况,使用数值方法:二分法、牛顿迭代法
极值点:
对函数求导,然后令导函数等于0,按照上述方法求导函数的零点即可,对于所得零点判断解的两端导函数值的符号,
若两端同号,所得的解是驻点而不是极值点,
若两端异号,就是极值点。
判断两个无穷集合的大小,单射满射和双射的概念?
集合A和集合B有同样的基数当且仅当存在从A到B的一一对应。
判断无穷集合的大小要引入“势”的概念,在谈论这个问题之前,需要先说说双射的概念。有穷集合和无穷集合相比的差别。
首先是,满射和单射。若A到B的函数满足“任一值域B中的一个值都存在定义域A中唯一的值与之对应”,这个函数就是单射的,若函数满足值域为集合B,就称函数是满射的。
单射:fx = fy 蕴含 x = y
接着是,若函数既是单射的又是满射的,就称作函数是双射的,这意味着函数的定义域为集合A,值域为集合B,且是单调函数。例如直线方程y=kx+b,是集合R->R的双射函数,例如函数y=tanx是(0,1)->R的双射函数。
参考《离散数学 屈婉玲》137页
无穷集合的大小通过集合的势来衡量,若是一个集合的势小于自然数集的势“阿列夫零”,它就是有穷集。假如两个集合之间能够建立一一映射,那就是等势的,例如整数集、偶数集、有理数集都和自然数集等势,也就是一样大小。而实数集和它任一子集都是等势的,且大于自然数集。且康托定理指出,一个集合的幂集都大于当前集合。
欧氏距离及常见距离公式的缺点?
欧氏距离也就是n维空间中两点之间的线段长度。
1 欧氏距离的缺点在于,会受到数据尺度的影响而产生偏斜,需要对数据进行归一化后使用。
2 余弦相似距离缺点在于只考虑了数据的方向,而没考虑向量的大小,受到数据尺度的影响较大。
3 曼哈顿距离就是街道距离,缺点在于不够直观,并且距离不是最短距离。
参考资料:https://blog.csdn.net/Datawhale/article/details/113787498
最大似然估计是什么?
该方法的直观想法就是,取到了某一样本值,那么就表明取到这一样本的概率较大,因此认为取使得这一样本值的概率最大的参数值比较合理。
操作方法就是,固定样本的观察值,在参数的取值空间中挑选使得似然函数在该样本值下达到最大值的参数,作为参数的估计值。
《概统 浙大第四版》152页
梯度方向导数与梯度下降?
方向导数:各个坐标轴的偏导数组成的向量,和方向向量的内积
梯度:就是各个偏导数组成的向量
《同济第七版高等数学下册》103页
梯度下降法:从函数的任一点开始,沿着该店梯度反方向运动一段距离,再沿新位置的梯度反方向运行一段距离,如此迭代一直超着函数下坡最陡的方向运动,以此运动到函数的近似极小点。
参考资料:https://zhuanlan.zhihu.com/p/25387613
复合函数求导公式?给出函数让求?
首先是,复合函数的概念,复合函数就是多个函数构成的函数,它的求导法则就是“链式法则”,如果某个函数由复合函数表示,则该复合函数的求导可以用构成复合函数的各个函数的导数的乘积表示。
导数和偏导数的区别?
导数是针对一元函数的概念,即函数f对自变量x的导函数,又称导数、微商。
偏导数是针对多元函数来讲的,多元函数对某一个自变量的导函数称作偏导数。
可导、可微、连续、可积之间的关系(一元函数+二元函数)

一元函数:
可微和可导互为充分必要条件,可导比连续,连续不一定可导,
连续必可积,可积不一定连续
二元函数:
可微必连续,连续不一定可微
若连续则二重极限存在,反之不成立
连续必可积,可积不一定连续。

三个中值定理的区别、联系和物理意义(罗尔、拉格朗日、柯西)
参考知乎:https://zhuanlan.zhihu.com/p/47436090
罗尔中值定理:函数f(x)在闭区间连续,开区间可导,区间端点函数值相等,必存在一点导数值为0
拉格朗日中值定理:函数f(x)在闭区间连续,开区间可导,必存在一点导数值等于端点连线的斜率。
罗尔中值定理:函数f(x)和g(x)在闭区间连续,开区间可导,且任意一点g(x)导数值不为0,必存在一点,f(x)导函数和g(x)导函数的比值,等于两函数区间端点函数值之差的比值。
区别在于,罗尔定理要求区间端点函数值相等,拉格朗日中值定理则不要求。柯西中值定理关系到两个函数
联系在于,柯西中值定理当g(x)=x的时候,退化为拉格朗日中值定理,拉格朗日中值定理的区间端点函数值相等的时候,退化为罗尔中值定理。
物理意义在于,罗尔定理表明往复运动的始终必存在某一时刻速度为0。拉格朗日中值定理表明一段物体从一个地方移动到另一个地方的始终,中间必有一点加速度为0。柯西中值定理表明一段曲线运动的过程中,必有一点速度方向和位移方向相同。
概率论
说一下全概率公式和贝叶斯公式。为什么有了全概率还要有贝叶斯公式呢?
全概率公式:
贝叶斯公式是由全概率公式和乘法公式联合推导得来的
变量与随机变量有什么区别?
随机变量能够描述随机现象,并通过概率统计的方法进行分析。而变量通常用来描述确定性的现象。
变量的取值是固定唯一的,并且取值范围是整个定义域。而随机变量取值有多个,而且每个取值都有一定的概率。在试验之前,随机变量的取值是不能预知的,试验之后,随机变量的取值范围就是这次试验的样本空间。
随机变量与概率分布有什么联系?
随机变量的分布函数表述了随机变量的统计规律性,已知一个随机变量的分布函数就可以得知该随机变量落在某一区间的概率。
联合概率与边缘概率有什么区别?有什么联系?
区别:
- 联合概率是基于两个随机变量及其相互作用的样本空间的概率。
- 边缘概率是多维随机变量的样本空间中,某一个或多个随机变量构成的子空间的概率。
联系:
- 在联合概率的基础上固定若干个随机变量的取值便得到边缘概率。
常见的概率分布有哪些?有什么应用场景?请举例说明
二项分布:常用于检查产品合格率、色盲率调查等等
两点分别:比赛胜率估计
泊松分布:常用于一天内到达顾客数、铸件上的砂眼数、一天内电路受到电磁波干扰次数等等
超几何分布:用于进行有限总体中进行不放回抽样。
几何分布:一次伯努利试验中事件A首次出现时的试验次数。例如产品不合格率调查。
正态分布:主要应用于统计理论、误差理论等等
指数分布:常用于随即服务系统、寿命估计、排队论等等
大数定律和中心极限定理的意义与作用(切比雪夫大数定律)
辛钦大数定理:说明了对于独立同分布且具有均值u的n个随机变量,当n很大的时候它们的算术平均值依概率收敛于u。
伯努利大数定律:表明只要随机试验的次数n充分大,那么事件A频率和概率的绝对偏差很小,说明在实际应用中,试验次数很大的时候可以用事件的频率来替代事件的概率。
独立同分布的中心极限定理:均值为u,标准差为的独立同分布的n个随机变量之和的标准化变量在n充分大的时候近似服从于标准正态分布。
由此推论均值为u标准差为的独立同分布的n个随机变量的算术平均值,当n充分大的时候近似服从均值为u方差为的正态分布。
李雅普诺夫定理:独立的n个随机变量,其随机变量之和的标准化变量很大的时候近似服从与标准正态分布。
棣莫弗-拉普拉斯定理表明正态分布是二项分布的极限分布。
正态分布的和还是正态分布吗(正态分布性质与独立同分布)
彼此独立的正态分布的和仍然是正态分布,这叫做正态分布的可加性。
正态分布的可加性就是:如果多个随机变量分别服从不同的正态分布,如果这些随机变量彼此独立,那么这些随机变量的和也服从正态分布。
事实上,独立同分布的正态分布随机变量具有线性性质,证明过程参考下图:

什么是假设和检验?
假设检验问题关注于通过试验来判断是否参数theta是否落在参数空间的某一个子集或者其补集里面。在总体分布函数未知或者只知其形式不知其参数的情况下,为了推断某些参数,提出关于总体的假设,然后通过样本来决定对所做出的假设接受或者拒绝。假设检验就是做出这一决策的过程。
假设就是关于总体的参数的参数空间的一部分,包括原假设和备择假设。这两个假设互补。而检验就是对于假设检验问题满足某一显著性水平的概率的不等式。通过这一不等式来判断某一估计是否满足需求。

数学期望和方差?
随机变量的数学期望就是随机变量每个取值于该取值的概率的乘积的累加和。它描述了随机变量的集中特性。
而随机变量的方差描述了随机变量的波动特性,即离散特性,其定义是随机变量的每个取值和数学期望的偏差平方和与该取值的概率的乘积的连加和。
独立和不相关的区别?
见下图,概括就是:独立一定不相关,而不相关不一定独立。
例如线性不相关的随机变量可能是非线性相关。最常见的例子就是Logistics函数或者二次函数,自变量和因变量计算所得相关系数很低,但是是互相依赖的变量。

概率密度函数?
连续随机变量的一切取值充满整个样本空间,而这其中有无穷个不可列的实数,因此无法采用分布列表示,采用概率密度函数表示。
概率密度函数不是概率,乘以区间长度微元后就表示概率的近似值,而概率密度函数在一段区间上的积分就是随机变量X在这段区间上取值的概率。因此,如果存在实数轴上的一个非负可积函数使得对任意实数x都有“这个函数从负无穷到x的积分值就是随机变量X的分布函数F(x)”,这个函数称为随机变量X的概率密度函数。
举几个泊松分布的例子
泊松分布是一种常用的离散分布,常与单位时间(或单位面积、单位产品等)上的计数过程相联系,譬如:
- 在一天内,来到某商场的顾客数
- 在单位时间内,一电路受到外界电磁波的冲击次数
- 1平方米内,玻璃上的气泡数
说一下全概率公式和贝叶斯公式
全概率就是表示达到某个目的,有多种方式(或者造成某种结果,有多种原因),问达到目的的概率是多少(造成这种结果的概率是多少)?

解释下相关系数、协方差、相关系数或协方差为0的时候能否说明两个分布无关?
所谓随机变量X和Y的协方差就是“X的偏差和Y的偏差乘积的数学期望”。若协方差大于零,表示这两个随机变量呈正相关关系,若协方差小于零表示两个随机变量呈负相关关系。而协方差等于零表示不“线性相关”。
相关系数可以看作标准化的协方差,它没有量纲,取值范围在[0, 1]。
取值为0不能说明两个分布无关,而是“线性不相关”,有可能存在非线性的相关关系,也有可能取值毫无关联。
若干正态分布相加、相乘后得到的分布分别是什么?
相加参考7.
相乘:来自知乎:
正态分布相乘之后,服从的分布为:正态分布乘以常数
https://www.zhihu.com/question/46458824/answer/1658826258

假如有一枚不均匀的硬币,抛正面的几率是p,抛反面是1-p,请问如何做才能得出1/2?
在概率论中,有一种经典的方法可以将一个不公平的硬币转化为一个公平的硬币,这个方法被称为“冯·诺伊曼方法”(Von Neumann's method)。这个方法的核心思想是利用抛掷硬币的序列,通过特定的规则来消除硬币的偏差。
具体步骤:连续抛硬币两次
- 如果第一次抛掷是正面,第二次是反面(即序列为“正面,反面”),则输出“正面”。 概率为:p*(1-p)
- 如果第一次抛掷是反面,第二次是正面(即序列为“反面,正面”),则输出“反面”。 概率为:p*(1-p)
- 如果两次抛掷的结果相同(即“正面,正面”或“反面,反面”),则忽略这次结果,重新开始抛掷。
机器学习为什么要使用概率?
机器学习的是由数据驱动的方法,它的学习对象是数据,从数据出发提取数据特征抽象出数据模型又从数据中发现知识,最后回到数据的分析和预测中去。
机器学习算法的设计通常依赖于对数据的概率假设,如果不理解相关的数学知识,那么久无法真正理解算法的精髓。并且,机器学习模型的训练和预测过程的评价指标——模型误差,其本身就是概率的形式。
线性代数
矩阵的秩,满秩代表什么?不满秩呢?
矩阵的秩为矩阵列空间的维数
矩阵A的不等于零的子式的最高阶数称作矩阵A的秩
一个秩为n的矩阵满秩意味着存在一个n阶子式不为0
不满秩的话,假设其秩为r,意味着所有大于r阶的子式都为0

证明矩阵行向量的秩和列向量的秩的关系
证明:rankA是A中主元列的个数,等价的,rankA是A的阶梯形B中主元位置的个数;由于阶梯形B每个主元位置都对应一个非零行,这些行对A的行空间构成了一个基,因此A的秩等于A行空间的维数
什么是线性相关?什么是线性无关?
对于线性空间中的n个向量,
假如存在n个常数使得这n个常数与n个向量对应乘积加合等于0,则称这n个向量线性相关,
如果不存在这样的n个常数,称之为线性无关。
什么是向量空间?线性空间?(0703赵轲)

P55,第五讲
所有n维向量构成的集合称为n维向量空间。
将n维向量空间抽象化,便引出线性空间的概念。定义集合V上的两种代数运算:加法和数乘。V中任意两向量之和与V中的一个向量gamma对应;V中任意向量和域K中的任一数lambda的数乘与V中的一个向量eta对应。
并且加法满足交换律、结合律、零元、逆元,数乘存在单位元、满足结合律,数乘关于加法满足分配律。
那么这个集合V就称作线性空间,又叫向量空间。V中的元素统称为“向量“。
什么是向量的基?

在线性空间V中可以找到n个向量,这n个向量线性无关,并且线性空间V中的任意一个向量都和这n个向量线性相关,那么这n个向量就称作线性空间V的基。
高斯分布(正态分布)

一个随机变量如果是由大量微小、独立的随机因素的叠加结果,那么这个变量一般都可以认为服从正态分布。
正态分布曲线关于其均值点对称,标准差越大图像越扁平。
线性方程组的解,Ax=b, 和分别为长矩阵(m>n)和扁矩阵(n>m)?怎么确定哪个解是最优解?(p71,第八讲)

线性方程组Ax=b的解:比较系数矩阵的秩与增广矩阵的秩。
- 有解的充要条件是R(A)=R(/widetildeA);
- 有唯一解的充要条件是R(A)=R(/widetildeA )=n;
- 有无穷多个解的充要条件是R(A)=R(/widetildeA )<n.(n为未知数个数)
什么相似矩阵?什么是正定矩阵?

对于两个矩阵A、B,如果存在一个矩阵P,使得 矩阵P的逆 乘矩阵A 乘矩阵P 等于矩阵B,那么矩阵A相似于矩阵B。相似矩阵A和B它们的特征值相同。
假如一个实对称矩阵S对于任一n行1列的矩阵alpha都有 alpha的转置乘矩阵S乘alpha都大于0,则该矩阵正定。
向量范数
1-范数:向量各维度绝对值相加
2-范数:向量的欧几里得长度
∞-范数:向量维度中绝对值最大的
矩阵范数(一阶二阶范数)
矩阵范数是一个满足非负性、齐次性、三角不等式以及相容性的函数。
矩阵一范数就是矩阵所有元素取绝对值,然后求最大列和。
矩阵A的2范数就是“矩阵A的转置与矩阵A相乘所得矩阵”的最大特征值
矩阵的特征值与特征向量有什么关系?特征值特征向量的含义和作用?
矩阵的特征向量是这样的向量:矩阵作用于该向量后,向量保持方向不变,进行某一比例的伸缩变换,而这个比例就是特征值。
因此,特征值与特征向量的关系就是,特征向量与特征值进行数乘操作后所得的向量,和矩阵对该向量进行变换所得向量相同。
因此特征值的含义就是和矩阵具有同等变换效果的常数,而特征向量就是与矩阵作用之后保持方向不变的向量。
作用:特征值可以用于奇异值分解、主成分分析。可以用于谱分解、特征值分解。
参考资料:https://www.zhihu.com/question/21874816/answer/181864044
矩阵运算下Ax=b中什么情况下x有解
P71,第8讲
线性方程组Ax=b的充要条件是,系数矩阵A和增广矩阵B的秩相等。
假如线性方程组Ax=b有解,那么在m>=r=rank(A)的情况下它的通解依赖于m-r个独立参数,当m=r时具有唯一解。
m个未知数,n个线性方程的齐次线性方程组必有零解,齐次线性方程组有非零解的充要条件是其系数矩阵A的秩<m,而且通解有无穷多个解,依赖于m-r个独立参数。
齐次线性方程组有m-r组解,这m-r组解就是齐次线性方程组的基础解系。
非齐次线性方程组解的通解由相伴的齐次线性方程组的通解和非齐次线性方程组的一个特解组成。
什么是张量?张量与矩阵有什么区别?
张量可以看作标量、向量、矩阵的推广,矩阵是二阶张量,而标量是0阶张量、矢量是1阶张量。
什么情况下AB=BA
对称矩阵
当矩阵A,B,AB都是N阶对称矩阵
线性相关与基变换的关系
基变换就是把一组基变到另一组基。
而用在导航方面来讲,就是从一个坐标系转换到另一个坐标系。
注意,基变换是 右乘 的
单射、满射、双射
单射(一对一映射):中的每个b是中至多一个x的像;Ax=0仅有平凡解;Ax=b有唯一解或者无解
满射(映上到):中的每个b是中至少一个x的像;A的各列生成,A的阶梯形每一行都有主元位置
双射(一一映射):中的每个b在中有且仅有一个x的像
什么是向量正交?什么是矩阵正交?
正交向量组中,任意两个向量的数量积为0.
正交矩阵的每一列都是一个单位向量,并且任意两列求数量积都为0.
两个矩阵正交,表示这两个矩阵相乘结果为单位矩阵。
正交矩阵的定义
证明正交矩阵×正交矩阵是正交矩阵
正定矩阵的性质
矩阵A是正定的,如果对于任意非零向量,有
- 正定矩阵的行列式恒为正;
- 实对称矩阵A正定当且仅当A与单位矩阵合同;
- 若A是正定矩阵,则A的逆矩阵也是正定矩阵;
- 两个正定矩阵的和是正定矩阵;
- 正实数与正定矩阵的乘积是正定矩阵。
离散数学
解释下什么是群、环、域?
由一个非空集合S和该集合上的k个运算组成的系统称作代数系统。群就是一个特殊的代数系统,在这个代数系统的运算是可结合的二元运算,并且该系统中存在单位元和逆元。
环:若一个代数系统存在两个运算1和运算2,集合R关于运算1构成交换群,关于运算2构成半群,并且运算2关于运算1适合分配律。则集合R和这两个运算构成的代数系统称作环。其中称运算1为加法,运算2为乘法。
域:如果一个环的乘法运算符合交换律,并且关于乘法运算存在单位元,并且对于环中的任意两个非零元素执行乘法操作结果均不为0,那么这个环R构成一个域。
你知道哪些离散型随机变量
0-1分布:用于估计样本空间只有0、1两个值的独立重复实验的概率。
二项分布:常用于样本空间只有两个值的独立重复实验地概率计算。
泊松分布:常用于服务系统,预测某一天某时段某服务台到达人数
几何分布:在n次伯努利试验中,试验k次才得到第一次成功的机率。
超几何分布:不放回抽样的概率计算。
伪图 多重图 简单图
简单图:没有环、两个顶点间最多只有一条边
多重图:允许顶点对之间有多重边
伪图:也是多重图,可以存在环
伪图 > 多重图 > 简单图
图的基本定理
- 握手定理
- 无向图有偶数个奇数度顶点
- 在带有向边的图里,所有顶点的入度之和等于出度之和,这两个和都等于图的边数。
子图 生成子图 补图
子图:顶点是子集,边是子集
生成子图:顶点集相同,边是子集
补图:G是有n个顶点的简单图,则G的补图是完全图删去G的所有边,但保留顶点集V(G)得到的图,记为~G
对于无向图来说,邻接矩阵每一行各个位置上数字之和代表什么?
代表与顶点i关联的边数 = 顶点i的度 - 在顶点i上的环数
对于有向图来说,邻接矩阵每一行各个位置上数字之和代表什么?每一列呢?
行:代表该顶点的出度
列: 入度
迹(简单通路、trace) 路
迹(简单通路、trace):边互不相同的一条路径
路:顶点互不相同的一条路径
一条路必是一条迹
哈密顿图、欧拉图有什么区别,怎么求
所谓的欧拉图就是包含欧拉回路的图,欧拉回路就是能够通过图中所有的边一次且仅一次就通过所有顶点的回路。也就是所谓的“能够一笔画的图”
哈密顿图是经过所有顶点一次且仅一次。
欧拉图可以求出精确解,教材提到了两种算法:
Hierholzier算法:
中心思想:欧拉图是由一个或多个回路拼接而成,只要把图中的每个回路的路径拼接起来,就可以遍历这个欧拉图。
主要步骤:从一个可能的顶点出发,进行深度优先搜索,但是每次沿着辅助边从某个顶点移动到另外一个顶点的时候,都需要删除这个辅助边。如果没有可以移动的路径,则将所在结点加入到栈中并返回。
- 任选起始点并记录
- 从起点出发到达任一临接点,到达的点成为新的起点,删除经过的边
- 重复步骤2直到回到初始点,此时到达步骤1,将本次记录的点集合与上次记录的点集合拼接。若本图成为空图,到达步骤4.
- 输出所有记录点。
参考:https://blog.csdn.net/qq_40493829/article/details/108253637
Fleury算法:
输入一个欧拉图
任取一个顶点,假设路径Pi=v0e1v1e2...eivi已经行遍
然后开始在E(G)-{e1, e2, ..., ei}中寻找邻接边,找边的规则为:
- 和当前顶点相关联。
- 除非无边可选,否则不选E(G)-{e1,e2,...,ei}中的桥
当已经无边可选了,算法停止,Pm=v0e1v1e2v2...emvm(vm=v0)为G中一条欧拉回路。
参考:https://blog.csdn.net/guomutian911/article/details/42105127
而哈密顿图,则至今没有一个高效地求出经确解地方法,暴力求解的话,这属于是NP-Hard问题,实际应用中,通常使用启发式搜索算法求出一个近似精确解,常用方法有:
禁忌搜索算法、蚁群算法、遗传算法等等。(CSDN可搜)
欧拉图和欧拉函数
所谓的欧拉图就是包含欧拉回路的图,欧拉回路就是能够通过图中所有的边一次且仅一次就通过所有顶点的回路。也就是所谓的“能够一笔画的图”
数论的欧拉函数:和欧拉图无关,欧拉函数其实是初等数论的重要内容
其定义为:对自然数n,从0到n-1中与n互素的数的个数就是欧拉函数phi(n)。
欧拉公式
一个连通简单图,有n个顶点、e条边、f个面,那么
哈夫曼树的定义,怎么求,应用?
Haffuman树:又称最优二叉树,假设给定有n个权值的集合,且二叉树T有n个叶子节点,将权值赋值给n个叶子节点,定义二叉树的带权路径长度为权重和对应叶子节点的路径长度乘积之和,而最优二叉树就是一组使得带权路径长度最短的权重配置方案作为权重的二叉树。
Huffman树的基本思想就是:带权路径长度最小的二叉树应该是权值大的外结点离根节点最近的扩充二叉树。
计算方法:用n个权重各创建一个平凡树,并赋该树根以权值,然后开始循环
循环内容:
- 选择树根权值最小的两个树
- 创建一个新树,左右子树分别是这两个权值最小的树
- 新树的树根权值为两树权值之和
- 删去原来的两个树,添加新树
- 判断,如果只剩一个树就跳出循环
应用:编码设计:Huffman编码、决策算法、算法设计等。
无向图的定义
无向图是一个有序二元组,二元组由一个非空有穷集——顶点集,和一个由顶点集的有序积的有穷多重子集——边集所构成。无向图的边都是无序的,表示顶点和顶点的连接关系。不同于有向边只表示单向关系。
自反 对称 传递
如果对于集合A中的每个元素a,都有<a, a>属于关系R,则称R是自反的。换句话说,关系矩阵的对角线元素都为1。


如果对于关系R中的每一对<a, b>,都有<b, a>也属于R,则称R是对称的。即关系矩阵是对称矩阵。


如果对于关系R中的每一对<a, b>和<b, c>,都有<a, c>也属于R,则称R是传递的。

对称 + 传递 能否推出自反?
不能
考虑 A = {1, 2, 3} 上的关系 R = {(1, 1), (1, 2), (2, 1), (2, 2)} ,这不是自反的,因为没有 (3,3) 此时你大概就明白了,设A是集合,R是A上的二元关系, 对称性 + 传递性 推导出 自反性 的充要条件是,对任意的x属于A,存在y属于A使 (x,y)属于R。
对称和传递只跟R有关,而 自反 还要考察A,所以条件不充分,不能导出。
解释下等价关系和等价类
如果非空集合A上的一个关系R,同时满足自反性、对称性和传递性,就称R为集合A上的等价关系。
等价类就是集合A中所有与x等价的元素构成的集合。
解释一下偏序关系
关系R满足自反、反对称、传递则称为偏序关系。
握手定理
设G=(V, E)是有m条边的无向图,则
其他
我们都知道C里面有rand函数,那你能说一种办法从圆心在原点的圆上取若干个均匀的点吗?
在几何图形中均匀随机取点算法总结及Delaunay三角剖分算法介绍_随机分割破碎算法-CSDN博客
文章浏览阅读1.1w次,点赞10次,收藏48次。在工作中遇到一个需求,需要在圆形 矩形,三角形内随机,尽量均匀取点作为位置信息,但是random得到的信息有时候不是很满意。这里讨论一下第一种错误思路:根据圆的解析式 (假设圆心在原点)我们可以先随机生成[-R, R]范围内横坐标x,然后生成 范围内的随机数y,(x,y)就是需要的点。我们写程序模拟了该过程,从下图可以看出,我们可以看到当x靠近圆的边缘使,y的范围减小,因此两边边缘..._随机分割破碎算法
【题目不明确】若提问的是圆周:考虑到极坐标,给定圆的半径r,使用rand函数随机生成 , ,
若提问的是圆内:
法一:使用二维随机点的做法,若落在圆形外则重新生成点。
法二:如果随机生成半径和 , 会导致圆心过度聚集,可以对半径r进行平方根变换。







