贝叶斯算法_贝叶斯学习算法-程序员宅基地

技术标签: 算法  python  机器学习  

1. 相关概念

生成模型:在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。它给观测值和标注数据序列指定一个联合概率分布。在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。条件概率分布可以由生成模型根据贝叶斯定理形成。常见的基于生成模型算法有高斯混合模型和其他混合模型、隐马尔可夫模型、随机上下文无关文法、朴素贝叶斯分类器、AODE分类器、潜在狄利克雷分配模型、受限玻尔兹曼机


举例:要确定一个瓜是好瓜还是坏瓜,用判别模型的方法是从历史数据中学习到模型,然后通过提取这个瓜的特征来预测出这只瓜是好瓜的概率,是坏瓜的概率。


判别模型: 在机器学习领域判别模型是一种对未知数据 y 与已知数据 x 之间关系进行建模的方法。判别模型是一种基于概率理论的方法。已知输入变量 x ,判别模型通过构建条件概率分布 P(y|x) 预测 y 。常见的基于判别模型算法有逻辑回归、线性回归、支持向量机、提升方法、条件随机场、人工神经网络、随机森林、感知器

举例:利用生成模型是根据好瓜的特征首先学习出一个好瓜的模型,然后根据坏瓜的特征学习得到一个坏瓜的模型,然后从需要预测的瓜中提取特征,放到生成好的好瓜的模型中看概率是多少,在放到生产的坏瓜模型中看概率是多少,哪个概率大就预测其为哪个。


生成模型是所有变量的全概率模型,而判别模型是在给定观测变量值前提下目标变量条件概率模型。因此生成模型能够用于模拟(即生成)模型中任意变量的分布情况,而判别模型只能根据观测变量得到目标变量的采样。判别模型不对观测变量的分布建模,因此它不能够表达观测变量与目标变量之间更复杂的关系。因此,生成模型更适用于无监督的任务,如分类和聚类。

2. 先验概率、条件概率

条件概率: 就是事件A在事件B发生的条件下发生的概率。条件概率表示为P(A|B),读作“A在B发生的条件下发生的概率”。


先验概率: 在贝叶斯统计中,某一不确定量 p 的先验概率分布是在考虑"观测数据"前,能表达 p 不确定性的概率分布。它旨在描述这个不确定量的不确定程度,而不是这个不确定量的随机性。这个不确定量可以是一个参数,或者是一个隐含变量。
后验概率: 在贝叶斯统计中,一个随机事件或者一个不确定事件的后验概率是在考虑和给出相关证据或数据后所得到的条件概率。同样,后验概率分布是一个未知量(视为随机变量)基于试验和调查后得到的概率分布。“后验”在本文中代表考虑了被测试事件的相关证据。

通过上述西瓜的数据集来看

条件概率,就是在条件为瓜的颜色是青绿的情况下,瓜是好瓜的概率

先验概率,就是常识、经验、统计学所透露出的“因”的概率,即瓜的颜色是青绿的概率。

后验概率,就是在知道“果”之后,去推测“因”的概率,也就是说,如果已经知道瓜是好瓜,那么瓜的颜色是青绿的概率是多少。后验和先验的关系就需要运用贝叶斯决策理论来求解。

3. 贝叶斯决策理论

贝叶斯决策论是概率框架下实施决策的基本方法,对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。

假设有N种可能标记, λ i j λ_{ij} λij是将类 c j c_j cj误分类为 c i c_i ci所产生的损失,基于后验概率$ P(c_i | x)$ 可以获得样本x分类为 c i c_i ci所产生的期望损失 ,即在样本x上的条件风险:

R ( c i ∣ x ) = ∑ j = 1 N λ i j P ( c j ∣ x ) R(c_i|\mathbf{x}) = \sum_{j=1}^N \lambda_{ij} P(c_j|\mathbf{x}) R(cix)=j=1NλijP(cjx)
我们的任务是寻找一个判定准则 h : X → Y h:X→Y h:XY以最小化总体风险

R ( h ) = E x [ R ( h ( ( x ) ) ∣ ( x ) ) ] R(h)= \mathbb{E}_x [R(h(\mathbf(x)) | \mathbf(x))] R(h)=Ex[R(h((x))(x))]

显然,对每个样本x,若h能最小化条件风险 R ( h ( ( x ) ) ∣ ( x ) ) R(h((x))|(x)) R(h((x))(x)),则总体风险R(h)也将被最小化。这就产生了贝叶斯判定准则:为最小化总体风险,只需要在每个样本上选择那个能使条件风险R(c|x)最小的类别标记,即:

h ∗ ( x ) = a r g m i n c ∈ y R ( c ∣ x ) h^* (x) = argmin_{c\in y} R(c|\mathbf{x}) h(x)=argmincyR(cx)
此时,h 称作贝叶斯最优分类器,与之对应的总体风险R(h )称为贝叶斯风险,1-R(h*)反映了分类器能达到的最好性能,即机器学习所产生的模型精度的上限。

具体来说,若目标是最小化分类错误率(对应0/1损失),则 λ i j λ_{ij} λij可以用0/1损失改写,得到条件风险和最小化分类错误率的最优分类器分别为:
R ( c ∣ x ) = 1 − P ( c ∣ x ) R(c|\mathbf{x}) = 1- P(c|\mathbf{x}) R(cx)=1P(cx)

h ∗ ( x ) = a r g m a x c ∈ Y P ( c ∣ x ) h^*(x) = argmax_{c\in \mathcal{Y}} P(c|\mathbf{x}) h(x)=argmaxcYP(cx)

即对每个样本x,选择能使后验概率P(c|x)最大的类别标识。

获得后验概率的两种方法:

  1. 判别式模型:给定x,可以通过直接建模P(c|x)来预测c。
  2. 生成模型:先对联合分布p(x, c)建模,然后再有此获得P(c|x)。

4. 贝叶斯公式

对生成模型来说,必然考虑:
P ( c ∣ x ) = P ( x , c ) P ( x ) = P ( c ) P ( x ∣ c ) P ( x ) P(c|x) = \frac{P(x,c)}{P(x)} = \frac{P(c) P(x|c)}{P(x)} P(cx)=P(x)P(x,c)=P(x)P(c)P(xc)
其中P是“先验概率”;

P(x|c)是样本x对于类标记c的类条件概率,或称为“似然”;

P(x)是用于归一化的“证据”因子。

上式即为贝叶斯公式。

可以将其看做 P ( 类 别 ∣ 特 征 ) = P ( 特 征 , 类 别 ) P ( 特 征 ) = P ( 类 别 ) P ( 特 征 ∣ 类 别 ) P ( 特 征 ) P(类别|特征) = \frac{P(特征,类别)}{P(特征)} = \frac{P(类别) P(特征|类别)}{P(特征)} P()=P()P(,)=P()P()P()

对类条件概率P(x|c)来说,直接根据样本出现的频率来估计将会遇到严重的困难,所以引入了极大似然估计。

极大似然估计

估计类条件概率有一种常用的策略就是先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布的参数进行估计。假设P(x|c)具有某种确定的形式并且被参数 θ c θ_c θc 唯一确定,则我们的任务就是利用训练结D估计参数 θ c θ_c θc。为了明确期间,我们将P(x|c)记为 p ( x ∣ θ c ) p(x|θc) p(xθc).

举个通俗的例子:假设一个袋子装有白球与红球,比例未知,现在抽取10次(每次抽完都放回,保证事件独立性),假设抽到了7次白球和3次红球,在此数据样本条件下,可以采用最大似然估计法求解袋子中白球的比例(最大似然估计是一种“模型已定,参数未知”的方法)。当然,这种数据情况下很明显,白球的比例是70%,但如何通过理论的方法得到这个答案呢?一些复杂的条件下,是很难通过直观的方式获得答案的,这时候理论分析就尤为重要了,这也是学者们为何要提出最大似然估计的原因。我们可以定义从袋子中抽取白球和红球的概率如下:
在这里插入图片描述

x1为第一次采样,x2为第二次采样,f为模型, theta为模型参数

其中 θ \theta θ是未知的,因此,我们定义似然L为:
在这里插入图片描述

L为似然的符号

两边取ln,取ln是为了将右边的乘号变为加号,方便求导。
在这里插入图片描述

两边取ln的结果,左边的通常称之为对数似然。

在这里插入图片描述

这是平均对数似然

最大似然估计的过程,就是找一个合适的theta,使得平均对数似然的值为最大。因此,可以得到以下公式:
在这里插入图片描述
最大似然估计的公式

这里讨论的是2次采样的情况,当然也可以拓展到多次采样的情况:
在这里插入图片描述

最大似然估计的公式(n次采样)

我们定义M为模型(也就是之前公式中的f),表示抽到白球的概率为theta,而抽到红球的概率为(1-theta),因此10次抽取抽到白球7次的概率可以表示为:
在这里插入图片描述

10次抽取抽到白球7次的概率

将其描述为平均似然可得:
在这里插入图片描述
10次抽取抽到白球7次的平均对数似然,抽球的情况比较简单,可以直接用平均似然来求解

那么最大似然就是找到一个合适的theta,获得最大的平均似然。因此我们可以对平均似然的公式对theta求导,并另导数为0。
在这里插入图片描述

求导过程
由此可得,当抽取白球的概率为0.7时,最可能产生10次抽取抽到白球7次的事件。

以上就用到了最大似然估计的思想

令Dc表示训练集D中第c类样本组成的集合,假设这些集合是独立同分布的,则对参数θcθc对于数据集Dc的似然是:

P ( D c ∣ θ c ) = ∏ P ( x ∣ θ c ) P(D_c|\theta_c) = \prod P(\mathbf{x}|\theta_c) P(Dcθc)=P(xθc)
θ c θ_c θc进行激发似然估计买就是去寻找能最大化似然函数的参数值 θ c θ_c θc.直观上,极大似然估计是在试图在 θ c θ_c θc的所有可能的去职中,找到一个能使数据出现最大“可能性”的最大值。

上面的式子中的连乘操作容易造成下溢,通常使用对数似然:
L ( θ c ) = log ⁡ P ( D c ∣ θ c ) = ∑ x ∈ D c log ⁡ P ( x ∣ θ c ) L(\theta_c) = \log P(D_c| \theta_c) = \sum_{x\in D_c} \log P(x|\theta_c) L(θc)=logP(Dcθc)=xDclogP(xθc)
此时,参数 θ c θ_c θc的极大似然估计 θ c ^ \hat{\theta_c} θc^
θ c ^ = a r g m a x θ c L L ( θ c ) \hat{\theta_c} = argmax_{\theta_c} LL(\theta_c) θc^=argmaxθcLL(θc)
例如,在连续属性的情形下,假设概率密度函数 p ( x ∣ c ) ∼ N ( μ c , σ 2 ) p(x|c) \sim \mathcal{N}(\mu_c , \sigma^2) p(xc)N(μc,σ2),则参数 μ c μ_c μc σ 2 σ_2 σ2的极大似然估计为:
μ c ^ = 1 ∣ D c ∣ ∑ x ∈ D c x \hat{\mu_c} = \frac{1}{|D_c|} \sum_{x\in D_c} x μc^=Dc1xDcx
σ c ^ 2 = 1 ∣ D c ∣ ∑ x ∈ D c ( x − μ c ^ ) ( x − μ c ^ T ) \hat{\sigma_c}^2 = \frac{1}{|D_c|} \sum_{x\in D_c} (x-\hat{\mu_c} )(x-\hat{\mu_c} ^T) σc^2=Dc1xDc(xμc^)(xμc^T)
也就是说通过极大似然发得到的额正态分布均值就是样本均值,方差就是 ( x − μ c ^ ) ( x − μ c ^ T ) (x-\hat{\mu_c} )(x-\hat{\mu_c} ^T) (xμc^)(xμc^T)的均值。这显然是一个符合只觉得结果,在离散属性情形下,也可以通过类似的方法来估计类条件概率。

需要注意的是这种方法虽然能够使类条件概率估计变得简单,但是估计结果准确性严重依赖于所假设的概率分布形式是否符合潜在的真实数据分布。在显示生活中往往需要应用任务本身的经验知识,“猜测”则会导致误导性的结果。

贝叶斯分类器的训练过程就是参数估计。总结最大似然法估计参数的过程,一般分为以下四个步骤:

1.写出似然函数;
2.对似然函数取对数,并整理;
3.求导数,令偏导数为0,得到似然方程组;
4.解似然方程组,得到所有参数即为所求。
朴素贝叶斯分类器

基于贝叶斯公式来估计后验概率P(c|x)主要困难在于类条件概率P(x|c)是所有属性上的联合概率,难以从有限的训练样本直接估计而得。
基于有限训练样本直接计算联合概率,在计算上将会遭遇组合爆炸问题;在数据上将会遭遇样本稀疏问题;属性越多,问题越严重。

为了避开这个障碍,朴素贝叶斯分类器采用了 “ 属 性 条 件 独 立 性 假 设 ” “属性条件独立性假设” :对已知类别,假设所有属性相互独立。换言之,假设每个属性独立的对分类结果发生影响相互独立。

回答西瓜的例子就可以认为{色泽 根蒂 敲声 纹理 脐部 触感}这些属性对西瓜是好还是坏的结果所产生的影响相互独立。

基于条件独立性假设,对于多个属性的后验概率可以写成:
P ( c ∣ x ) = P ( C ) P ( x ∣ c ) P ( x ) = P ( c ) P ( x ) ∏ i = 1 d P ( x i ∣ c ) P(c|\mathbf{x}) = \frac{P(C)P(\mathbf{x}|c)}{P(\mathbf{x})} = \frac{P(c)}{P(\mathbf{x})}\prod_{i=1}^d P(x_i|c) P(cx)=P(x)P(C)P(xc)=P(x)P(c)i=1dP(xic)

d为属性数目, x i x_i xi是x在第i个属性上取值。
对于所有的类别来说P(x)相同,基于极大似然的贝叶斯判定准则有朴素贝叶斯的表达式:
h n b ( x ) = arg ⁡ m a x c ∈ Y P ( c ) ∏ i = 1 d P ( x i ∣ c ) ( 1 ) h_{nb}(\mathbf{x}) = \arg max_{c\in \mathcal{Y}}P(c)\prod_{i=1}^d P(x_i|c) \quad (1) hnb(x)=argmaxcYP(c)i=1dP(xic)(1)

5. 极值问题情况下的每个类的分类概率

极值问题

很多时候遇到求出各种目标函数(object function)的最值问题(最大值或者最小值)。关于函数最值问题,其实在高中的时候我们就已经了解不少,最经典的方法就是:直接求出极值点。这些极值点的梯度为0。若极值点唯一,则这个点就是代入函数得出的就是最值;若极值点不唯一,那么这些点中,必定存在最小值或者最大值(去除函数的左右的最端点),所以把极值代入函数,经对比后可得到结果。

请注意:并不一定所有函数的极值都可以通过设置导数为0的方式求 出。也就是说,有些问题中当我们设定导数为0时,未必能直接计算出满足导数为0的点(比如逻辑回归模型),这时候就需要利用数值计算相关的技术(最典型为梯度下降法,牛顿法……)。

6. 下溢问题如何解决

数值下溢问题:是指计算机浮点数计算的结果小于可以表示的最小数,因为计算机的能力有限,当数值小于一定数时,其无法精确保存,会造成数值的精度丢失,由上述公式可以看到,求概率时多个概率值相乘,得到的结果往往非常小;因此通常采用取对数的方式,将连乘转化为连加,以避免数值下溢。

7. 零概率问题如何解决?

零概率问题,就是在计算实例的概率时,如果某个量x,在观察样本库(训练集)中没有出现过,会导致整个实例的概率结果是0.

在实际的模型训练过程中,可能会出现零概率问题(因为先验概率和反条件概率是根据训练样本算的,但训练样本数量不是无限的,所以可能出现有的情况在实际中存在,但在训练样本中没有,导致为0的概率值,影响后面后验概率的计算),即便可以继续增加训练数据量,但对于有些问题来说,数据怎么增多也是不够的。这时我们说模型是不平滑的,我们要使之平滑,一种方法就是将训练(学习)的方法换成贝叶斯估计。

现在看一个示例,及 P ( 敲 声 = 清 脆 ∣ 好 瓜 = 是 ) = 8 0 = 0 P(敲声=清脆|好瓜=是)=\frac{8}{0}=0 P(==)=08=0
不论样本的其他属性如何,分类结果都会为“好瓜=否”,这样显然不太合理。

朴素贝叶斯算法的先天缺陷:其他属性携带的信息被训练集中某个分类下未出现的属性值“抹去”,造成预测出来的概率绝对为0。为了拟补这一缺陷,前辈们引入了拉普拉斯平滑的方法:对先验概率的分子(划分的计数)加1,分母加上类别数;对条件概率分子加1,分母加上对应特征的可能取值数量。这样在解决零概率问题的同时,也保证了概率和依然为1:
P ( c ) = ∣ D c ∣ ∣ D ∣ → P ( c ) = ∣ D c ∣ + 1 ∣ D ∣ + N P(c) = \frac{ {|{D_c}|}}{ {|D|}} \to P(c) = \frac{ {|{D_c}| + 1}}{ {|D| + N}} P(c)=DDcP(c)=D+NDc+1
P ( x i ∣ c ) = ∣ D x i ∣ c ∣ ∣ D c ∣ → P ( x i ∣ c ) = ∣ D x i ∣ c ∣ + 1 ∣ D c ∣ + N i P({x_i}|c) = \frac{ {|{D_{ {x_i}|c}}|}}{ {|{D_c}|}} \to P({x_i}|c) = \frac{ {|{D_{ {x_i}|c}}| + 1}}{ {|{D_c}| + {N_i}}} P(xic)=DcDxicP(xic)=Dc+NiDxic+1

其中,N表示数据集中分类标签, N i N_i Ni表示第 i i i个属性的取值类别数,|D|样本容量, ∣ D c ∣ |D_c| Dc表示类别c的记录数量, ∣ D x i ∣ c ∣ {|{D_{ {x_i}|c}}|} Dxic表示类别c中第i个属性取值为 x i x_i xi的记录数量。

将这两个式子应用到上面的计算过程中,就可以弥补朴素贝叶斯算法的这一缺陷问题。

用西瓜的数据来看,当我们计算

P(好瓜=是)时,样本有17个,所以|D| = 17,N,好瓜标签可以分为{是,否}两类,所以N=2,(好瓜=是)的样本个数有8个,所以这里 ∣ D c ∣ |D_c| Dc=8。

综上,根据拉普拉斯平滑后有 P ( 好 瓜 = 是 ) = ∣ D c ∣ + 1 ∣ D ∣ + N = ∣ 8 ∣ + 1 ∣ 17 ∣ + 2 P(好瓜=是) = \frac{ {|{D_c}| + 1}}{ {|D| + N}} = \frac{ {|{8}| + 1}}{ {|17| + 2}} P(=)=D+NDc+1=17+28+1
P(色泽=青绿|好瓜=是)时,色泽青绿的样本有8个,所以|D_c| = 8,N,色泽标签可以分为{青绿,浅白,乌黑}三类,所以N=3,(好瓜=是)的样本个数有3个,所以这里 ∣ D c , x i ∣ |D_{c,x_i}| Dc,xi=3。
综上,根据拉普拉斯平滑后有 P ( 色 泽 = 青 绿 ∣ 好 瓜 = 是 ) = ∣ D x i ∣ c ∣ + 1 ∣ D c ∣ + N i = ∣ 3 ∣ + 1 ∣ 8 ∣ + 3 P(色泽=青绿|好瓜=是)= \frac{ {|{D_{ {x_i}|c}}| + 1}}{ {|{D_c}| + {N_i}}}=\frac{ {|{3}}| + 1}{ {|{8}| + {3}}} P=绿==Dc+NiDxic+1=8+33+1
同理,分析可知,之前不合理的 P ( 敲 声 = 清 脆 ∣ 好 瓜 = 是 ) = 8 0 = 0 P(敲声=清脆|好瓜=是)=\frac{8}{0}=0 P(==)=08=0在进行拉普拉斯平滑后为 P ( 敲 声 = 清 脆 ∣ 好 瓜 = 是 ) = ∣ D x i ∣ c ∣ + 1 ∣ D c ∣ + N i = ∣ 0 ∣ + 1 ∣ 8 ∣ + 3 P(敲声=清脆|好瓜=是)= \frac{ {|{D_{ {x_i}|c}}| + 1}}{ {|{D_c}| + {N_i}}}=\frac{ {|{0}}| + 1}{ {|{8}| + {3}}} P(==)=Dc+NiDxic+1=8+30+1显然结果不是0,使结果变得合理。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_43655841/article/details/105713494

智能推荐

什么是内部类?成员内部类、静态内部类、局部内部类和匿名内部类的区别及作用?_成员内部类和局部内部类的区别-程序员宅基地

文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别

分布式系统_分布式系统运维工具-程序员宅基地

文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具

用Exce分析l数据极简入门_exce l趋势分析数据量-程序员宅基地

文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量

宁盾堡垒机双因素认证方案_horizon宁盾双因素配置-程序员宅基地

文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置

谷歌浏览器安装(Win、Linux、离线安装)_chrome linux debian离线安装依赖-程序员宅基地

文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖

烤仔TVの尚书房 | 逃离北上广?不如押宝越南“北上广”-程序员宅基地

文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...

随便推点

java spark的使用和配置_使用java调用spark注册进去的程序-程序员宅基地

文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序

汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用_uds协议栈 源代码-程序员宅基地

文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码

AUTOSAR基础篇之OS(下)_autosar 定义了 5 种多核支持类型-程序员宅基地

文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型

VS报错无法打开自己写的头文件_vs2013打不开自己定义的头文件-程序员宅基地

文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件

【Redis】Redis基础命令集详解_redis命令-程序员宅基地

文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令

URP渲染管线简介-程序员宅基地

文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线

推荐文章

热门文章

相关标签