国科大-随机过程-马尔可夫链的特性及其简化
探讨了马尔可夫链的特性及其简化过程,分析了条件概率、转移概率、状态分类以及长反弹和首达概率等概念。
1. 马尔可夫链的基本定义
1.1 定义
马尔可夫链是一个离散时间和离散状态的随机过程,特点在于未来的状态仅依赖于当前状态,与过去的状态无关。这一特性称为“马尔可夫性”,可用以下公式表示:
\[ P(X_{n+1} = x | X_n = x_n, X_{n-1} = x_{n-1}, \ldots, X_0 = x_0) = P(X_{n+1} = x | X_n = x_n) \]
1.2 转移概率与条件概率简化
马尔可夫链的条件概率特性使得复杂问题可以简化为二元条件问题。通过研究转移概率,我们能够更深入理解状态间的关系。
转移概率 \( P_{ij} \) 表示从状态 \( i \) 转移到状态 \( j \) 的概率。转移概率矩阵 \( P \) 可表示为:
\[
P = \begin{pmatrix}
P_{11} & P_{12} & \cdots & P_{1n} \\
P_{21} & P_{22} & \cdots & ...
国科大-随机过程-泊松过程中的独立增量和平稳增量
探讨了泊松过程中的独立增量和平稳增量的性质,尤其关注事件间隔的分布问题。通过对事件发生时间和间隔的分析,教授指出在给定事件发生次数的情况下,事件时刻服从均匀分布的顺序统计量。这堂课还强调了微元法和对称函数在解决复杂概率问题中的重要性,并通过案例展示了如何设计发车间隔来最小化乘客等待时间。
1. 泊松过程的基本概念
1.1 独立增量和平稳增量
泊松过程的两个关键特性为:
叠加性:在非重叠区间内,事件的增量相互独立。
平稳增量:增量的分布不随时间变化。这意味着事件发生的规律在任何时间段内都是一致的。
此性质使得泊松过程能够被有效地用于建模不同时刻的独立事件,比如业务电话的接入或顾客的到达。
1.2 指数分布
在泊松过程中,任意两个事件之间的间隔遵循指数分布,具有以下概率密度函数:
\[ f(t; \lambda) = \lambda e^{-\lambda t}, \quad t \geq 0 \]
其中,\(\lambda\) 是单位时间内的事件发生率。
2. 条件概率及其重要性
2.1 条件概率的概念
条件概率用于描述事件 \(A\) 在事件 \(B\) 已发生的前提下的发生概率, ...
2023年度总结
工作:
点云矢量建模:
通过多视几何重建或者激光雷达扫描出来的三维模型一般是用稠密点云,或者密集三角网格来表示。这种表现形式对于小型物体或者自由表面是合理的、可以接受的,但对大规模场景或者有规律的表面则是冗余的,在很多应用中是不可接受的。例如城市级场景中,当前三维重建系统得到的模型可以有高达数十亿个顶点,这不论是对存储、传输、渲染、还是后续应用处理都是非常困难的。
如何从这种稠密表达的三维模型中抽取重要的语义、结构和拓扑信息,并将它们以更紧凑、简洁的形式呈现出来并和后续应用需求对接起来,一直是三维重建领域的痛点问题。这种生成精简几何结构模型的过程,就是所谓的矢量化建模(vectorized modeling)。在图像领域,大家熟知的SVG、PDF等二维矢量图形(vector graphics)指的是:定义在二维点上,通过直线或基于数学方程的曲线连接起来,组合成多边形或其他形状来表示的图形。和常见的JPEG、PNG等栅格图像(raster graphics)相比,具有体积小,缩放不变性。类似的,三维矢量建模就是从离散的、密集的点或三角面片表示的模型,来得到通过三维点、平面、基于数学方程描 ...
国科大-随机过程-泊松过程3
在随机过程的研究中,泊松过程是一种重要的模型,特别适用于描述事件在固定时间内发生的次数。它的基本假设包括独立增量和平稳增量,展现了事件发生的随机性和规律性。
2. 泊松过程的基本性质
2.1 事件间隔与指数分布
在泊松过程中,任意两个事件之间的时间间隔遵循指数分布,其概率密度函数为:
\[ f(t; \lambda) = \lambda e^{-\lambda t}, \quad t \geq 0 \]
其中,λ为事件发生的强度。这个特性表明,各事件之间的时间间隔是独立且具有相同分布的。
2.2 事件的均值与观察点
通过计算特定事件间隔的均值,可以得出事件间隔与参数λ之间的关系:
\[ E[T] = \frac{1}{\lambda} \]
这说明,λ越大,事件发生的均值越小,反之亦然。观察时间点的选择可能导致事件发生次数的变化,这种不确定性值得深入分析。
3. 条件概率和随机变量的独立性
3.1 条件期望
条件期望用于描述在给定条件下随机变量的期望值。通过全概率公式可以将复杂事件拆解为简单事件的和,以便于计算:
\[ E[X|Y] = \sum_{y} E[X|Y=y] P(Y=y) ...
北京大学-最优化方法-待开始
看到了北京大学的最优化建模课程,听了前两节课程,讲解了怎样利用chatgpt进行辅助学习,嗯很有趣,先标记下,待有空再看
老师主页:http://faculty.bicmr.pku.edu.cn/~wenzw/opt-2023-fall.html
话说关于凸优化的课程好像没有一门坚持了下来…https://www.bilibili.com/video/BV1Kc411i7kJ/?vd_source=ee3c45eff831fbdce5c0471d003946b9
BDA-贝叶斯数据分析-写在前面
听说是写的很好,听随机过程的时候张颢老师提了一嘴,也和同学打听了下,好像是搞金融做量化分析那边会看的一本书。总的来讲也是对数据的分析和算法设计嘛。搜了下可惜没有中文,六百多页,关键是我对于概率方面也不是很了解,硬啃这书没有太多信心,提不起决心,等闲下来了再看看了…
国科大-随机过程-泊松过程2
泊松过程是一种重要的随机过程,广泛应用于统计学和概率论中。其主要特性包括独立增量和平稳增长,这使得泊松过程的统计性质简单明了,特别适合用于描述事件在特定时间段内的发生次数。
2. 泊松过程的基本特性
2.1 独立增量
泊松过程的独立增量特性意味着,在不重叠的时间区间内发生事件的数量是独立的。这一特性对于分析和预测事件发生的规律具有重要意义。
2.2 平稳增量
平稳增量的特性指的是事件在相同长度的时间区间内发生的次数分布相同。设强度为λ,则在时间区间[t, t+s]内发生k次事件的概率可以表示为:
\[ P(N(t+s) - N(t) = k) = \frac{(λs)^k e^{-λs}}{k!} \]
其中,\( N(t) \)为时间t内发生的事件数量。
2.3 事件间隔的分布
在泊松过程中,事件之间的时间间隔服从指数分布,其概率密度函数为:
\[ f(t; λ) = λ e^{-λt}, , t \geq 0 \]
这说明,在泊松过程中,事件之间的间隔是独立且遵循相同的分布。
3. 随机电报信号与泊松过程
随机电报信号是一个重要应用实例,其性质可以被视为泊松过程的近似。在此模型中, ...
国科大-随机过程-泊松过程与离散状态随机过程
主要学习泊松过程,探讨离散状态的随机过程。上半学期的学习侧重于连续时间和状态的过程,而下半学期则将专注于离散状态的过程。泊松过程的核心在于事件发生的次数是随机的,并且具有独立增量和平稳增量的特性。利用母函数可以推导出泊松过程的概率分布,最终得出事件发生次数服从泊松分布,而事件间隔时间则服从指数分布。
2. 离散状态随机过程的基本概念
2.1 定义与特征
离散状态的随机过程研究事件发生与时间之间的关系,具有广泛的应用。例如:
网络数据包到达:在计算机网络中,可以使用离散状态随机过程来建模数据包到达的情况。
保险行业:在保险中,该模型可用于表示事故的发生频率。
事件发生的次数具有随机性,随着时间的推移,事件发生的间隔也可能发生变化。通过分析这些随机变量,可以深入理解并改进模型方法。
2.2 独立增量和平稳增量
在研究离散状态随机过程中,独立增量的条件必须被考虑。该条件在实际应用中较难满足,但帮助理解事件发生的统计特性。
独立增量:不同时段内的事件增量是互不干扰的,能够简化计算流程。
平稳增量:事件次数仅依赖于时间段的长度,而非确定的时间,这在某些实际应用中可能不成立。
2.3 实际 ...
最优化:建模、算法与理论-待开始
翻了几页, 没有看下去的动力。等有空再看。他们开了对应的公开课,有空瞅瞅http://faculty.bicmr.pku.edu.cn/~wenzw/optbook.html
国科大-随机过程-高斯过程及其在机器学习和金融领域的应用总结
1. 高斯过程在机器学习中的应用
高斯过程(Gaussian Process, GP)是一种有效的非参数方法,广泛应用于机器学习的分类和回归问题。它从数据中自动学习模型结构,使得高斯过程非常灵活并适应数据的复杂性。
1.1 分类任务
高斯过程分类:在分类问题中,我们为每个类别构建相应的高斯分布模型,通过计算数据点到各个类别中心的距离,将其归类。
距离计算的重要性:
协方差矩阵的相似性对于分类结果至关重要。若各类的协方差矩阵不一致,可能会导致错误分类。
马氏距离 (Mahalanobis Distance): 一种考虑类间方差的距离计算方法,可以通过归一化方差来提高分类准确性。
公式:
\[
D_M = \sqrt{(x - \mu)^T S^{-1} (x - \mu)}
\]
这里,\(x\)是待测点,\(\mu\)是均值,\(S\)是协方差矩阵。
1.2 贝叶斯分类
贝叶斯方法:核心在于通过极大化后验概率充分考虑先验知识,态度更加灵活。
计算方式:通过转化为对数形式,将复杂的乘法问题转化为加法,便于计算与理解。
对数似然公式:
\[
\log P(D|\theta) ...
