【机器学习基础】机器学习入门核心:数学基础与Python科学计算库

article/2025/6/30 22:07:23

在这里插入图片描述

机器学习入门核心:数学基础与Python科学计算库

  • 一、核心数学基础回顾
        • 1. 函数与导数
        • 2. Taylor公式
        • 3. 概率论基础
        • 4. 统计量
        • 5. 重要定理
        • 6. 最大似然估计(MLE)
        • 7. 线性代数
  • 二、Python科学计算库精要
        • 1. NumPy:数值计算核心
        • 2. SciPy:科学计算工具箱
        • 3. Pandas:数据处理神器
        • 4. Matplotlib:专业级可视化
  • 三、机器学习中的关键应用
  • 四、概率论与统计的深度应用
        • 1. 贝叶斯理论与机器学习
        • 2. 协方差矩阵的特征分解
  • 五、优化理论与机器学习
        • 1. 梯度下降法的数学原理
        • 2. 二阶优化方法
  • 六、Python科学计算库高级应用
        • 1. NumPy高效计算技巧
        • 2. Pandas高级数据处理
        • 3. SciPy优化与积分
  • 七、机器学习中的矩阵分解
        • 1. SVD在推荐系统中的应用
        • 2. QR分解解线性系统
  • 八、实际案例:房价预测全流程
  • 九、学习路径与资源推荐
        • 学习路线图:
        • 推荐资源:
  • 十、核心要点总结

一、核心数学基础回顾

1. 函数与导数

常见函数类型

  • 常函数: f ( x ) = c f(x) = c f(x)=c
  • 一次函数: f ( x ) = k x + b f(x) = kx + b f(x)=kx+b
  • 二次函数: f ( x ) = a x 2 + b x + c f(x) = ax^2 + bx + c f(x)=ax2+bx+c
  • 幂函数: f ( x ) = x a f(x) = x^a f(x)=xa
  • 指数函数: f ( x ) = a x ( a > 0 , a ≠ 1 ) f(x) = a^x \quad (a>0, a≠1) f(x)=ax(a>0,a=1)
  • 对数函数: f ( x ) = log ⁡ a x ( a > 0 , a ≠ 1 ) f(x) = \log_a x \quad (a>0, a≠1) f(x)=logax(a>0,a=1)
    在这里插入图片描述

导数与梯度

  • 导数:描述函数变化率,几何意义为曲线切线斜率
    f ′ ( x 0 ) = lim ⁡ Δ x → 0 f ( x 0 + Δ x ) − f ( x 0 ) Δ x f'(x_0) = \lim_{\Delta x \to 0} \frac{f(x_0 + \Delta x) - f(x_0)}{\Delta x} f(x0)=Δx0limΔxf(x0+Δx)f(x0)
  • 偏导数:多变量函数中针对单个变量的导数
    ∂ f ∂ x i = lim ⁡ Δ x i → 0 f ( x 1 , . . . , x i + Δ x i , . . . , x n ) − f ( x 1 , . . . , x n ) Δ x i \frac{\partial f}{\partial x_i} = \lim_{\Delta x_i \to 0} \frac{f(x_1,...,x_i+\Delta x_i,...,x_n)-f(x_1,...,x_n)}{\Delta x_i} xif=Δxi0limΔxif(x1,...,xi+Δxi,...,xn)f(x1,...,xn)
  • 梯度:多变量函数的导数向量,指向函数增长最快方向
    ∇ f = ( ∂ f ∂ x 1 , ∂ f ∂ x 2 , . . . , ∂ f ∂ x n ) \nabla f = \left( \frac{\partial f}{\partial x_1}, \frac{\partial f}{\partial x_2}, ..., \frac{\partial f}{\partial x_n} \right) f=(x1f,x2f,...,xnf)
2. Taylor公式

用多项式逼近函数值,在优化算法中广泛应用:
f ( x ) = f ( x 0 ) + f ′ ( x 0 ) ( x − x 0 ) + f ′ ′ ( x 0 ) 2 ! ( x − x 0 ) 2 + . . . + f ( n ) ( x 0 ) n ! ( x − x 0 ) n + R n ( x ) f(x) = f(x_0) + f'(x_0)(x-x_0) + \frac{f''(x_0)}{2!}(x-x_0)^2 + ... + \frac{f^{(n)}(x_0)}{n!}(x-x_0)^n + R_n(x) f(x)=f(x0)+f(x0)(xx0)+2!f′′(x0)(xx0)2+...+n!f(n)(x0)(xx0)n+Rn(x)
其中 R n ( x ) R_n(x) Rn(x)为余项(高阶无穷小)

应用场景

  • 函数近似计算(如 e 0.1 ≈ 1 + 0.1 + 0.1 2 2 ! = 1.105 e^{0.1} \approx 1 + 0.1 + \frac{0.1^2}{2!} = 1.105 e0.11+0.1+2!0.12=1.105
  • 梯度下降法等优化算法的理论基础
    在这里插入图片描述
3. 概率论基础

核心公式

  • 联合概率 P ( A ∩ B ) = P ( A , B ) P(A \cap B) = P(A,B) P(AB)=P(A,B)
  • 条件概率 P ( A ∣ B ) = P ( A ∩ B ) P ( B ) P(A|B) = \frac{P(A \cap B)}{P(B)} P(AB)=P(B)P(AB)
  • 全概率公式
    P ( B ) = ∑ i = 1 n P ( A i ) P ( B ∣ A i ) ( { A i } 为样本空间划分 ) P(B) = \sum_{i=1}^n P(A_i)P(B|A_i) \quad (\{A_i\}为样本空间划分) P(B)=i=1nP(Ai)P(BAi)({Ai}为样本空间划分)
  • 贝叶斯公式
    P ( A j ∣ B ) = P ( A j ) P ( B ∣ A j ) ∑ i = 1 n P ( A i ) P ( B ∣ A i ) P(A_j|B) = \frac{P(A_j)P(B|A_j)}{\sum_{i=1}^n P(A_i)P(B|A_i)} P(AjB)=i=1nP(Ai)P(BAi)P(Aj)P(BAj)
4. 统计量
概念定义意义
期望 E [ X ] = ∑ x i p i \mathbb{E}[X] = \sum x_i p_i E[X]=xipi (离散)
E [ X ] = ∫ x f ( x ) d x \mathbb{E}[X] = \int x f(x)dx E[X]=xf(x)dx (连续)
随机变量平均值
方差 Var ( X ) = E [ ( X − μ ) 2 ] \text{Var}(X) = \mathbb{E}[(X - \mu)^2] Var(X)=E[(Xμ)2]数据离散程度
协方差 Cov ( X , Y ) = E [ ( X − μ X ) ( Y − μ Y ) ] \text{Cov}(X,Y) = \mathbb{E}[(X-\mu_X)(Y-\mu_Y)] Cov(X,Y)=E[(XμX)(YμY)]变量线性相关性
标准差 σ = Var ( X ) \sigma = \sqrt{\text{Var}(X)} σ=Var(X) 方差算术平方根

协方差矩阵
Σ = [ Cov ( X 1 , X 1 ) ⋯ Cov ( X 1 , X n ) ⋮ ⋱ ⋮ Cov ( X n , X 1 ) ⋯ Cov ( X n , X n ) ] \Sigma = \begin{bmatrix} \text{Cov}(X_1,X_1) & \cdots & \text{Cov}(X_1,X_n) \\ \vdots & \ddots & \vdots \\ \text{Cov}(X_n,X_1) & \cdots & \text{Cov}(X_n,X_n) \end{bmatrix} Σ= Cov(X1,X1)Cov(Xn,X1)Cov(X1,Xn)Cov(Xn,Xn)

5. 重要定理

大数定律
lim ⁡ n → ∞ P ( ∣ 1 n ∑ i = 1 n X i − μ ∣ < ϵ ) = 1 \lim_{n \to \infty} P\left( \left| \frac{1}{n}\sum_{i=1}^n X_i - \mu \right| < \epsilon \right) = 1 nlimP( n1i=1nXiμ <ϵ)=1
意义:样本均值依概率收敛于总体均值

中心极限定理
∑ i = 1 n X i − n μ σ n → d N ( 0 , 1 ) \frac{\sum_{i=1}^n X_i - n\mu}{\sigma\sqrt{n}} \xrightarrow{d} N(0,1) σn i=1nXinμd N(0,1)
意义:独立同分布随机变量和的标准化近似服从标准正态分布

6. 最大似然估计(MLE)

估计步骤

  1. 写出似然函数: L ( θ ; x ) = ∏ i = 1 n f ( x i ∣ θ ) L(\theta; x) = \prod_{i=1}^n f(x_i|\theta) L(θ;x)=i=1nf(xiθ)
  2. 取对数: ℓ ( θ ) = ln ⁡ L ( θ ) \ell(\theta) = \ln L(\theta) (θ)=lnL(θ)
  3. 求导并解方程: ∂ ℓ ∂ θ = 0 \frac{\partial \ell}{\partial \theta} = 0 θ=0

示例:高斯分布参数估计
μ ^ = 1 n ∑ x i , σ ^ 2 = 1 n ∑ ( x i − μ ^ ) 2 \hat{\mu} = \frac{1}{n}\sum x_i, \quad \hat{\sigma}^2 = \frac{1}{n}\sum (x_i - \hat{\mu})^2 μ^=n1xi,σ^2=n1(xiμ^)2

7. 线性代数

矩阵运算

  • 加法 C i j = A i j + B i j C_{ij} = A_{ij} + B_{ij} Cij=Aij+Bij
  • 数乘 C i j = λ A i j C_{ij} = \lambda A_{ij} Cij=λAij
  • 矩阵乘法 C i j = ∑ k A i k B k j C_{ij} = \sum_k A_{ik}B_{kj} Cij=kAikBkj
  • 转置 B = A T ⇒ B i j = A j i B = A^T \Rightarrow B_{ij} = A_{ji} B=ATBij=Aji

矩阵分解

  • SVD分解 A = U Σ V T A = U\Sigma V^T A=UΣVT
  • QR分解 A = Q R A = QR A=QR(Q正交,R上三角)

向量求导

  • ∇ x ( a T x ) = a \nabla_x (a^Tx) = a x(aTx)=a
  • ∇ x ( x T A x ) = ( A + A T ) x \nabla_x (x^TAx) = (A + A^T)x x(xTAx)=(A+AT)x (当A对称时: 2 A x 2Ax 2Ax

二、Python科学计算库精要

在这里插入图片描述

1. NumPy:数值计算核心
import numpy as np# 创建数组
arr = np.array([1, 2, 3])  
matrix = np.array([[1,2],[3,4]])# 矩阵运算
dot_product = np.dot(arr1, arr2)       # 点积
mat_mult = np.matmul(matrix1, matrix2) # 矩阵乘法# 线性代数
eigenvals = np.linalg.eigvals(matrix)  # 特征值
svd_u, svd_s, svd_vt = np.linalg.svd(matrix)  # SVD分解
2. SciPy:科学计算工具箱
from scipy import optimize, linalg, stats# 优化求解
result = optimize.minimize(f, x0)  # 函数优化# 矩阵分解
Q, R = linalg.qr(matrix)  # QR分解# 统计分析
mean = stats.mean(data)    # 均值
t_test = stats.ttest_ind(sample1, sample2)  # T检验
3. Pandas:数据处理神器
import pandas as pd# 数据加载与处理
df = pd.read_csv("data.csv")  
df = df.dropna()  # 删除缺失值# 数据统计
group_stats = df.groupby('category')['value'].describe()
corr_matrix = df.corr()  # 相关系数矩阵# 数据可视化
df['value'].plot.hist(bins=30, alpha=0.5)
4. Matplotlib:专业级可视化
import matplotlib.pyplot as plt# 创建画布
fig, ax = plt.subplots(figsize=(10,6))# 绘制图形
ax.plot(x, y, label='Linear')  
ax.scatter(x, y2, color='red', label='Points')
ax.set_xlabel('X Axis')
ax.set_ylabel('Y Axis')
ax.legend()# 保存输出
plt.savefig('plot.png', dpi=300)
plt.show()

三、机器学习中的关键应用

  1. 特征工程

    • Pandas数据清洗与转换
    • NumPy实现特征标准化: z = x − μ σ z = \frac{x - \mu}{\sigma} z=σxμ
  2. 模型训练

    • SciPy优化算法求解损失函数最小值
    • NumPy实现梯度下降:
      w t + 1 = w t − η ∇ w J ( w ) w_{t+1} = w_t - \eta \nabla_w J(w) wt+1=wtηwJ(w)
  3. 矩阵分解应用

    • SVD用于推荐系统(协同过滤)
    • QR分解求解线性回归: X β = y ⇒ β = R − 1 Q T y X\beta = y ⇒ \beta = R^{-1}Q^Ty =yβ=R1QTy
  4. 概率建模

    from scipy.stats import norm
    # 最大似然估计高斯分布参数
    mu_mle = np.mean(data)
    std_mle = np.std(data)
    
  5. 可视化分析

    • 使用Matplotlib绘制决策边界
    • Pandas绘制特征相关性热力图

四、概率论与统计的深度应用

1. 贝叶斯理论与机器学习

贝叶斯公式的机器学习视角
P ( θ ∣ D ) = P ( D ∣ θ ) P ( θ ) P ( D ) P(\theta|D) = \frac{P(D|\theta)P(\theta)}{P(D)} P(θD)=P(D)P(Dθ)P(θ)

  • θ \theta θ:模型参数
  • D D D:观测数据
  • P ( θ ) P(\theta) P(θ):先验分布
  • P ( D ∣ θ ) P(D|\theta) P(Dθ):似然函数
  • P ( θ ∣ D ) P(\theta|D) P(θD):后验分布

应用场景

  • 朴素贝叶斯分类器
  • 贝叶斯优化(超参数调优)
  • 概率图模型
# 朴素贝叶斯实现示例
from sklearn.naive_bayes import GaussianNB
model = GaussianNB()
model.fit(X_train, y_train)
probabilities = model.predict_proba(X_test)
2. 协方差矩阵的特征分解

协方差矩阵的特征值和特征向量揭示了数据的本质结构:
Σ = Q Λ Q T \Sigma = Q\Lambda Q^T Σ=QΛQT

  • Q Q Q:特征向量矩阵(主成分方向)
  • Λ \Lambda Λ:特征值对角矩阵(各方向方差)

PCA降维的数学本质

  1. 计算数据协方差矩阵
  2. 特征值分解
  3. 选择前k大特征值对应的特征向量
  4. 投影到低维空间
# PCA实现
from sklearn.decomposition import PCA
pca = PCA(n_components=2)
X_pca = pca.fit_transform(X)
print("解释方差比:", pca.explained_variance_ratio_)

五、优化理论与机器学习

1. 梯度下降法的数学原理

参数更新公式
θ t + 1 = θ t − η ∇ J ( θ t ) \theta_{t+1} = \theta_t - \eta \nabla J(\theta_t) θt+1=θtηJ(θt)
其中 η \eta η为学习率, ∇ J \nabla J J为损失函数的梯度

梯度推导示例(线性回归)
损失函数: J ( w ) = 1 2 N ∑ i = 1 N ( y i − w T x i ) 2 J(w) = \frac{1}{2N}\sum_{i=1}^N (y_i - w^Tx_i)^2 J(w)=2N1i=1N(yiwTxi)2
梯度: ∇ w J = − 1 N X T ( y − X w ) \nabla_w J = -\frac{1}{N}X^T(y - Xw) wJ=N1XT(yXw)

2. 二阶优化方法

牛顿法更新公式
θ t + 1 = θ t − H − 1 ∇ J ( θ t ) \theta_{t+1} = \theta_t - H^{-1}\nabla J(\theta_t) θt+1=θtH1J(θt)
其中 H H H为Hessian矩阵(二阶导数矩阵)

优势与局限

  • 👍 收敛速度快
  • 👎 计算复杂度高( O ( n 3 ) O(n^3) O(n3)
  • 👎 需要保证Hessian正定

六、Python科学计算库高级应用

1. NumPy高效计算技巧

广播机制

A = np.array([[1, 2], [3, 4]])
B = np.array([10, 20])
print(A * B)  # 自动扩展维度 [[10,40],[30,80]]

爱因斯坦求和约定

# 矩阵乘法
np.einsum('ij,jk->ik', A, B)# 双线性变换
np.einsum('ij,kj->ik', A, B)
2. Pandas高级数据处理

时间序列分析

# 创建时间序列
date_rng = pd.date_range('2023-01-01', periods=6, freq='D')
ts = pd.Series(np.random.randn(6), index=date_rng)# 重采样
weekly = ts.resample('W').mean()

数据透视分析

pivot = df.pivot_table(values='sales',index='region',columns='quarter',aggfunc=np.sum,fill_value=0
)
3. SciPy优化与积分

函数优化

from scipy.optimize import minimizedef rosen(x):return sum(100.0*(x[1:]-x[:-1]**2.0)**2.0 + (1-x[:-1])**2.0result = minimize(rosen, x0=[0,0], method='BFGS')
print("最优解:", result.x)

数值积分

from scipy.integrate import quad# 计算高斯积分
integral, error = quad(lambda x: np.exp(-x**2), -np.inf, np.inf)
print(f"∫e^(-x²)dx = {integral:.5f} (误差={error:.2e})")

七、机器学习中的矩阵分解

1. SVD在推荐系统中的应用

协同过滤模型
R ≈ U Σ V T R \approx U\Sigma V^T RUΣVT

  • R R R:用户-物品评分矩阵
  • U U U:用户潜在特征
  • V V V:物品潜在特征
# SVD实现推荐
from scipy.sparse.linalg import svds
U, sigma, Vt = svds(user_item_matrix, k=50)
predicted_ratings = U @ np.diag(sigma) @ Vt
2. QR分解解线性系统

求解线性回归
X β = y ⇒ Q R β = y ⇒ R β = Q T y X\beta = y \quad \Rightarrow \quad QR\beta = y \quad \Rightarrow \quad R\beta = Q^Ty =yQRβ=y=QTy

# QR分解解线性系统
Q, R = np.linalg.qr(X)
beta = np.linalg.solve(R, Q.T @ y)

八、实际案例:房价预测全流程

import pandas as pd
import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error# 1. 数据加载与预处理
df = pd.read_csv('housing.csv')
df = df.dropna()# 2. 特征工程
df['age_squared'] = df['house_age']**2
X = df[['distance', 'rooms', 'house_age', 'age_squared']]
y = df['price']# 3. 数据标准化
X_mean, X_std = X.mean(), X.std()
X_normalized = (X - X_mean) / X_std# 4. 模型训练
model = LinearRegression()
model.fit(X_normalized, y)# 5. 模型评估
y_pred = model.predict(X_normalized)
rmse = np.sqrt(mean_squared_error(y, y_pred))
print(f"RMSE: {rmse:.2f}")# 6. 结果可视化
plt.figure(figsize=(10,6))
plt.scatter(y, y_pred, alpha=0.5)
plt.plot([y.min(), y.max()], [y.min(), y.max()], 'r--')
plt.xlabel('Actual Price')
plt.ylabel('Predicted Price')
plt.title('Actual vs Predicted Housing Prices')

九、学习路径与资源推荐

  1. 数学基础 → 2. NumPy核心操作 → 3. Pandas数据处理 → 4. SciPy数值计算 → 5. Matplotlib可视化

关键要点

  • 掌握导数与梯度是理解梯度下降等优化算法的前提
  • 概率论基础(贝叶斯公式、MLE)是机器学习模型的理论核心
  • NumPy的广播机制和向量化操作可提升代码效率100倍+
  • 矩阵分解(SVD/QR)是降维与特征提取的数学基础
学习路线图:
数学基础
线性代数
概率统计
微积分
矩阵分解
概率分布
优化理论
特征工程
贝叶斯方法
模型训练
机器学习
推荐资源:
  1. 数学基础

    • 《线性代数及其应用》(Gilbert Strang)
    • 《概率论与数理统计》(陈希孺)
  2. Python科学计算

    • 《Python数据科学手册》(Jake VanderPlas)
    • NumPy官方文档
  3. 实战平台

    • Kaggle
    • Google Colab
  4. 可视化学习

    • Matplotlib图库
    • Seaborn示例

十、核心要点总结

  1. 数学是机器学习的基础

    • 梯度下降依赖导数计算
    • 概率分布构建生成模型
    • 矩阵分解实现降维与推荐
  2. Python库的合理选择

35% 25% 20% 15% 5% 科学计算库使用场景 数据处理 数值计算 可视化 优化求解 统计分析
  1. 高效计算实践

    • 向量化操作优先于循环
    • 适当使用内存视图(避免复制)
    • 利用稀疏矩阵处理高维数据
  2. 模型调试技巧

    • 梯度检验: J ( θ + ϵ ) − J ( θ − ϵ ) 2 ϵ ≈ ∇ J ( θ ) \frac{J(\theta+\epsilon)-J(\theta-\epsilon)}{2\epsilon} \approx \nabla J(\theta) 2ϵJ(θ+ϵ)J(θϵ)J(θ)
    • 损失函数可视化
    • 特征重要性分析

通过扎实的数学基础和熟练的Python工具使用,您将能:

  • 深入理解机器学习算法原理
  • 高效实现数据预处理和特征工程
  • 快速构建和调试复杂模型
  • 直观解释模型行为和结果

http://www.hkcw.cn/article/FCZmwKhScR.shtml

相关文章

【存储基础】SAN存储基础知识

文章目录 1. 什么是SAN存储&#xff1f;2. SAN存储组网架构3. SAN存储的主要协议SCSI光纤通道&#xff08;FC&#xff09;协议iSCSIFCoENVMe-oFIB 4. SAN存储的关键技术Thin Provision&#xff1a;LUN空间按需分配Tier&#xff1a;分级存储Cache&#xff1a;缓存机制QoS&#x…

缓解颈部不适的营养补给之道

对于颈部常有不适的人群而言&#xff0c;合理的营养补充是维持身体良好状态的重要方式。日常饮食中&#xff0c;蛋白质是不容小觑的营养元素。瘦肉、蛋类、奶类以及豆制品都是优质蛋白质的来源&#xff0c;它们能够帮助增强肌肉力量&#xff0c;为颈部提供更好的支撑。​ 维生…

ck-editor5的研究 (6):进一步优化页面刷新时,保存提示的逻辑

文章目录 一、前言二、实现步骤1. 第一步: 引入 PendingActions 插件2. 第二步&#xff1a;注册事件3. 第三步&#xff1a;点击保存按钮时&#xff0c;控制状态变化 三、测试效果和细节四、总结 一、前言 在上一篇文章中 ck-editor5的研究 (5)&#xff1a;优化-页面离开时提醒…

手机归属地查询接口如何用Java调用?

一、什么是手机归属地查询接口&#xff1f; 是一种便捷、高效的工具&#xff0c;操作简单&#xff0c;请求速度快。它不仅能够提高用户填写地址的效率&#xff0c;还能帮助企业更好地了解客户需求&#xff0c;制定个性化的营销策略&#xff0c;降低风险。随着移动互联网的发展…

列表推导式(Python)

[表达式 for 变量 in 列表] 注意&#xff1a;in后面不仅可以放列表&#xff0c;还可以放range ()可迭代对象 [表达式 for 变量 in 列表 if 条件]

【机器学习|评价指标4】正预测值(PPV)、负预测值(NPV)、假阴性率(FNR)、假阳性率(FPR)详解,附代码。

【机器学习|评价指标4】正预测值&#xff08;PPV&#xff09;、负预测值&#xff08;NPV&#xff09;、假阴性率&#xff08;FNR&#xff09;、假阳性率&#xff08;FPR&#xff09;详解&#xff0c;附代码。 【机器学习|评价指标4】正预测值&#xff08;PPV&#xff09;、负预…

【Delphi】实现在多显示器时指定程序运行在某个显示器上

在多显示器时代&#xff0c;经常会出现期望将程序运行在某个指定的显示器上&#xff0c;特别是在调试程序的时候&#xff0c;期望切换分辨率&#xff0c;单步调试时&#xff0c;此时容易导致互相卡住&#xff0c;非常不方便&#xff0c;但是通过指定程序运行在不同的显示器上就…

渗透实战PortSwigger Labs AngularJS DOM XSS利用详解

本Lab学习到关于AngularJS的 xss 漏洞利用 直接输入回显页面&#xff0c;但是把<>进了 html 编码了 当我们输入{{11}}&#xff0c;没有当作字符处理&#xff0c;而是执行了 {{}} 是多种前端框架&#xff08;如 Vue、Angular、Django 模板等&#xff09;中常见的模板插值语…

配置刷新技术

FPGA 片上三模冗余( TMR) 设计结合配置刷新( Scrubbing) 的防护方法能够有效地提高系统的抗单粒子翻转性能。 三模冗余的方法利用模块三冗余及三取二自动表决来掩蔽错误&#xff0c;但是如果错误积累到一定程度&#xff0c;导致同时有两个或两个以上模块发生翻转错误&#xff0…

计算机科技笔记: 容错计算机设计05 n模冗余系统 其他复杂结构

目录 NMR变体动态冗余系统混合冗余系统筛除新系统 NMR变体 V是表决器 动态冗余系统 优点像N模并行系统&#xff0c;后边加一个故障检测和系统重构百分之90以上的故障都是瞬时故障&#xff0c;检测到故障重新运行即可如果出现老化&#xff0c;可以用Spare-1替代 混合冗余系…

HealthBench医疗AI评估基准:技术路径与核心价值深度分析(上)

引言:医疗AI评估的新范式 在人工智能技术迅猛发展的当下,医疗AI系统已逐渐从实验室走向临床应用。然而,医疗领域的特殊性要求这些系统不仅需要在技术指标上表现出色,更需要在实际临床场景中展现出可靠、安全且有效的性能。长期以来,医疗AI评估领域面临着三个核心挑战:评…

中国就业人口现状分析与未来趋势预测

目录 1、核心摘要 2、就业人口总量与趋势 就业人口规模 产业结构变化 3、未来就业趋势 2030年就业变革 人口结构影响 技能需求变化 4、年龄结构与老龄化影响 老龄化现状 抚养比变化 6、老龄化经济影响 消费结构变化 创新活力 7、行业分布与数字经济 行业就业结…

三种经典算法优化无线传感器网络(WSN)覆盖(SSA-WSN、PSO-WSN、GWO-WSN),MATLAB代码实现

三种经典算法优化无线传感器网络(WSN)覆盖&#xff08;SSA-WSN、PSO-WSN、GWO-WSN&#xff09;&#xff0c;MATLAB代码实现 目录 三种经典算法优化无线传感器网络(WSN)覆盖&#xff08;SSA-WSN、PSO-WSN、GWO-WSN&#xff09;&#xff0c;MATLAB代码实现效果一览基本介绍程序设…

SQL Transactions(事务)、隔离机制

目录 Why Transactions? Example: Bad Interaction Transactions ACID Transactions COMMIT ROLLBACK How the Transaction Log Works How Data Is Stored Example: Interacting Processes Interleaving of Statements Example: Strange Interleaving Fixing the…

Linux(10)——第二个小程序(自制shell)

目录 ​编辑 一、引言与动机 &#x1f4dd;背景 &#x1f4dd;主要内容概括 二、全局数据 三、环境变量的初始化 ✅ 代码实现 四、构造动态提示符 ✅ 打印提示符函数 ✅ 提示符生成函数 ✅获取用户名函数 ✅获取主机名函数 ✅获取当前目录名函数 五、命令的读取与…

MySQL:视图+用户管理+访问+连接池原理

一、视图 视图是一个虚拟表&#xff0c;其内容由查询定义。同真实的表一样&#xff08;相当于是把查询的内容当成一个临时表来使用&#xff09;&#xff0c;视图包含一系列带有名称的列和行数据。视图的数据变化会影响到基表&#xff0c;基表的数据变化也会影响到视图。 1.1 为…

【2025年B卷】华为OD-100分-字符串重新排列、字符串重新排序

专栏订阅🔗 -> 赠送OJ在线评测 字符串重新排列、字符串重新排序 问题描述 给定一个字符串 s s s,

LearnOpenGL-笔记-其十三

PBR(Physically Based Rendering) 什么是基于物理的渲染&#xff1f;简单地说&#xff0c;还记得我们之前学习的法线贴图的内容吗&#xff1f;我们希望不修改物体实际几何形状的前提下去修改表面的法线方向来实现不同的光照效果&#xff0c;实现这个内容的基础就是我们的光照效…

微软PowerBI考试 PL-300学习指南

微软PowerBI考试 PL-300学习指南 Microsoft Power BI 数据分析师学习指南 昨天的投票情况&#xff1a; 技能概览 准备数据 (25-30%) 数据建模 (25-30%) 可视化和分析数据 (25-30%) 管理和保护 Power BI (15–20%) 准备数据 (25-30%) 获取或连接到数据 确定并连接到数据源…

机器学习——集成学习

一、集成学习概念 集成学习: (Ensemble Learning)是一种机器学习范式&#xff0c;它通过构建并结合多个模型来完成学习任务,获得更好的泛化性能。 核心思想&#xff1a;通过组合多个弱学习器来构建一个强学习器。 bagging思想&#xff1a;有放回的抽样&#xff1b;平权投票…