testblog testing This is a test article. 无序列表测试 测试 测试 有序列表测试 测试 测试 引言测试 行内 latex 测试:我们考虑一个公式 E=mc2E = mc^2E=mc2。 行间公式测试 x=−b±Δ2ax = \frac{-b\pm\sqrt\Delta}{2a} x=2a−b±Δ 剩余测试 环境测试 A=(123456)\boldsymbo 2021-05-09 站务 #站务
机器学习(2024Fall)课程笔记 本笔记为北京大学 2024 年秋季学期《机器学习》(04632036)的课程笔记。该课程由张牧涵老师开设。张老师的课程讲述非常精彩且有特点,全程板书且穿插了不少 insights。 本来头两讲是在 iPad 上进行笔记记录的,第三节课发现直接用 Markdown 可以跟得上,遂将笔记整理于此。 笔记按知识模块形式呈现如下。 目录: 01-线性回归 02-逻辑回归 03-偏差方差分解 04-支持向 2024-09-09 笔记 > 本科课程 > 机器学习 #笔记 #本科课程 #机器学习
ICS 期末复习 Chap. 7 Linking 关于编译器驱动程序: cpp [other args] main.c /tmp/main.i 是预处理器,main.i 是 ASCII 中间文件。 cc1 /tmp.main.i -Og [other args] -o /tmp/main.s 是编译器,main.s 是 ASCII 汇编代码。 as [other args] -o /tmp/main.o /tm 2024-12-22 笔记 > 本科课程 #笔记 #ICS #本科课程
24秋机器学习笔记-10-无监督学习 无监督学习简介 之前我们学习的都是有监督学习,我们的目标是最小化一个损失函数 L(f(x),y)L(f(x),y)L(f(x),y),或者最大似然 P(y∣x)P(y|x)P(y∣x)。比如回归问题中的线性回归与 GPR,分类问题中的逻辑回归、SVM 与 NN 等。 而无监督学习可以理解为只给一堆 XXX,然后学习 XXX 的分布 P(X)P(X)P(X)。 一般有三种: 降维(dimensi 2024-12-04 笔记 > 本科课程 > 机器学习 #本科课程 #机器学习
24秋机器学习笔记-09-集成学习 一键回城。 概览 核心思想:将若干(弱)的模型组合在一起以获得一个强的模型。这些模型需要尽可能 diversed(因为如果都一样的话就起不到增强的效果了) 回顾偏差-方差分解: ED[(f(x;D)−y)2]=ED[(f(x,D)−f‾(x))2]+(f‾(x)−y)2\mathbb{E}_D[(f(x;D) - y)^2] = \mathbb{E}_D[(f(x,D) - \overlin 2024-11-22 笔记 > 本科课程 > 机器学习 #本科课程 #机器学习
24秋机器学习笔记-08-树模型 一键回城。 决策树 回忆:我们之前的很多模型都可以写成 y=wTx+by = w^Tx+by=wTx+b,决策逻辑(二分类):f(x)≥0f(x)\ge0f(x)≥0 时预测为 111,否则预测为 000。 事实上这个逻辑可以写成一个树。 我们之前学习的模型多为线性模型,为了应对非线性性,我们可以考虑引入决策树。 决策树定义:一棵包含根节点、内部节点、叶子节点和有向边的树,每个非叶节点会将 2024-11-13 笔记 > 本科课程 > 机器学习 #本科课程 #机器学习
24秋机器学习笔记-07-高斯过程 本文主要涉及高斯过程相关的推导以及应用。 一键回城。 作者的概率统计知识相当菜,在课后费了好大劲才搞懂这一节的内容,如有错误欢迎随时指出,吾必当感激不尽! 多元高斯分布(Multivariate Gaussian Distribution) 考虑多元高斯分布 N(x∣μ,Σ)\mathcal{N}(x\mid \mu,\Sigma) N(x∣μ,Σ) μ∈Rd\mu \in \mathbb{ 2024-11-06 笔记 > 本科课程 > 机器学习 #本科课程 #机器学习
24秋机器学习笔记-06-学习理论 本节内容假设模型为二分类,y∈{1,−1}y \in \{1,-1\}y∈{1,−1},x∈Xx\in \mathcal{X}x∈X。 问题引入 定义 EinE_{\text{in}}Ein 表示训练误差(in-sample error)。令 h∈Hh \in \mathcal{H}h∈H 为一个模型,例如 h(x)=sgn(wTx+b)h(x) = \operatorname{sgn}(w 2024-10-30 笔记 > 本科课程 > 机器学习 #本科课程 #机器学习
24秋机器学习笔记-05-表示定理 引例 课上通过如下几个例子引出表示定理相关内容。 SVM 在带松弛变量的 SVM 表示中, minw∑i∈[n]max(0,1−yi(wTxi+b))+λ∥w∥2\min_w \sum_{i \in [n]} \max(0, 1-y_i(w^T x_i+b)) + \lambda \left\| w \right\|^{2} wmini∈[n]∑max(0,1−yi(wTxi+b) 2024-10-23 笔记 > 本科课程 > 机器学习 #本科课程 #机器学习
Bomblab 手记 前言 国庆的时候断断续续用 IDA 强拆了前六个炸弹便没再管了。本着为自己负责的原则,在这里把所有炸弹好好再拆一遍。 先用 objdump 把可执行文件反汇编到 bomb.asm 中。 打开 bomb.c 看看: 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505 2024-10-13 #ICS #本科课程