x-jeff blog

Make progress every day.

【论文阅读】Visualizing and Understanding Convolutional Networks

ILSVRC2013(分类任务季军):ZFNet,卷积网络可视化,反卷积网络

本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.背景(Introduction) 自LeNet之后,卷积神经网络越来越受到人们的关注并且取得了相当不错的成绩。ZFNet作者认为原因有三:1)带有标记的训练集越来越多,数据量越来越大;2)GPU性能的提升,使得训练大型神经网络成为可能;3)更好的正则化方法,例如Dropout。 被称为ZFNet的原因在于两位作...

【机器学习基础】第二十课:支持向量回归

支持向量回归(SVR)

【机器学习基础】系列博客为参考周志华老师的《机器学习》一书,自己所做的读书笔记。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.支持向量回归 现在我们来考虑回归问题,给定训练样本$D=\{(\mathbf x_1,y_1),(\mathbf x_2,y_2),…,(\mathbf x_m,y_m) \},y_i \in \mathbb R$,希望学得一个形如$f(...

【算法基础】【排序】归并排序

归并排序

本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.归并排序 归并排序(Merge sort)是建立在归并操作上的一种有效的排序算法。该算法是采用分治法(Divide and Conquer)的一个非常典型的应用。 👉例子一: “治”阶段详解: 👉例子二: 2.代码地址 归并排序 3.参考资料 图解排序算法(四)之归并排序 ...

【Tensorflow基础】第九课:模型的保存和载入

tf.train.Saver(),saver.save(),saver.restore(),ckpt模型

本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.tf.train.Saver() tf.train.Saver()用于保存和加载模型。 1 saver=tf.train.Saver() tf.train.Saver()参数见下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 def __init__( self, v...

【C++基础】第二十三课:赋值运算符

赋值运算符

【C++基础】系列博客为参考《C++ Primer中文版(第5版)》(C++11标准)一书,自己所做的读书笔记。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.赋值运算符 赋值运算符的左侧运算对象必须是一个可修改的左值。 1 2 int i=0,j=0,k=0;//初始化而非赋值 const int ci=i;//初始化而非赋值 如果赋值运算符的左右两个运算...

【OpenCV基础】第十七课:Laplace算子

Laplace算子,cv::Laplacian,cv::convertScaleAbs

本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.Laplace算子 Sobel算子属于一阶微分算子,利用了一阶导数,图像在边缘处的一阶导数值最大。而Laplace算子属于二阶微分算子,利用了二阶导数,图像在边缘处的二阶导数为零: 离散函数的导数退化成了差分,一维一阶差分公式和二阶差分公式分别为: \[\frac{\partial f }{\partial x...

【Python基础】第十九课:使用pandas产生叙述性统计

叙述性统计,pandas_datareader,pct_change

本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.叙述性统计与推论性统计 叙述性统计: 有系统的归纳数据,了解数据的轮廓。 对数据样本做叙述性陈述,例如:平均数、标准偏差、计次频率、百分比。 对数据资料的图像化处理,将数据摘要变为图表。 推论性统计: 资料模型的构建。 从样本推论整体资料的概况。 相关、回归、单因子变异数、因素分析。...

【数学基础】第十九课:凸优化进阶

共轭函数,共轭函数的性质,对偶函数,对偶性

本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.共轭函数 共轭函数(conjugate function)亦称对偶函数:如果$f:\mathbb R^n \to \mathbb R$是一个函数,那么$f$的共轭函数: \[f^*(y)=\sup \limits_{x \in dom \ f} (y^Tx-f(x))\] 其中$f^*(y)$的定义域是使得等式右...

【机器学习基础】第十九课:支持向量机之软间隔与正则化

软间隔,正则化

【机器学习基础】系列博客为参考周志华老师的《机器学习》一书,自己所做的读书笔记。 本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.软间隔 在之前的博客中,我们一直假定训练样本在样本空间或特征空间中是线性可分的,即存在一个超平面能将不同类的样本完全划分开。然而,在现实任务中往往很难确定合适的核函数使得训练样本在特征空间中线性可分;退一步说,即便恰好找到了某个核函数使训...

【Tensorflow基础】第八课:循环神经网络的实现

tf.nn.rnn_cell.BasicLSTMCell,tf.nn.dynamic_rnn

本文为原创文章,未经本人允许,禁止转载。转载请注明出处。 1.相关知识 循环神经网络(RNN) LSTM 2.代码实现 我们依旧以MNIST数据集为例。首先,载入必要的库: 1 2 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data 读入MNIS...