产品经理、架构师与项目经理

0、概述
产品经理——靠想。产品经理是做正确的事,其所设计的产品是否符合需求,是否能给公司带来利润。
项目经理——靠做。项目经理是把事情做正确,把事情作得完美,在时间,成本和资源约束的条件下完成目标。

业务架构师——靠想。业务架构师负责IT蓝图规划、统筹、协调多个产品线
技术架构师——靠做。技术架构师是选型、抽象、提炼、封装公共组件,如缓存、消息中间件、服务框架、工作流等。让项目团队只关注业务代码的实现。

一、架构师与产品经理
架构师 是软件行业中一种新兴职业,工作职责是在一个软件项目开发过程中,将客户的需求转换为规范的开发计划及文本,并制定这个项目的总体架构,指导整个开发团队完成这个计划。架构师的主要任务不是从事具体的软件程序的编写,而是从事更高层次的开发构架工作。他必须对开发技术非常了解,并且需要有良好的组织管理能力。可以这样说,一个架构师工作的好坏决定了整个软件开发项目的成败。
产品经理 又称品牌经理(Brand Manager)。是企业守门员、品牌塑造者、更是营销骨干。它既是一套完善的营销运作制度,更是博大精深的营销操作。举凡产品从创意到上市,所有相关的研发、调研、生产、编预算、广告、促销活动等等,都由产品经理掌控。
可以看出相同的地方是都得拥有整体策划、市场的需求的能力什么的,不同的是架构师主攻技术,产品经理主攻市场。
二、架构师的分类
现在好一些的公司都将架构师区分为技术架构师和业务架构师两种,前者顾名思义是偏向于技术的选型,做到架构的合理性,后者更多的是偏向业务的架构,组织合理的业务结构,很多业务架构师从产品经理中转化而来,所以这类人和产品经理的工作职责区别不大,只是管理更多的产品线而已。产品经理在国内的互联网环境中都是从一线提取需求汇总后形成有效的需求文档,然后通过需求评审后交给技术架构师设计,最后负责验收产品,而在国内的企业中,他们更多要求的是负责项目管理,文档梳理,产品决策,同时也包括前期调研和后期产品宣传等工作。

三、产品经理与项目经理
以互联网产品经理和项目经理为例来说说

首先,从知识领域来说,项目经理要求技术背景,这是必须的,一般团队的项目经理由非常有项目经验的RD担当,他的职责在于将目标转化为可量化可实现的项目计划,偏重于执行层面。而产品经理的知识领域较泛,且不一定非要求懂技术。

其次,从责任周期来说,项目经理职责有始有终,他可以负责完一个项目后,再无缝切换到另外一个项目,而产品经理基本不能,产品经理随着产品一同成长,产品的成长更迭伴随着无数的项目。

第三、侧重点不同,项目经理关键词:项目、排期、人月;产品经理关键词:需求、用户、产品。

最后,假如把产品比作一个小孩,那么产品经理就是这个小孩的的妈,而项目经理是这个小孩成长过程的一个老师,老师可以教不同的小孩,小学老师可以把小孩从一年级培养到六年级,小孩结业,老师又换教另外一批学生。这样大家就明白了产品经理和项目经历的关系,老师可以换,而小孩的妈能随便换吗?

最后补充一点,在大公司,产品经理和项目经理分工是非常明确的,但在初创公司和一些中小型公司产品经理和项目经理通常是一个人,节约人力和沟通成本。

Understanding LSTM Networks

LSTM 网络

长期记忆网络–通常只称为“LSTMs”–是一种特殊的RNN网络,能够学习长期依赖。由Hochreiter提出(1997),并进行了细化和许多人的后续工作中推广。他们的工作相当的好,在一个大的各种各样的问题,现在被广泛使用的。

LSTMs明确旨在避免长期依赖的问题。长期记忆信息实际上是他们的默认行为,而不是他们努力学习的东西.!

所有的递归神经网络都有神经网络的重复模块链的形式.。在标准的RNNs,这个重复的模块将有一个非常简单的结构,如一个单一的tanh层。

重复的模块在一个标准的网络包含一个单独的层

LSTMs also have this chain like structure, but the repeating module has a different structure. Instead of having a single neural network layer, there are four, interacting in a very special way.

LSTMs也有这种链状结构,但重复模块具有不同的结构。对比RNN仅有一个单一的神经网络层,LSTMs有四个,并以一种非常特殊的方式交互。

A LSTM neural network.

The repeating module in an LSTM contains four interacting layers.重复的模块中包含四个相互作用的层次对应。

Don’t worry about the details of what’s going on. We’ll walk through the LSTM diagram step by step later. For now, let’s just try to get comfortable with the notation we’ll be using.

不要担心正在发生的事情的细节。我们后面会一步一步讲解图结构。现在,让我们努力熟悉一下我们将使用的符号标记。

In the above diagram, each line carries an entire vector, from the output of one node to the inputs of others. The pink circles represent pointwise operations, like vector addition, while the yellow boxes are learned neural network layers. Lines merging denote concatenation, while a line forking denote its content being copied and the copies going to different locations.

在上面的图表中,每一行携带一个完整的向量,从一个节点的输出到其他节点的输入。粉红色圆圈代表点的操作,如向量加法,而黄色框是学习神经网络层。线合并表示连接,而线分叉表示其内容被复制和拷贝到不同的位置。

LSTMs的核心概念

The key to LSTMs is the cell state, the horizontal line running through the top of the diagram.

LSTMs的关键是单元状态,水平线贯穿图的顶部。

The cell state is kind of like a conveyor belt. It runs straight down the entire chain, with only some minor linear interactions. It’s very easy for information to just flow along it unchanged.

单元状态有点像传送带。它在整个链上向下直线运行,只有一些小的线性相互作用。信息只是沿着链流动是非常容易保持不变的。

The LSTM does have the ability to remove or add information to the cell state, carefully regulated by structures called gates.

Gates are a way to optionally let information through. They are composed out of a sigmoid neural net layer and a pointwise multiplication operation.

LSTM有删除或添加信息到单元状态的能力,需要通过称为“门”的结构仔细调节。

“门”是一种让信息有选择通过的方法。他们组成了一个Sigmoid神经网络层和逐点乘法运算。

The sigmoid layer outputs numbers between zero and one, describing how much of each component should be let through. A value of zero means “let nothing through,” while a value of one means “let everything through!”

Sigmoid层输出零和1之间的数字,描述每个组件多少量应通过。零值意味着“什么都不让通过”,而一值的意思是“让一切通过!“

An LSTM has three of these gates, to protect and control the cell state.

一个LSTM有三个这样的门,保护和控制单元状态。

LSTM 逐步讲解

LSTM的第一步是确定哪些信息从单元状态中扔掉。这个决策 由称为 “forget gate layer”的Sigmoid层完成。它观察H_t-1和x_t,对单元状态C_t-1的每一个值输出一个0~1的数字,0代表完全排除,1代表完全保留。

让我们回到我们的语言模型的例子,试图预测下一个词的基础上所有以前的。在这样的问题,单元状态可能包括本主题的性别,因此,可以使用正确的代词。当我们看到一门新主题时,我们要忘记旧主题的性别。

下一步是决定在单元状态中储存什么新信息。这有两个部分。首先,一个叫做“输入门层”的Sigmoid层决定我们将更新哪个值.。接下来,双曲正切层创建一个新的候选值向量,C ~ t,可以添加到状态。在接下来的步骤中,我们将结合这两个创建一个更新的状态。

在我们的语言模型的例子中,我们希望把新的对象的性别添加到单元状态,以取代我们遗忘的旧的.。

It’s now time to update the old cell state, Ct1

, into the new cell state Ct

. The previous steps already decided what to do, we just need to actually do it.

We multiply the old state by ft

, forgetting the things we decided to forget earlier. Then we add itC~t

. This is the new candidate values, scaled by how much we decided to update each state value.

In the case of the language model, this is where we’d actually drop the information about the old subject’s gender and add the new information, as we decided in the previous steps.

Finally, we need to decide what we’re going to output. This output will be based on our cell state, but will be a filtered version. First, we run a sigmoid layer which decides what parts of the cell state we’re going to output. Then, we put the cell state through tanh

(to push the values to be between 1 and 1

) and multiply it by the output of the sigmoid gate, so that we only output the parts we decided to.

For the language model example, since it just saw a subject, it might want to output information relevant to a verb, in case that’s what is coming next. For example, it might output whether the subject is singular or plural, so that we know what form a verb should be conjugated into if that’s what follows next.

Variants on Long Short Term Memory

What I’ve described so far is a pretty normal LSTM. But not all LSTMs are the same as the above. In fact, it seems like almost every paper involving LSTMs uses a slightly different version. The differences are minor, but it’s worth mentioning some of them.

One popular LSTM variant, introduced by Gers & Schmidhuber (2000), is adding “peephole connections.” This means that we let the gate layers look at the cell state.

The above diagram adds peepholes to all the gates, but many papers will give some peepholes and not others.

Another variation is to use coupled forget and input gates. Instead of separately deciding what to forget and what we should add new information to, we make those decisions together. We only forget when we’re going to input something in its place. We only input new values to the state when we forget something older.

A slightly more dramatic variation on the LSTM is the Gated Recurrent Unit, or GRU, introduced by Cho, et al. (2014). It combines the forget and input gates into a single “update gate.” It also merges the cell state and hidden state, and makes some other changes. The resulting model is simpler than standard LSTM models, and has been growing increasingly popular.

A gated recurrent unit neural network.

These are only a few of the most notable LSTM variants. There are lots of others, like Depth Gated RNNs by Yao, et al. (2015). There’s also some completely different approach to tackling long-term dependencies, like Clockwork RNNs by Koutnik, et al. (2014).

Which of these variants is best? Do the differences matter? Greff, et al. (2015) do a nice comparison of popular variants, finding that they’re all about the same. Jozefowicz, et al. (2015) tested more than ten thousand RNN architectures, finding some that worked better than LSTMs on certain tasks.

Conclusion

Earlier, I mentioned the remarkable results people are achieving with RNNs. Essentially all of these are achieved using LSTMs. They really work a lot better for most tasks!

Written down as a set of equations, LSTMs look pretty intimidating. Hopefully, walking through them step by step in this essay has made them a bit more approachable.

LSTMs were a big step in what we can accomplish with RNNs. It’s natural to wonder: is there another big step? A common opinion among researchers is: “Yes! There is a next step and it’s attention!” The idea is to let every step of an RNN pick information to look at from some larger collection of information. For example, if you are using an RNN to create a caption describing an image, it might pick a part of the image to look at for every word it outputs. In fact, Xu, et al. (2015) do exactly this – it might be a fun starting point if you want to explore attention! There’s been a number of really exciting results using attention, and it seems like a lot more are around the corner…

Attention isn’t the only exciting thread in RNN research. For example, Grid LSTMs by Kalchbrenner, et al. (2015) seem extremely promising. Work using RNNs in generative models – such as Gregor, et al. (2015), Chung, et al. (2015), or Bayer & Osendorfer (2015) – also seems very interesting. The last few years have been an exciting time for recurrent neural networks, and the coming ones promise to only be more so!

 

ML的一些数学函数

  1. argmax函数:返回函数值最大的那个自变量值;
  2. 似然函数:
统计学中,似然函数是一种关于统计模型参数的函数。给定输出x时,关于参数θ的似然函数L(θ|x)(在数值上)等于给定参数θ后变量X的概率:
L(θ|x)=P(X=x|θ).
似然函数在推断统计学(Statistical inference)中扮演重要角色,尤其是在参数估计方法中。在教科书中,似然常常被用作“概率”的同义词。但是在统计学中,二者有截然不同的用法。概 率描述了已知参数时的随机变量的输出结果;似然则用来描述已知随机变量输出结果时,未知参数的可能取值。例如,对于“一枚正反对称的硬币上抛十次”这种事 件,我们可以问硬币落地时十次都是正面向上的“概率”是多少;而对于“一枚硬币上抛十次,落地都是正面向上”这种事件,我们则可以问,这枚硬币正反面对称 的“似然”程度是多少。

3. softmax函数:

y
=
[

y
<>

,

,

ym 


]

JS学习

// 学习问题:
//1、小括号内的函数+call(this)是什么意思?
//2、函数后面带点是什么意思?
//答:函数的定义结果是一个变量对象,因此可以后面加.操作,进行某项操作;call和apply是默认的method,用于非直接调用;
//3、小括号是什么意思?
//答:我理解就是执行这个函数的意思,这个函数只定义1次,使用1次;这是否是JS的模块的导入和初始化的标准方式?

// 学习总结:
//1、函数本身是一个对象,能够做赋值操作,函数的定义通过赋值完成,例如:var f=function(x){return x*x},注意这个案例没有定义函数时没有函数名
//2、函数的定义也可与传统C、python的模式类似,例如,没有 func xxx,def xxx,这样的语句,例如:function f(x) {return x*x;}
//3、对象的in操作可以用来判断属性对否在对象中? 例如:“x” in obj
//4、类的instanceof可用来判断是否对象是创建自该类
//5、if case 语句基本与C语法相同,循环语句也类似,for语句有一个特例,例如:for(var p in o) ;
//6、跳转语句用于异常处理,需要关注一下;
//7、JS不检查函数的参数类型,也不检查函数的参数数量;对于未提供的参数,有一个小技巧,解决默认值问题,例如:a = a || [];
//8、对于提供参数多余定义的情况,可取arguments对象来获取参数;注意arguments对象的两个属性callee和caller;
//9、在没有类的情况下创建对象,案例:
// var empty = {}; // An object with no properties
// var point = { x:0, y:0 }; // Two properties
// var point2 = { x:point.x, y:point.y+1 }; // More complex values
//10、JS的类定义,没有class这样的语法,统一通过function语句来完成,很有特点
//11、类的实例化,通过创建对象完成,对象的创建来自root对象,例如:
// if(Object.create)
// return Object.create(p);

四招教你搞定跨部门项目管理

文/新浪财经意见领袖(微信公众号kopleader)机构专栏 LinkedIn 作者 Spencer Rascoff (Zillow集团CEO)

prj  矩阵结构的经理人必须具有四种技能才可能成功,它们是:理解他人、冲突管理、影响力和自觉能力。核心的五个价值观之一是“让我来”。领导者展示这样的核心价值是非常重要的。绝不要推卸责任,要负责地领导团队。

矩阵型管理结构(指按照职能划分的纵向领导系统和按项目划分的横向领导系统相结合的组织形式,项目组织与职能部门同时存在,既发挥职能部门纵向优势,又发挥项目组织横向优势)在1970年代末变得流行,现在40年过去了,许多伟大的企业依然在使用这种结构来管理它们越来越复杂的公司。

在一个矩阵型企业中工作的经理人常常需要对一个以上的人负责,这才是他们真正的经理,他决定了他们工作时间的优先顺序、给他们分配项目、对他们的表现进行绩效评估等等,他们还要对他们所接触的其他业务小组的经理人负责。因此,经理人也常常要对他们工作汇报结构之外的其他领域的成功负责。

虽然矩阵结构很普遍,但其中依然存在很多挑战,领导人必须理解跨部门的团队,虽然他对这些团队几乎没有正式意义上的管理权威。虽然面临这些挑战,我们依然在Zillow采用矩阵式的管理哲学。世界上,它已铭刻在我们公司的核心价值观之一当中,这就是“公司是一项团体运动”。在Zillow集团,如果你不能获得非直接汇报体系之外的其他同事的支持,你就不可能取得真正的成功。

马洛伊(Ruth  Malloy)是波士顿Hay集团负责领导力和才能管理的全球董事总经理,她在《哈佛商业评论》中曾写过:矩阵结构的经理人必须具有四种技能才可能成功,它们是:理解他人、冲突管理、影响力和自觉能力。

我很欣赏马洛伊的总结。在Zillow,我认为“影响力”是一个成功的商业团队领袖实施有效领导的最重要特质。由于他们要依靠组织内不归自己直接控制的其他部分的支持,领导者必须通过说服来进行指导,这就需要很强的沟通技能和人际关系能力。

例如,负责我们抵押贷款业务的人,他必须有能力说服负责商业合作关系开发的人,让他明白在洽谈合作时抵押贷款业务很重要必须放在很优先的位置。要成为一个矩阵机构中有影响力的人,你必须聚焦于“为什么”而不是“什么”,你必须解释某些事情为什么必须做好的重要性,而不是只说你们必须完成这些事情。

矩阵结构的领导人必须有非常强烈的责任感。我们核心的五个价值观之一是“让我来”。领导者展示这样的核心价值是非常重要的。绝不要推卸责任,要负责地领导团队。举一个例子,如果我们的某个小组没有达成流量目标,业务部门的负责人就应该对此负责,而不是将问题归咎于其他人没有买到广告或是在社交媒体上的营销不够。好的经理人应该对问题负责并试图加以解决,即使这些问题并不完全由他来控制。

建立一个矩形结构的组织能帮助许多经理人对其他人的产品线和服务线负起责任。在那些有影响力和勇于担当来使组织成功的人的推动下,矩形管理结构的运作将会非常良好。

机器视觉开源代码集合(转载)

一、特征提取Feature Extraction:

二、图像分割Image Segmentation:

  • Normalized Cut [1] [Matlab code]
  • Gerg Mori’ Superpixel code [2] [Matlab code]
  • Efficient Graph-based Image Segmentation [3] [C++ code] [Matlab wrapper]
  • Mean-Shift Image Segmentation [4] [EDISON C++ code] [Matlab wrapper]
  • OWT-UCM Hierarchical Segmentation [5] [Resources]
  • Turbepixels [6] [Matlab code 32bit] [Matlab code 64bit] [Updated code]
  • Quick-Shift [7] [VLFeat]
  • SLIC Superpixels [8] [Project]
  • Segmentation by Minimum Code Length [9] [Project]
  • Biased Normalized Cut [10] [Project]
  • Segmentation Tree [11-12] [Project]
  • Entropy Rate Superpixel Segmentation [13] [Code]
  • Fast Approximate Energy Minimization via Graph Cuts[Paper][Code]
  • Efficient Planar Graph Cuts with Applications in Computer Vision[Paper][Code]
  • Isoperimetric Graph Partitioning for Image Segmentation[Paper][Code]
  • Random Walks for Image Segmentation[Paper][Code]
  • Blossom V: A new implementation of a minimum cost perfect matching algorithm[Code]
  • An Experimental Comparison of Min-Cut/Max-Flow Algorithms for Energy Minimization in Computer Vision[Paper][Code]
  • Geodesic Star Convexity for Interactive Image Segmentation[Project]
  • Contour Detection and Image Segmentation Resources[Project][Code]
  • Biased Normalized Cuts[Project]
  • Max-flow/min-cut[Project]
  • Chan-Vese Segmentation using Level Set[Project]
  • A Toolbox of Level Set Methods[Project]
  • Re-initialization Free Level Set Evolution via Reaction Diffusion[Project]
  • Improved C-V active contour model[Paper][Code]
  • A Variational Multiphase Level Set Approach to Simultaneous Segmentation and Bias Correction[Paper][Code]
  • Level Set Method Research by Chunming Li[Project]
  • ClassCut for Unsupervised Class Segmentation[code]
  • SEEDS: Superpixels Extracted via Energy-Driven Sampling [Project][other]

三、目标检测Object Detection:

  • A simple object detector with boosting [Project]
  • INRIA Object Detection and Localization Toolkit [1] [Project]
  • Discriminatively Trained Deformable Part Models [2] [Project]
  • Cascade Object Detection with Deformable Part Models [3] [Project]
  • Poselet [4] [Project]
  • Implicit Shape Model [5] [Project]
  • Viola and Jones’s Face Detection [6] [Project]
  • Bayesian Modelling of Dyanmic Scenes for Object Detection[Paper][Code]
  • Hand detection using multiple proposals[Project]
  • Color Constancy, Intrinsic Images, and Shape Estimation[Paper][Code]
  • Discriminatively trained deformable part models[Project]
  • Gradient Response Maps for Real-Time Detection of Texture-Less Objects: LineMOD [Project]
  • Image Processing On Line[Project]
  • Robust Optical Flow Estimation[Project]
  • Where’s Waldo: Matching People in Images of Crowds[Project]
  • Scalable Multi-class Object Detection[Project]
  • Class-Specific Hough Forests for Object Detection[Project]
  • Deformed Lattice Detection In Real-World Images[Project]
  • Discriminatively trained deformable part models[Project]

四、显著性检测Saliency Detection:

  • Itti, Koch, and Niebur’ saliency detection [1] [Matlab code]
  • Frequency-tuned salient region detection [2] [Project]
  • Saliency detection using maximum symmetric surround [3] [Project]
  • Attention via Information Maximization [4] [Matlab code]
  • Context-aware saliency detection [5] [Matlab code]
  • Graph-based visual saliency [6] [Matlab code]
  • Saliency detection: A spectral residual approach. [7] [Matlab code]
  • Segmenting salient objects from images and videos. [8] [Matlab code]
  • Saliency Using Natural statistics. [9] [Matlab code]
  • Discriminant Saliency for Visual Recognition from Cluttered Scenes. [10] [Code]
  • Learning to Predict Where Humans Look [11] [Project]
  • Global Contrast based Salient Region Detection [12] [Project]
  • Bayesian Saliency via Low and Mid Level Cues[Project]
  • Top-Down Visual Saliency via Joint CRF and Dictionary Learning[Paper][Code]
  • Saliency Detection: A Spectral Residual Approach[Code]

五、图像分类、聚类Image Classification, Clustering

  • Pyramid Match [1] [Project]
  • Spatial Pyramid Matching [2] [Code]
  • Locality-constrained Linear Coding [3] [Project] [Matlab code]
  • Sparse Coding [4] [Project] [Matlab code]
  • Texture Classification [5] [Project]
  • Multiple Kernels for Image Classification [6] [Project]
  • Feature Combination [7] [Project]
  • SuperParsing [Code]
  • Large Scale Correlation Clustering Optimization[Matlab code]
  • Detecting and Sketching the Common[Project]
  • Self-Tuning Spectral Clustering[Project][Code]
  • User Assisted Separation of Reflections from a Single Image Using a Sparsity Prior[Paper][Code]
  • Filters for Texture Classification[Project]
  • Multiple Kernel Learning for Image Classification[Project]
  • SLIC Superpixels[Project]

六、抠图Image Matting

  • A Closed Form Solution to Natural Image Matting [Code]
  • Spectral Matting [Project]
  • Learning-based Matting [Code]

七、目标跟踪Object Tracking:

  • A Forest of Sensors – Tracking Adaptive Background Mixture Models [Project]
  • Object Tracking via Partial Least Squares Analysis[Paper][Code]
  • Robust Object Tracking with Online Multiple Instance Learning[Paper][Code]
  • Online Visual Tracking with Histograms and Articulating Blocks[Project]
  • Incremental Learning for Robust Visual Tracking[Project]
  • Real-time Compressive Tracking[Project]
  • Robust Object Tracking via Sparsity-based Collaborative Model[Project]
  • Visual Tracking via Adaptive Structural Local Sparse Appearance Model[Project]
  • Online Discriminative Object Tracking with Local Sparse Representation[Paper][Code]
  • Superpixel Tracking[Project]
  • Learning Hierarchical Image Representation with Sparsity, Saliency and Locality[Paper][Code]
  • Online Multiple Support Instance Tracking [Paper][Code]
  • Visual Tracking with Online Multiple Instance Learning[Project]
  • Object detection and recognition[Project]
  • Compressive Sensing Resources[Project]
  • Robust Real-Time Visual Tracking using Pixel-Wise Posteriors[Project]
  • Tracking-Learning-Detection[Project][OpenTLD/C++ Code]
  • the HandVu:vision-based hand gesture interface[Project]
  • Learning Probabilistic Non-Linear Latent Variable Models for Tracking Complex Activities[Project]

八、Kinect:

九、3D相关:

  • 3D Reconstruction of a Moving Object[Paper] [Code]
  • Shape From Shading Using Linear Approximation[Code]
  • Combining Shape from Shading and Stereo Depth Maps[Project][Code]
  • Shape from Shading: A Survey[Paper][Code]
  • A Spatio-Temporal Descriptor based on 3D Gradients (HOG3D)[Project][Code]
  • Multi-camera Scene Reconstruction via Graph Cuts[Paper][Code]
  • A Fast Marching Formulation of Perspective Shape from Shading under Frontal Illumination[Paper][Code]
  • Reconstruction:3D Shape, Illumination, Shading, Reflectance, Texture[Project]
  • Monocular Tracking of 3D Human Motion with a Coordinated Mixture of Factor Analyzers[Code]
  • Learning 3-D Scene Structure from a Single Still Image[Project]

十、机器学习算法:

  • Matlab class for computing Approximate Nearest Nieghbor (ANN) [Matlab class providing interface toANN library]
  • Random Sampling[code]
  • Probabilistic Latent Semantic Analysis (pLSA)[Code]
  • FASTANN and FASTCLUSTER for approximate k-means (AKM)[Project]
  • Fast Intersection / Additive Kernel SVMs[Project]
  • SVM[Code]
  • Ensemble learning[Project]
  • Deep Learning[Net]
  • Deep Learning Methods for Vision[Project]
  • Neural Network for Recognition of Handwritten Digits[Project]
  • Training a deep autoencoder or a classifier on MNIST digits[Project]
  • THE MNIST DATABASE of handwritten digits[Project]
  • Ersatz:deep neural networks in the cloud[Project]
  • Deep Learning [Project]
  • sparseLM : Sparse Levenberg-Marquardt nonlinear least squares in C/C++[Project]
  • Weka 3: Data Mining Software in Java[Project]
  • Invited talk “A Tutorial on Deep Learning” by Dr. Kai Yu (余凯)[Video]
  • CNN – Convolutional neural network class[Matlab Tool]
  • Yann LeCun’s Publications[Wedsite]
  • LeNet-5, convolutional neural networks[Project]
  • Training a deep autoencoder or a classifier on MNIST digits[Project]
  • Deep Learning 大牛Geoffrey E. Hinton’s HomePage[Website]
  • Multiple Instance Logistic Discriminant-based Metric Learning (MildML) and Logistic Discriminant-based Metric Learning (LDML)[Code]
  • Sparse coding simulation software[Project]
  • Visual Recognition and Machine Learning Summer School[Software]

十一、目标、行为识别Object, Action Recognition:

  • Action Recognition by Dense Trajectories[Project][Code]
  • Action Recognition Using a Distributed Representation of Pose and Appearance[Project]
  • Recognition Using Regions[Paper][Code]
  • 2D Articulated Human Pose Estimation[Project]
  • Fast Human Pose Estimation Using Appearance and Motion via Multi-Dimensional Boosting Regression[Paper][Code]
  • Estimating Human Pose from Occluded Images[Paper][Code]
  • Quasi-dense wide baseline matching[Project]
  • ChaLearn Gesture Challenge: Principal motion: PCA-based reconstruction of motion histograms[Project]
  • Real Time Head Pose Estimation with Random Regression Forests[Project]
  • 2D Action Recognition Serves 3D Human Pose Estimation[Project]
  • A Hough Transform-Based Voting Framework for Action Recognition[Project]
  • Motion Interchange Patterns for Action Recognition in Unconstrained Videos[Project]
  • 2D articulated human pose estimation software[Project]
  • Learning and detecting shape models [code]
  • Progressive Search Space Reduction for Human Pose Estimation[Project]
  • Learning Non-Rigid 3D Shape from 2D Motion[Project]

十二、图像处理:

  • Distance Transforms of Sampled Functions[Project]
  • The Computer Vision Homepage[Project]
  • Efficient appearance distances between windows[code]
  • Image Exploration algorithm[code]
  • Motion Magnification 运动放大 [Project]
  • Bilateral Filtering for Gray and Color Images 双边滤波器 [Project]
  • A Fast Approximation of the Bilateral Filter using a Signal Processing Approach [Project]

十三、一些实用工具:

  • EGT: a Toolbox for Multiple View Geometry and Visual Servoing[Project] [Code]
  • a development kit of matlab mex functions for OpenCV library[Project]
  • Fast Artificial Neural Network Library[Project]

十四、人手及指尖检测与识别:

  • finger-detection-and-gesture-recognition [Code]
  • Hand and Finger Detection using JavaCV[Project]
  • Hand and fingers detection[Code]

十五、场景解释:

  • Nonparametric Scene Parsing via Label Transfer [Project]

十六、光流Optical flow:

  • High accuracy optical flow using a theory for warping [Project]
  • Dense Trajectories Video Description [Project]
  • SIFT Flow: Dense Correspondence across Scenes and its Applications[Project]
  • KLT: An Implementation of the Kanade-Lucas-Tomasi Feature Tracker [Project]
  • Tracking Cars Using Optical Flow[Project]
  • Secrets of optical flow estimation and their principles[Project]
  • implmentation of the Black and Anandan dense optical flow method[Project]
  • Optical Flow Computation[Project]
  • Beyond Pixels: Exploring New Representations and Applications for Motion Analysis[Project]
  • A Database and Evaluation Methodology for Optical Flow[Project]
  • optical flow relative[Project]
  • Robust Optical Flow Estimation [Project]
  • optical flow[Project]

十七、图像检索Image Retrieval:

  • Semi-Supervised Distance Metric Learning for Collaborative Image Retrieval [Paper][code]

十八、马尔科夫随机场Markov Random Fields:

  • Markov Random Fields for Super-Resolution [Project]
  • A Comparative Study of Energy Minimization Methods for Markov Random Fields with Smoothness-Based Priors [Project]

十九、运动检测Motion detection:

  • Moving Object Extraction, Using Models or Analysis of Regions [Project]
  • Background Subtraction: Experiments and Improvements for ViBe [Project]
  • A Self-Organizing Approach to Background Subtraction for Visual Surveillance Applications [Project]
  • changedetection.net: A new change detection benchmark dataset[Project]
  • ViBe – a powerful technique for background detection and subtraction in video sequences[Project]
  • Background Subtraction Program[Project]
  • Motion Detection Algorithms[Project]
  • Stuttgart Artificial Background Subtraction Dataset[Project]
  • Object Detection, Motion Estimation, and Tracking[Project]

Feature Detection and Description

General Libraries:

  • VLFeat – Implementation of various feature descriptors (including SIFT, HOG, and LBP) and covariant feature detectors (including DoG, Hessian, Harris Laplace, Hessian Laplace, Multiscale Hessian, Multiscale Harris). Easy-to-use Matlab interface. See Modern features: Software – Slides providing a demonstration of VLFeat and also links to other software. Check also VLFeat hands-on session training
  • OpenCV – Various implementations of modern feature detectors and descriptors (SIFT, SURF, FAST, BRIEF, ORB, FREAK, etc.)

Fast Keypoint Detectors for Real-time Applications:

  • FAST – High-speed corner detector implementation for a wide variety of platforms
  • AGAST – Even faster than the FAST corner detector. A multi-scale version of this method is used for the BRISK descriptor (ECCV 2010).

Binary Descriptors for Real-Time Applications:

  • BRIEF – C++ code for a fast and accurate interest point descriptor (not invariant to rotations and scale) (ECCV 2010)
  • ORB – OpenCV implementation of the Oriented-Brief (ORB) descriptor (invariant to rotations, but not scale)
  • BRISK – Efficient Binary descriptor invariant to rotations and scale. It includes a Matlab mex interface. (ICCV 2011)
  • FREAK – Faster than BRISK (invariant to rotations and scale) (CVPR 2012)

SIFT and SURF Implementations:

Other Local Feature Detectors and Descriptors:

  • VGG Affine Covariant features – Oxford code for various affine covariant feature detectors and descriptors.
  • LIOP descriptor – Source code for the Local Intensity order Pattern (LIOP) descriptor (ICCV 2011).
  • Local Symmetry Features – Source code for matching of local symmetry features under large variations in lighting, age, and rendering style (CVPR 2012).

Global Image Descriptors:

  • GIST – Matlab code for the GIST descriptor
  • CENTRIST – Global visual descriptor for scene categorization and object detection (PAMI 2011)

Feature Coding and Pooling

  • VGG Feature Encoding Toolkit – Source code for various state-of-the-art feature encoding methods – including Standard hard encoding, Kernel codebook encoding, Locality-constrained linear encoding, and Fisher kernel encoding.
  • Spatial Pyramid Matching – Source code for feature pooling based on spatial pyramid matching (widely used for image classification)

Convolutional Nets and Deep Learning

  • EBLearn – C++ Library for Energy-Based Learning. It includes several demos and step-by-step instructions to train classifiers based on convolutional neural networks.
  • Torch7 – Provides a matlab-like environment for state-of-the-art machine learning algorithms, including a fast implementation of convolutional neural networks.
  • Deep Learning – Various links for deep learning software.

Part-Based Models

Attributes and Semantic Features

Large-Scale Learning

  • Additive Kernels – Source code for fast additive kernel SVM classifiers (PAMI 2013).
  • LIBLINEAR – Library for large-scale linear SVM classification.
  • VLFeat – Implementation for Pegasos SVM and Homogeneous Kernel map.

Fast Indexing and Image Retrieval

  • FLANN – Library for performing fast approximate nearest neighbor.
  • Kernelized LSH – Source code for Kernelized Locality-Sensitive Hashing (ICCV 2009).
  • ITQ Binary codes – Code for generation of small binary codes using Iterative Quantization and other baselines such as Locality-Sensitive-Hashing (CVPR 2011).
  • INRIA Image Retrieval – Efficient code for state-of-the-art large-scale image retrieval (CVPR 2011).

Object Detection

3D Recognition

Action Recognition

Datasets

Attributes

  • Animals with Attributes – 30,475 images of 50 animals classes with 6 pre-extracted feature representations for each image.
  • aYahoo and aPascal – Attribute annotations for images collected from Yahoo and Pascal VOC 2008.
  • FaceTracer – 15,000 faces annotated with 10 attributes and fiducial points.
  • PubFig – 58,797 face images of 200 people with 73 attribute classifier outputs.
  • LFW – 13,233 face images of 5,749 people with 73 attribute classifier outputs.
  • Human Attributes – 8,000 people with annotated attributes. Check also this link for another dataset of human attributes.
  • SUN Attribute Database – Large-scale scene attribute database with a taxonomy of 102 attributes.
  • ImageNet Attributes – Variety of attribute labels for the ImageNet dataset.
  • Relative attributes – Data for OSR and a subset of PubFig datasets. Check also this link for the WhittleSearch data.
  • Attribute Discovery Dataset – Images of shopping categories associated with textual descriptions.

Fine-grained Visual Categorization

Face Detection

  • FDDB – UMass face detection dataset and benchmark (5,000+ faces)
  • CMU/MIT – Classical face detection dataset.

Face Recognition

  • Face Recognition Homepage – Large collection of face recognition datasets.
  • LFW – UMass unconstrained face recognition dataset (13,000+ face images).
  • NIST Face Homepage – includes face recognition grand challenge (FRGC), vendor tests (FRVT) and others.
  • CMU Multi-PIE – contains more than 750,000 images of 337 people, with 15 different views and 19 lighting conditions.
  • FERET – Classical face recognition dataset.
  • Deng Cai’s face dataset in Matlab Format – Easy to use if you want play with simple face datasets including Yale, ORL, PIE, and Extended Yale B.
  • SCFace – Low-resolution face dataset captured from surveillance cameras.

Handwritten Digits

  • MNIST – large dataset containing a training set of 60,000 examples, and a test set of 10,000 examples.

Pedestrian Detection

Generic Object Recognition

  • ImageNet – Currently the largest visual recognition dataset in terms of number of categories and images.
  • Tiny Images – 80 million 32×32 low resolution images.
  • Pascal VOC – One of the most influential visual recognition datasets.
  • Caltech 101 / Caltech 256 – Popular image datasets containing 101 and 256 object categories, respectively.
  • MIT LabelMe – Online annotation tool for building computer vision databases.

Scene Recognition

Feature Detection and Description

Action Recognition

RGBD Recognition

Reference:

[1]: http://rogerioferis.com/VisualRecognitionAndSearch/Resources.html

行动力的六大准则

有这样的说法:有行动就有力,要活就是动,行动可以赶走烦恼,人是动物所以需要要动,但很多人动不起来,就像被五花大綁的犯人,想动却动弹不得,于是猛吞口水,做一些无关痛痒的事。你想知道如何让自己动起來吗?

OP哲学原则一:有了创意就要敢付诸行动

再好的创意若没有付诸行动,就看不到成果,便毫无价值可言。事实上,我们不要怕,只要谨慎小心 也不要低估自己的创意,很多人的成就一开始也是来自那些看起来不怎麽样的想法 创意只要不关生死关头,不妨都抱著一试的心理,往往会有意想不到的成果同时,不要小看自己的能力、再大的创意,只要肯踏出付诸行动的第一步,再一步一步往前走,便会有成功的希望。(典型案例:瑞士发明的石英表,日本付诸行动超越)

缎带花的外销生意

一位朋友在了解OP哲学後,很感慨地谈到一件事:两年前她学缎带花时,几个好友就谈到缎带花的外销生意,她本身又是学国贸的,更了解如何去开拓国外的市场。有一次,她一个高中同学来找她,在她们的谈话中得到这个创意。一年後,她们发现她已跟她叔叔合作在从事缎带花外销的生意。而二年後的今天她的那位同学-一个当初不懂得如何作缎带花如何做国际贸易的女孩子已经拥有一家很大的贸易公司,专门做缎带花及杂货的出口。如果在两年前她就实践OP哲学,今天的她必然有更大的成就,因而她体认到:从今以後,绝不放弃任何将创意化为行动的机会。

从推销到写推销

民国七十五年专家企管廖总就鼓励我写书,将一次CLOSE的推销技巧写成书,这是一个很好的想法,可是碍於业务工作忙碌,静不下 心来写书,民国七十六年正好在溪头有一场两天八小时的演讲,我很专心地花了十四天的时间去写讲稿,两天下来录了八卷录音带,先是发行有声书籍,那是台湾寿险第一套有声书籍,由专家企管制作发行,民国 七十七年再从录音的内容腾写,花了半年多整理成书出版,完成了写书 的心愿有了第一本书的经验,尔後写书的困难度就一本比一本减少了。

做时间管理

民国七十四年我从老师张董事长那里得知:时间管理是我的重要功课!我对於成功的长者的建议,我是义不容辞地接受,接著我就开始著手进行时间管理,十二年下来证明时间管理真的是突破我成就感瓶颈的 重要工具 如果当时我抱著怀疑的心态,或我依然停留在知识的取得, 或我没有去贯彻时间管理的规则,我就不可能完成这麽多的作品了。

阻碍行动的因素:

缺乏自信

身体能量不够(懒)

条件资源不够

怕与懒是许多人的问题,也是许多人生命的功课,但怕与懒我发现 好像跟生命紧密连结在一起,只要生命存在它就存在,它跟渴与饿的感 觉一样,都是在保护我们的生命的

我也是从怕、缺乏自信、条件资源不够等用OP行动力慢慢去累积 ,才走出自己生命的天空的 就像我怕陌生拜访,我怕上台演讲,我怕 人际关系,但我练习做陌生拜访,去改善我的推销话术;我练习上台讲 话,去克服我的脸红与口吃;我练习与人建立良好的人际关系,试著面 对人际冲突 我的先天条件甚至没你的好,我能做到相信你也做的到。

OP原则二:有输入必有输出

知识不是拿来珍藏的,知识是拿来用的;
知识不是要摆著好看的,知识是要用在蹶决问题的;
学习是为了发挥所学,吸收知识是为了创造新的事务。

透过发挥,能学到更多的东西;透过创造,能消化更多的知识。无法消化的知识,就像无法消化的食物。难以挥发的酒精一样,让 人感到不适不但不能强化行动力,反而阻扰了行动。

其实,一个人可以试著对自己的能力和智慧有信心。能力和智慧构 成一个属於自己的世界,自信让自己肯定自己的世界,学习和吸收别人 的经验,则是在充实属於自己的世界,发展自己的行动力,去帮助别人 ,影响别人。切记:行动才是学习的最终目的。

笔筒摆的高度

我弟弟在了解OP哲学之後,第二天中午吃舨时,很兴奋地告诉我 一件事:上午他翻了一本书 「如何提高工作效力」,其中谈到以前烫衣 服的架子高度都和肩榜一般高,烫衣服时非常吃力,後来他们改善工作 环境,将架子的高度改为与腰齐,以便符合人体工学,因而提高了工作 效率。

一般人的读书习惯都只是了解到此为止,而弟弟便进一步发挥 OP 精神。他观察到自己的彼筒一直摆在书架上,而书架又摆在书桌上,每 次拿尺。拿铅笔他都必须站起来,因而打断思路,於是他根据书上所得 到的启示,很自然地将笔筒拿下来放在桌子上,这只是一项很小的改 变,可是,我却肯定:在未来一年内,他将会有365个以上的改变。别忘 了,如果你阅读书籍是为了增进自己的推销能力,增加自己的收入,在 阅读之後,你更应该发挥OP精神。

编写能量管理丛书

民国八十年接触到静心活动,这是一种训练觉知观照能力的修行法 门,我像发现宝藏般,也为此还跑到印度社区去研修了一个月,回台湾 後继续静心的功课,一年後我开始将静心的心得写下来,整理出第一本 书:「能量管理与人际关系」 一方面为自己的静心心得做一完整的整 理,一方面也将一个很深奥的修行方法用很白话去铨释,之後我继续在 能量管理上下功夫,让输入继续的输出。

阻碍输出的因素

怕与缺乏自信

学生的习性带入社会

身体能量不够(懒)

学生时代念书都只是为了考试,为了将来踏入社会「可能」会需要 用到 所以已养成将知识收藏的习惯 收藏知识跟收藏未腌过的肉一样 ,很快就腐烂了,但收藏者并不自知,还持知识自重,与现实脱节。踏入社会他没有觉知地又延袭学生时代的习惯:收藏知识!拼命地 收集资讯,收藏起来唯恐被人知道那去用,知识没有去使用是死的知识 ,知识没有去交流就并不出智慧的火花,这样的习性的人在社会上是不 会有太大成就的,对他是一种损失,对整个人类社会何尝不是也是一种 损失。

改变习性最好的方法就是:将所学反覆练习,试著在生活上工作上 去使用 减少阅读的时间,增加实验的时间,一段时间後学生性格就慢 慢退去,社会性格就慢慢形成,两者要达到理想的平衡点,那就对了!

OP原则三:有三分就输出三分

前言

虽说「学无止境」,但过分的学习却剥削了我们行动的时间和精力。 有些事情必须十分了解後才能开始行动,可是,大多数的事情是先了解三分就可以开始行动的,然後在行动中逐渐深入了解。许多人往往为了把事情 做得更好,反而迟迟不敢著手去做。 他们为了追求每件事的「完美」,反而一件事也无法完成。

其实,「完美」只是一个目标,唯有透过每一次的「完成」才能使作 品更趋於「完美」不要让「完美主义」阻碍了事情的「完成」。 如果一个人为了追求完美,而不敢去完成第一个作品,他便永远品尝不到 完美的蜜果。

如果你是「完美主义」者建议你也变成「完成主义」者 我们不必在 乎成果如何,也不要管别人的批评,只要开始行动,完成三分成果,必定 能够为下一个行动做好准备,完成五分的成果。

不完美不完整与不精确

其实世间的一切都呈现在不完美不完整与不精确里头,而人们的头脑 却要求一切是完美的完整的精确的 显然,头脑是在对抗这既存的事实, 不是吗?一切的一切都是不完美不完整不精确的,可是我们不是也依然如 此活著?何以在面对事情或人际问题上,我们却为了要求完美而裹足不前 ?也因此很多人变得心很不安,很多的烦恼,就是因为放不开完美完整与精确的心理需求,这也会使人变得没有弹性,失去人际关系,变得不随和 ,变得不快乐!

会心一笑面对不完美、不完整、不精确

除了接受人世间就是不完美不完整与不精确以外,为了让身体能量是 流动的,肯定它也是很重要的,会心一笑正好是平衡不满的心性 例如:

对不完美的身体:还能无碍的使用,一天还能工作十四小时

对不完整的事业:还能存活下去,还有人撑著

对不完美的爱情:总是个感情的寄托,生活的伴

对不精确的钱财:还够生活使用,不错了!

对不完美的车子:至少上下班及跑高速公路没问题

对不完整的屋子:至少不用租房子,能有个休息的地方不错了!

最得意的作品是下一件

米开兰基罗是历史上最伟大的艺术家,有人间他:「在您所完成的千 千万万件艺术品当中,您最得意的是那一件作品?」 「下一件!」是这位 艺术大师的回答。米开兰基罗能有今天的成就,就在於他不断地发挥OP 精神,并使上一件作品的三分成果,化为下一件作品的五分成果。

阻碍三分输出的因素

完美主义者

得失心重

害怕失败

「完美主义」者其实是害怕不完美,被完美的意识给控制住一切  因为要求完美、害怕不完美,所以变成凡事要十分的准备才能开始动作, 但是愈准备总会愈觉得不足,但那些都是头脑的想像,在实务者眼里,其 实许多准备都是多余的,除非你开始行动进入实务,你才会明白你真正欠 缺什麽,这样再回头准备才能务实,不断再改进输出的才是真务实,所以 要做行动派的完美主义者,不要做头脑派的完美主义者

原则四:要有决断的勇气
米开朗琪罗曾受命为国王   的一座天庭绘画。绘画工作进展一段时间后,他感到很不满意,心情郁闷之余,他走进一家酒庄,正巧有一位酒客抗议酒是酸的,酒馆老板当场拔掉所有酒桶的木塞,宣布,只要是酸的都倒掉。这个行为对米开朗琪罗触动很大,他返回工作现场后,将不满意的画作返工重做了。

原则五:要有面对使命的勇气

前言

人来到这世界,冥冥之中好像带著某种使命来的,好像会有一股力量在引 导你走向一个固定的路线,并提供完成使命的资源。但在那条路上总是坎坷 的,人有惰性好逸恶劳,人会恐惧逃避挫折,於是就慢慢偏离原有使命的路 线,也脱离了那些资源,活命就会变成生命的全部,终其一生一事无成。

“我既开始,我必完成” “我既决定,我必贯彻”

人往往为了一个理想,一个内在承诺或某种使命感而工作。在OP行动 的过程中必然会遭遇一些挫折、困难,若不能坚持到底,必然九尺一仞,功 亏一篑,不但丧失应有的成就感,更严重伤害自己的信心,在面临下一个相 同的困难时便会裹足不前。

人的肉体是非常软弱的,然而意志力却能弥补此一缺失。在决定开始OP 行动後,便要变成“使命感”的化身。抱定必成的决心,不再怀疑决定的对错 .只有在“完成”之後,再作全面性的探讨,才不致损伤执行时的行动力。

坚持一个理想目标是很重要,否则一旦碰到挫折,必然会转向,因为人有 逃避挫折的倾向。如果理想与目标是由别人所提供或是长辈所要求,坚持的力 量当然会大打折扣,但如果理想和目标是与生命的内在需求是一致的,其坚持 度自然能帮助一个人度过难关,所以我们只有从生命内在核心所发展出来的目 标才是人生成功的保证。

马拉松选手

l972年墨西哥奥运会的马拉松比赛曾经出现一个感人的画面。一位黑人选 手在左膝盖受伤的状况下,凭著他的一股意志力,跑完全程,当他到达终点时 ,比赛的名次早己排在记录板上。然而,对他来说,胜负已不是最重要的事了 .当他跑到终点时,一位记者问他:“什麽力量让你坚持一定要跑回终点?” 他回答:“我只是不断告诉自己一定要跑完它!” 这种使命感,使他跑完全程,也让他赢得了全场最热烈的掌声。

阻碍使命感的因素

意志不坚定 逃避挫折感 使命是来自别人,不是来自自己的决择

意志坚定与不坚定其实是习惯问题,「坚持到底」与「半途而废」好像成为 许多人的行为模式,对於坚持到底的人我们就说他意志坚定。对於半途而废的人 ,往往在行事中途碰到挫折就退缩,我们就说他意志不坚定。并不是说意志坚定 的人做事就一定会成功,因为成功的因素还有许多。但对於意志不坚定的人,他 常常是无法突破难关,成功的机率当然就降低很多,因为好事总多磨,成就一件 事总是要经过挫折的考验的。   人的本能反应,对於挫折感总会会逃避,就像手碰到火碰到电会缩回去一样 ,但挫折不会因为你逃避它就消失了,反而会因为你的逃避使它由意识变为潜意 识,再由潜意识变成无意识,然後它就干扰你一辈子。 挫折就像影子,你跑它就跟,你停它也停,它总是跟著你,除非你进入那阴影 ,影子才有可能消失。所以碰到挫折要去除的方法只有一个,就是进入那挫折, 跟挫折在一起,挫折就会慢慢消失了。

原则六:要更有效的OP(持续改进)

前言

一个人一生的时间和精力是有限的。古代愚公移山,便是OP的表现,现代人移山改锄头为炸药和推土机,则是又成功OP的表现。

人类文明不断进步,OP的方法也不断进步:

我能否提出更可行的创意?

我能否更有效地选择我所需要的知识,并作更快速的消化?

我用什麽方法能很快地达到九分的成果?

我能否作更快速、且更正确的抉择?

我能否比过去更坚强。更有毅力地去面对更大的挑战?

事实上,人类只发挥百分之五的智慧,另外百分之九十五潜能,还有待每个人去开发,也许我们不能成为超人,但是我们却可以做得更好。在OP行动的背後,我们必须以研究发展的精神和自我突破的意志力,发挥更强的生命力,使OP行动更有效力。

第四代电脑

l946年人类发明了电脑,我们称之为第一代电脑,当时是以真空管和蓄电器为零件,体积等於现代(第四代)电脑的四百倍大,记忆周期时间为千分之一秒。经过不断地研究发展和突破,第二代电脑改良为电晶体,第三代电脑改良为积体电路,到目前的第四代电脑则为超大型积体电路,体积不到第一代电脑的四百分之一,速度却快到十万倍以上,我们可以肯定,电脑科技会不断地进步,这也代表人类的潜能还在不断发展、突破。

从手稿到电脑写稿

当我写第一本书时,我是用手写稿,再交由我的助理腾稿修稿,最後助理再将修过的稿再腾一次稿,有时我在读稿时觉得有些内容要做大幅度的增删,但又想到增删的复杂及还要腾一次稿的麻烦,就做罢了!同时怕思路断掉,於是放下手边的工作专心写稿,事实上对我的保险业务工作的杀伤力是很大的。

写第二本书是由我写手稿,我的秘书开始用电脑腾稿修稿,这次方便多了,我想增稿就增稿,想删稿就删稿。

写第三本书我就试著自己用电脑写稿,打字速度很慢,大约一分钟20个字,但增稿删稿得心应手,完全没有心理的负担,也省去一个助理的工作。

写第四本书起我的打字速度就增快了,现在大概可以一分钟40个字,有时还更快,已可以跟上我的思考速度了,但眼睛看银幕很累,我就开始练习不仰赖看银幕,现在也突破了不少,至少不用一直盯住银幕。而且我可以想写什麽就先写一点,让书的内容慢慢被累绩起来,这样更可以让篇篇精彩。

现在我在尝试自己编书,还有很多技术性的问题要去克服,但总是要K=K+1,让周遭的工具愈来愈方便我写书,我才有可能在有生之年多写几本好书,分享好友。 从写第一本书到目前,已经过了九年时光,完成了六本书!

阻碍更有效OP的因素

害怕改变

懒:怕麻烦、怕复杂乖小孩:没有创意

人性有追求安定的本能,所以找工作要找有固定薪,工作性质要安定的,业务不安定不要,找到好对象就急著要结婚,怕关系不安定,希望拥有自己的房子,就不用搬来搬去了。

因为这样的本能,所以就不喜欢改变,也害怕改变的不安定感,久而久之就认定改变是麻烦的事,改变是复杂的事,而麻烦跟复杂是不好的事。其实不麻烦都是通过麻烦後才不麻烦的,简单都是透过复杂才变简单的。

SAN和NAS两种存储的区别

目前磁盘存储市场上,存储分类根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指 基于包括Windows、UNIX、Linux等操作系统的服务器;开放系统的存储分为:内置存储和外挂存储;开放系统的外挂存储根据连接的方式分为:直 连式存储(Direct-Attached Storage,简称DAS)和网络化存储(Fabric-Attached Storage,简称FAS);开放系统的网络化存储根据传输协议又分为:网络接入存储(Network-Attached Storage,简称NAS)和存储区域网络(Storage Area Network,简称SAN)。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上。

开放系统的直连式存储(Direct-Attached Storage,简称DAS)已经有近四十年的使用历史,随着用户数据的不断增长,尤其是数百GB以上时,其在备份、恢复、扩展、灾备等方面的问题变得日益困扰系统管理员。 主要问题和不足为: 直 连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等),数据流需要回流主 机再到服务器连接着的磁带机(库),数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以 免影响正常业务系统的运行。直连式存储的数据量越大,备份和恢复的时间就越长,对服务器硬件的依赖性和影响就越大。 直连式存储与服务器主 机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬 盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。 无 论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Cluster),或存储阵列容量的扩展,都会造成业务系统的停机,从而给 企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂 商提供,往往受原设备厂商限制。

存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。SAN经过十多年历史的发展,已经相当成熟,成为业 界的事实标准(但各个厂商的光纤交换技术不完全相同,其服务器和SAN存储有兼容性的要求)。SAN存储采用的带宽从100MB/s、200MB/s,发 展到目前的1Gbps、2Gbps。

网络接入存储(Network-Attached Storage,简称NAS)采用网络(TCP/IP、ATM、FDDI)技术,通过网络交换机连接存储系统和服务器主机,建立专用于数据存储的存储私 网。随着IP网络技术的发展,网络接入存储(NAS)技术发生质的飞跃。早期80年代末到90年代初的10Mbps带宽,网络接入存储作为文件服务器存 储,性能受带宽影响;后来快速以太网(100Mbps)、VLAN虚网、Trunk(Ethernet Channel) 以太网通道的出现,网络接入存储的读写性能得到改善;1998年千兆以太网(1000Mbps)的出现和投入商用,为网络接入存储(NAS)带来质的变化 和市场广泛认可。由于网络接入存储采用TCP/IP网络进行数据交换,TCP/IP是IT业界的标准协议,不同厂商的产品(服务器、交换机、NAS存储) 只要满足协议标准就能够实现互连互通,无兼容性的要求;并且2002年万兆以太网(10000Mbps)的出现和投入商用,存储网络带宽将大大提高NAS 存储的性能。NAS需求旺盛已经成为事实。首先NAS几乎继承了磁盘列阵的所有优点,可以将设备通过标准的网络拓扑结构连接,摆脱了服务器和异构化构架的 桎梏;其次,在企业数据量飞速膨胀中,SAN、大型磁带库、磁盘柜等产品虽然都是很好的存储解决方案,但他们那高贵的身份和复杂的操作是资金和技术实力有 限的中小企业无论如何也不能接受的。NAS正是满足这种需求的产品,在解决足够的存储和扩展空间的同时,还提供极高的性价比。因此,无论是从适用性还是 TCO的角度来说,NAS自然成为多数企业,尤其是大中小企业的最佳选择。

 

其他回答
SAN和NAS的区别 SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。换句话说:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。 NAS是将目光集中在应用、用户和文件以及它们共享的数据上。SAN是将目光集中在磁盘、磁带以及联接它们的可靠的基础结构。将来从桌面系统到数据集中管理到存储设备的全面解决方案将是NAS加SAN。