多示例学习 multiple instance learning (MIL)

首先给大家推荐一下我老师大神的人工智能教学网站。教学不仅零基础,通俗易懂,而且非常风趣幽默,还时不时有内涵黄段子!点这里可以跳转到网站

        最近看了几篇关于多示例学习的文章,虽然都是医学方面的,但是还是对我很有启发。另外,多示例学习近几年已经逐渐被用于基于机器学习框架的组织病理学图像癌症检测等方面,是计算机辅助诊断这一学科中一种新崛起的方法,下面就按照我在论文和网上学到的知识对多示例学习进行一下简单的介绍。

        在介绍多示例学习之前,首先要了解两个概念:包(bags)和示例(instance)。包是由多个示例组成的,举个例子,在图像分类中,一张图片就是一个包,图片分割出的patches就是示例。在多示例学习中,包带有类别标签而示例不带类别标签,最终的目的是给出对新的包的类别预测。有人说多示例学习是监督学习的一种扩展,不过我更加倾向于认为多示例学习是介于监督学习与无监督学习之间且不同于半监督学习的一种学习方法,因为用于训练分类器的示例是没有类别标记的,但是包却是有类别标记存在的,这一点与以往的所有框架均不甚相同。还有一点就是多示例学习特有的规则:如果一个包里面存在至少一个被分类器判定标签为+的示例,则该包为正包;如果一个包里面所有的示例都被分类器判定标签为-,则该包为负包。

        多示例学习仅仅在全局注释的图片上进行训练,但却往往可以给出patch级或者像素级的标签。在我看过的几篇论文中,如果要求MIL框架可以给出patch级别的标签也就是给出instance级别的标签,那么训练样本中的instance必须存在标签(仅仅标注一部分也可以),不太清楚是不是这回事。。。还请大家指教!

        另外,多示例学习中存在一个很严重的问题就是示例标签的不稳定性,也就是说,如果训练集出现了轻微的变动(例如数量略微增加和减少),那么输出的示例标签就会出现不稳定的情况。针对这一问题,2015年MICCAI给出了一种新的度量方法,用来度量MIL分类器的不稳定性从而选出最优秀的分类器。各位朋友有需要的话可以看一下:http://link.springer.com/chapter/10.1007/978-3-319-24553-9_66

        以上的内容属于我自己的总结,可能有很多疏漏之处,希望各位朋友多多批评指正~~

点这里可以跳转到人工智能网站

发表评论