我正在建立一个CNN来告诉我一个人是否有脑损伤。我计划使用tf inception v3模型和build_image_data.py脚本来构建TFRecord。在
数据集由脑部扫描组成。每次扫描大约有100张图像(不同的头部姿势、角度)。在某些图像上,损伤是可见的,但在某些图像上则不可见。我不能将扫描的所有图像都标记为损伤阳性(或阴性),因为有些图像会被标记错误(如果损伤扫描为阳性,但在特定图像上看不到)。在
有没有一种方法可以将整个扫描标记为阳性/阴性,并以此方式训练网络? 训练完成后,通过扫描作为网络输入(不是单一图像)并对其进行分类。在
看起来多实例学习可能是你的方法。看看这两篇论文:
Multiple Instance Learning Convolutional Neural Networks for Object Recognition
Classifying and segmenting microscopy images with deep multiple instance learning
最后一个由@dancsalo实现(不确定他是否有堆栈溢出帐户)here。在
我看第二篇文章处理的是非常大的图像,并将它们分解成子图像,但标记了整个图像。因此,这就像给一包图像加上标签,而不是为每个子图像制作标签。在你的例子中,你可以构建一个图像矩阵,即每扫描一个10图像x 10图像主图像。。。在
让我们知道如果你这样做,如果它在你的数据集工作良好!在
相关问题 更多 >
编程相关推荐