基于多幅图像作为输入的张量流分类,而不是签名

2024-09-24 22:30:17 发布

您现在位置:Python中文网/ 问答频道 /正文

我正在建立一个CNN来告诉我一个人是否有脑损伤。我计划使用tf inception v3模型和build_image_data.py脚本来构建TFRecord。在

数据集由脑部扫描组成。每次扫描大约有100张图像(不同的头部姿势、角度)。在某些图像上,损伤是可见的,但在某些图像上则不可见。我不能将扫描的所有图像都标记为损伤阳性(或阴性),因为有些图像会被标记错误(如果损伤扫描为阳性,但在特定图像上看不到)。在

有没有一种方法可以将整个扫描标记为阳性/阴性,并以此方式训练网络? 训练完成后,通过扫描作为网络输入(不是单一图像)并对其进行分类。在


Tags: 标记模型图像imagebuild网络datatf
1条回答
网友
1楼 · 发布于 2024-09-24 22:30:17

看起来多实例学习可能是你的方法。看看这两篇论文:

Multiple Instance Learning Convolutional Neural Networks for Object Recognition

Classifying and segmenting microscopy images with deep multiple instance learning

最后一个由@dancsalo实现(不确定他是否有堆栈溢出帐户)here。在

我看第二篇文章处理的是非常大的图像,并将它们分解成子图像,但标记了整个图像。因此,这就像给一包图像加上标签,而不是为每个子图像制作标签。在你的例子中,你可以构建一个图像矩阵,即每扫描一个10图像x 10图像主图像。。。在

让我们知道如果你这样做,如果它在你的数据集工作良好!在

相关问题 更多 >