Inteligência artificial pode fornecer primeira leitura de radiografias de tórax

Sistema CAD baseado em redes convolucionais neurais apresenta 80% de especificidade para casos anormais

13 Mar, 2017

Um sistema de detecção assistida por computador (CAD) desenvolvido usando tecnologia de aprendizagem profunda, ou seja, aprendizagem de máquina baseada nos algoritmos, pode realizar uma revisão inicial das radiografias de tórax, ajudando os radiologistas a priorizar a interpretação dos casos que são mais susceptíveis de serem anormais.

Uma equipe do La Fe Health Research Institute em Valência, Espanha, desenvolveu um sistema CAD baseado em redes convolucionais neurais (CNNs). O algoritmo pode produzir mais de 80% de sensibilidade e especificidade para detectar anormalidades na radiografia de tórax. "Nosso estudo melhora ou iguala os resultados obtidos por classificadores treinados de forma semelhante em estudos anteriores", comentou Belén Fos-Guarinos, estudante do grupo de pesquisa de imagens biomédicas do Instituto de Pesquisa de Saúde de La Fe. Ela apresentou os resultados durante uma sessão científica na Conferência Europeia de Radiologia - ECR 2017, de acordo com matéria publicada no portal AuntMinnie.com.

Como resultado, o grupo desejava criar uma ferramenta de triagem que pudesse filtrar estudos e atribuir prioridade a exames anormais, facilitando assim o fluxo de trabalho para a leitura desses estudos. Para atingir esse objetivo, eles se propuseram a projetar e desenvolver um sistema de CAD de aprendizagem profunda que pudesse realizar automaticamente a triagem inicial de radiografias de tórax normais e anormais, de acordo com Belén Fos-Guarinos. Eles também queriam explorar o potencial das CNNs para detectar patologias torácicas.

Na primeira etapa do desenvolvimento do sistema CAD, os pesquisadores prepararam o banco de dados radiológico que usariam para treinar e testar o software. Eles reuniram um subconjunto de 2.255 radiografias de tórax DICOM da coleção de raios X de tórax da Universidade de Indiana, que consistiu de 868 exames anormais e 1.387 estudos normais.

Os casos anormais incluíram 412 exames com opacidade, 331 com cardiomegalia, 293 com atelectasia, 253 com nódulo e 144 com derrame pleural. O software foi treinado em 1.800 das 2.255 imagens (80%). As restantes 455 imagens foram utilizadas para testar e avaliar o sistema.

Para extrair recursos de imagem dos diferentes grupos de imagens, os pesquisadores aplicaram AlexNet, uma rede neural convolucional que foi pré-treinada no banco de imagens ImageNet. "Uma vez que a CNN aprende a extrair características de diferentes tipos de imagens, nós a usamos para extrair características que diferenciam nossas duas categorias, de imagens normais versus anormais, assim como o cérebro humano", disse Belén Fos-Guarinos.

Em seguida, esses recursos extraídos automaticamente foram usados ​​para treinar máquinas de vetores de suporte, que fornecem a classificação das imagens. O classificador inicialmente determina se o estudo é normal ou anormal. As imagens classificadas como normais são exibidas em conformidade na interface do usuário. As imagens classificadas como anormais, entretanto, também passam por cinco classificadores adicionais para avaliar especificamente a presença de opacidade, cardiomegalia, atelectasia, nódulo e derrame pleural.

Nos testes, o sistema apresentou bom desempenho global, produzindo 83% de sensibilidade e 80% de especificidade para casos anormais. "A partir de agora, a aprendizagem profunda por CNNs tem que ser considerada como primeira opção em qualquer tarefa essencial de reconhecimento visual", defendeu Fos-Guarinos. Com informações de AuntMinnie.com.

 

Compartilhe


NOTÍCIAS RELACIONADAS