IT융합공학과 김철홍 교수팀
두 개 초음파 결합 정확도 높여

서로 다른 초음파를 합쳐서 더 강력해진 유방암 진단기기가 나왔다.

포스텍은 IT융합공학과 김철홍 교수 연구팀이 최근 흑백의 그레이스케일(Gray Scale) 초음파와 변형 탄성 초음파 영상을 결합해 유방암 진단을 돕는 딥러닝 모델을 개발했다고 18일 밝혔다.

초음파 검사는 유방 조영술과 엑스레이, 자기공명영상법(MRI) 등 다른 진단 방법에 비해 안전하고 저렴할 뿐만 아니라 조직을 깊게 관찰할 수 있다는 장점이 있다. 유방암 진단에는 종양의 구조를 선명하게 보여주는 그레이스케일 초음파와 조직의 단단한 정도를 측정하는 SE 초음파가 주로 활용된다.

이에 김 교수팀은 두 개의 초음파를 결합해 장점을 극대화하고자 했다.

이번 연구는 조직검사로 확인한 양성 종양 환자 42명, 악성 종양 환자 43명 등 85명의 유방암 환자를 대상으로 진행됐다.

김 교수팀은 환자 67명에게서 얻은 205개의 그레이스케일 또는 SE 초음파 영상을 결합해 두 가지의 딥러닝 모델인 알렉스넷(AlexNet)과 레스넷(ResNet)을 각각 훈련했다.

이후 두 딥러닝 모델을 동시에 움직이도록 하고 다른 18명의 환자에게서 얻은 56개 영상으로 성능을 검증했다. 이 딥러닝 앙상블 모델은 서로 다른 초음파 영상으로부터 다양한 특징을 포착해 악성 종양이 있는지를 찾아냈다.

그 결과 딥러닝 앙상블 모델의 정확도는 90%로 딥러닝 단일 모델(각 84%), 그레이스케일 또는 SE 초음파 영상 하나만을 사용해 훈련한 모델(그레이스케일 77%, SE 85%)보다 우수했다. 특히 딥러닝 단일 모델은 5명의 환자를 구분해내지 못한 반면, 앙상블 모델이 구별하지 못한 환자는 2명에 불과했다.

그간 유방암 진단 시 초음파 영상이 활용됐으나 인력이 부족하거나 영상 화질이 낮다는 한계가 있었다. 이번에 개발된 딥러닝 모델을 이용하면 두 정보를 동시에 활용해 유방암의 분류 정확도를 높일 수 있게 됐다.

/이시라기자 sira115@kbmaeil.com

저작권자 © 경북매일 무단전재 및 재배포 금지