Cilia là cấu trúc giống như lông mao nhô ra từ gần như mọi tế bào trong cơ thể. Các bệnh nhân liên quan đến thiểu năng trí tuệ thường có chứng năng lông mao bị gián đoạn dẫn đến một loạt các bệnh lý đi kèm. Tuy nhiên, hầu hết các kỹ thuật để đánh giá chức năng hoạt động của những lông mao này đều dựa vào nhận dạng thủ công và theo dõi lâm sàng. Trong điều kiện phát triển mạnh mẽ của khoa học kỹ thuật quan sát hiện nay thì việc thực hiện thủ công này dễ bị lỗi và cần thêm kỹ thuật phân tích chi tiết và chính xác hơn. Các mạng chập sâu có thể mã hóa các tính năng phức tạp trong khi đủ nhạy để nhận dạng và phân lớp các dạng biểu hiện chức năng dựa trên hình ảnh của những lông mao này. Chúng tôi so sánh DenseNets tích chập hoàn toàn với một mô hình cơ sở mà không có kết nối đầy đủ cho nhiệm vụ phân lớp biểu hiện lâm sàng của bệnh thiểu năng trí tuệ thông qua phân đoạn ngữ nghĩa các khung của viedeo sinh thiết. Được đào tạo trên 235 hình ảnh được gắn nhãn, DenseNets tích chập hoàn toàn của chúng tôi đạt được độ chính xác pixel tổng tể là 90.15%, chính xác hơn 13% so với U-Net. Chúng tôi nhấn mạnh các đặc tính có lợi của DenseNets cho phân đoạn ngữ nghĩa trên các bộ dữ liệu y sinh nhỏ.

Cilia are hairlike structures protruding from nearly every cell in the body. Diseases known as ciliopathies where cilia function is disrupted can result in a wide spectrum of diseases. However, most techniques for assessing ciliary motion rely on manual identification and tracking of cilia. This annotation is tedious and error-prone and more analytical techniques impose strong assumptions such as periodic motion of beating cilia. Deep convolutional networks are able to encode complex features while remaining sensitive enough to segment cilia that exhibit a variety of motion patterns. We compare fully convolutional DenseNets to a baseline model without dense connections for the novel task of cilia segmentation from frames of biopsy videos. Trained on 235 labeled images, our fully convolutional DenseNet achieves an overall pixel accuracy of 90.15%which is 13% more accurate than U-Net. We highlight the advantageous properties of DenseNets for semantic segmentation on small biomedical datasets

Facebook Twitter Google+