Un dos
HogarHogar > Blog > Un dos

Un dos

Jun 09, 2024

Scientific Reports volumen 13, número de artículo: 12846 (2023) Citar este artículo

268 Accesos

2 altmétrico

Detalles de métricas

Este trabajo propuso KidneyRegNet, un novedoso proceso de registro profundo para CT 3D y exploraciones renales 2D U/S de respiración libre, que comprende una red de funciones y una red de registro basada en CNN 3D-2D. La red de características tiene capas de características de textura hechas a mano para reducir la brecha semántica. La red de registro es una estructura de codificador-decodificador con pérdida de característica-imagen-movimiento (FIM), que permite la regresión jerárquica en las capas del decodificador y evita la concatenación de múltiples redes. Primero se preentrenó con un conjunto de datos retrospectivo y una estrategia de generación de datos de entrenamiento y luego se adaptó a datos específicos de pacientes mediante aprendizaje de transferencia de un ciclo no supervisado en aplicaciones in situ. El experimento se realizó en 132 secuencias U/S, 39 imágenes de TC multifásicas y 210 imágenes públicas de TC monofásicas, y 25 pares de secuencias de TC y U/S. Esto dio como resultado una distancia de contorno media (MCD) de 0,94 mm entre los riñones en imágenes de TC y U/S y una MCD de 1,15 mm en imágenes de TC y de referencia. Los conjuntos de datos con pequeñas transformaciones dieron como resultado MCD de 0,82 y 1,02 mm, respectivamente. Grandes transformaciones dieron como resultado MCD de 1,10 y 1,28 mm, respectivamente. Este trabajo abordó las dificultades en el registro renal 3DCT-2DUS durante la respiración libre a través de nuevas estructuras de red y estrategias de entrenamiento.

El registro de imágenes médicas es un proceso que alinea una imagen con otra proveniente de la misma o diferente modalidad. Esta imagen alineada contiene más información espacio-temporal, lo cual es importante para aplicaciones como la cirugía guiada por imágenes1, el seguimiento de enfermedades2 y la predicción de riesgos3. El registro entre imágenes de la misma modalidad es registro monomodal y el registro entre imágenes de diferentes modalidades es registro multimodal. Las diferentes técnicas de imagen son sensibles a diferentes tejidos del cuerpo. Por lo tanto, es necesario registrar imágenes de diferentes modalidades entre sí para proporcionar información complementaria. Sin embargo, esto es difícil debido a la compleja relación entre las intensidades de las estructuras correspondientes en las dos imágenes. Las imágenes de ultrasonido (U/S) son especialmente desafiantes debido a su gran movimiento, su pequeño campo de visión y su baja calidad de escaneo. No obstante, es necesario el registro 3D-2D. El potencial del aprendizaje profundo sobre esas cuestiones no se ha aprovechado plenamente4. En este trabajo, propusimos un método de aprendizaje profundo de dos pasos para abordar el registro renal de la tomografía computarizada (CT) 3D al ultrasonido 2D (3DCT-2DUS).

Los métodos de última generación (SOTA)5 se pueden clasificar como registro supervisado, débilmente supervisado y no supervisado, según la estrategia de aprendizaje o el registro de imágenes basado en redes neuronales convolucionales (CNN), basado en redes adversas profundas y basado en transformadores. según la arquitectura de red básica. El registro supervisado 6 está entrenado para predecir la transformación mediante el uso de imágenes y sus transformaciones de verdad fundamental. El registro débilmente supervisado7,8,9 utiliza segmentaciones superpuestas de estructuras anatómicas como función de pérdida, lo que reduce las limitaciones asociadas con los datos reales. El registro no supervisado10,11,12,13,14,15 se entrena minimizando una medida de disimilitud dado un conjunto de imágenes y no necesita transformaciones de verdad fundamental. El registro de imágenes basado en CNN16,17 entrena una arquitectura CNN diseñada y aprende el mapeo entre las imágenes de entrada y los campos de deformación. El registro profundo de imágenes adversas18,19 consta de una red generadora y una red discriminadora. La red generadora está entrenada para generar transformaciones y la red discriminadora aprende métricas de similitud para garantizar que las transformaciones generadas sean realistas o que las imágenes de entrada estén bien registradas. El registro basado en Vision Transformer (ViT)20,21,22,23,24 aprende las relaciones inherentes entre los datos a través del mecanismo de atención. Nuestra solución es el registro no supervisado basado en CNN. Nos referimos al registro como aprendizaje no supervisado porque la subred de registro está bajo entrenamiento no supervisado. Las subredes de funciones se entrenan por separado y no específicamente para la tarea de registro. Son extractores de funciones independientes y las funciones universales también son aplicables a nuestra solución.

La mayor parte del registro 3D-2D es registro proyectivo supervisado. La imagen 2D es la proyección del volumen 3D. Miao6 propuso utilizar la regresión CNN para registrar imágenes de rayos X 2D con imágenes de radiografía reconstruida digitalmente (DRR) 3D. Las transformaciones de verdad terrestre estaban disponibles para su aplicación. Foote25 propuso el seguimiento de los tumores mediante una única proyección fluoroscópica mediante un método basado en el aprendizaje supervisado. El método tomó muestras densas de los volúmenes de TC y calculó proyecciones de DRR con una combinación lineal de componentes de movimiento a través de DenseNet 26. Salehi 27 estimó la pose del plano de RM 2D dentro del volumen de RM utilizando CNN de regresión supervisada. Liao28 y Krebs29 propusieron emplear el aprendizaje por refuerzo para realizar el registro 2D/3D mediante el aprendizaje de una serie de acciones. Nuestro método consiste en un registro 3D-2D cortado. No se hace ninguna suposición de geometría proyectiva y no se utiliza ninguna transformación de verdad fundamental para el entrenamiento. Además, enfrenta los desafíos de un espacio potencial de búsqueda muy grande. Abordamos esas dificultades utilizando la novedosa solución propuesta. Guo30 propuso alinear el marco TRUS 2D con el volumen TRUS reconstruido en 3D utilizando una red de registro profundo. Su método utilizó la regresión CNN para estimar los parámetros de transformación y los comparó con la transformación de verdad fundamental para la pérdida de error cuadrático medio. Tomó una muestra de un corte 2D utilizando una transformación estimada y comparó el corte con 2D TRUS para determinar la pérdida de similitud de la imagen auxiliar. El autor descubrió que el aprendizaje no supervisado no puede dar lugar a una formación estable. Por lo tanto, la red se entrenó con imágenes monomodales bajo aprendizaje supervisado con pérdida combinada. Wei 31 propuso registrar etiquetas de vasos en imágenes 2D U/S en etiquetas de vasos en imágenes de hígado 3DCT/MR mediante un registro profundo, que era un enfoque monomodal. Etiquetaron la imagen manualmente y no analizaron la compleja relación entre las intensidades de las estructuras correspondientes en imágenes multimodales. El modelo de registro se entrenó mediante aprendizaje supervisado y siguió un proceso de ajuste de plano convencional.

El registro afín profundo utiliza una estructura de codificador14, una estructura de codificador siamés32 o una estructura basada en ViT33. Son registros de imágenes de modalidad única 3D-3D y no pueden ser la solución completa para el registro 3DCT-2DUS. Además, para el registro en múltiples escalas, se apilan dos o tres codificadores debido a limitaciones de capacidad. Por el contrario, proponemos utilizar una estructura codificador-decodificador, que permite el registro de múltiples escalas mediante regresión jerárquica de los parámetros de transformación de las capas del decodificador. Permite más escalas y beneficia el registro de grandes transformaciones y la rápida convergencia de modelos.

Balakrishnan10 propuso VoxelMorph para realizar un registro no supervisado. Adoptamos su arquitectura básica y la mejoramos a una arquitectura jerárquica para generar parámetros de transformación en múltiples escalas. Hu8 propuso utilizar funciones de imagen para guiar el registro. Nuestro trabajo es conceptualmente superior a su trabajo8 en varios aspectos. El primero es sobre arquitectura. En su trabajo, se utilizan imágenes originales para entrenar la red de registro y se utilizan etiquetas de segmentación de imágenes reales para calcular la función de pérdida. Nuestro trabajo utiliza una red para representar imágenes e ingresa representaciones de imágenes a la red de registro. Tanto el contenido de la imagen a nivel de vóxel como las funciones de alto nivel contribuyen al registro. La segunda es la función de pérdida. Se utiliza un descriptor de vecindad independiente de la modalidad (MIND)34 para medir la similitud de imágenes del par CT-US. Aquí, asumimos que una característica de alto nivel puede acercar la alineación a su óptimo y que la pérdida MIND es continua a nivel local. Se ha diseñado una pérdida de gradiente para regularizar la suavidad del movimiento respiratorio en exploraciones U/S con ventana. La tercera es que abordan el registro de próstata 3DCT-3DTRUS. Abordamos el riñón 3DCT-2DUS mediante un registro rígido profundo. Preentrenamos un modelo mediante el uso de un esquema de generación de datos y aprendizaje no supervisado y refinamos el modelo mediante aprendizaje por transferencia de un ciclo. Heinrich35 propuso un registro 3DCT-CT discreto, que utilizaba dos pasos de optimización, aprendizaje no supervisado para la búsqueda global y una capa de correlación para la búsqueda óptima local. Nuestro método integra características, imágenes y métricas de movimiento en la función de pérdida y realiza una estimación de transformación en un solo paso.

En este trabajo, contribuimos con una nueva línea de aprendizaje profundo para el registro de riñones cortados en 3DCT-2DUS. Superó dos desafíos principales: registrar imágenes de diferentes dimensiones y modalidades de imagen. Para abordar la diferencia de dimensiones, las imágenes U/S se expandieron primero a la misma dimensión de CT mediante relleno cero. Debido a que había relativamente pocas limitaciones espaciales entre el volumen de TC y los cortes U/S 2D en comparación con el registro de volumen 3D-3D, era necesario mover la TC 3D de manera efectiva. Propusimos utilizar una red rígida de registro de codificador-decodificador y una regresión jerárquica de transformaciones de cada nivel de decodificador. Las transformaciones de imágenes de baja a alta resolución se combinaron en la resolución más alta mediante traducción y rotación ponderadas. Además de la regresión jerárquica, diseñamos una pérdida combinada para impulsar la alineación de la secuencia de imágenes con precisión a través de características globales de riñón profundo y características de imagen locales independientes de la modalidad y sin problemas mediante la transformación de fotogramas consecutivos. Además, para mejorar aún más el rendimiento del registro y garantizar la eficiencia en las aplicaciones clínicas, propusimos entrenar de forma no supervisada la red de registro en dos pasos: entrenar previamente el modelo utilizando los conjuntos de datos de entrenamiento generales y entrenar de forma adaptativa el modelo para dos épocas utilizando conjuntos de datos de entrenamiento de pacientes específicos por uno. aprendizaje por transferencia cíclica. Se propuso la generación de datos de entrenamiento para generar pares de imágenes para el entrenamiento general. Para abordar las diferentes modalidades de imágenes, propusimos extraer características profundas del riñón en imágenes de TC y U/S para una comparación general y extraer características de imagen independientes de la modalidad para compararlas con detalles locales. La red de funciones se diseñó con capas de textura hechas a mano para reducir la brecha semántica. Además, aplicamos una ventana de tiempo en la secuencia U/S para mejorar la observación de los riñones en imágenes ruidosas al incluir información del movimiento de la respiración. Generalmente, la metodología abordó todas las cuestiones relacionadas con el registro renal durante la respiración libre. Hasta donde sabemos, este es el primer proceso de aprendizaje profundo para el registro de riñones cortados en 3DCT-2DUS.

Según los médicos, el riñón humano rara vez se deforma debido a los cambios de postura y respiración del paciente. Por lo tanto, utilizamos una transformación rígida en el registro de la imagen del riñón. La solución propuesta consta de 3DULBNet36 y una red de registro jerárquico 3D-2D. 3DULBNet se entrenó en CT e imágenes U/S en ventanas en tareas de segmentación binaria por separado fuera de línea. Se conectaron con la red de registro para predecir el plano de TC que mejor se alineaba con las imágenes U/S.

ULBNet es una U-Net de 5 niveles con un bloque residual que reemplaza la capa convolucional original (Apéndice A). Se agregó una capa de convolución binaria local (LBC)37 para omitir conexiones. La tasa de abandono se fijó en 0,2. Para las imágenes de TC, el tamaño del parche es 160 × 160 × 80 y el tamaño del lote fue 1. El optimizador fue Adam. La función de pérdida fue el coeficiente negativo de Dice. La capa de salida era una capa convolucional con activación sigmoidea y su salida era un mapa de características renales de imágenes de TC. El mapa de características era un mapa de probabilidad de que un píxel/vóxel fuera un riñón. Describió la forma global característica del riñón. Se puede hacer referencia a ULBNet36 para obtener detalles sobre el método utilizado para procesar imágenes de CT.

Las imágenes ecográficas son ruidosas y es difícil delimitar los riñones a partir de una sola imagen. La información sobre el movimiento del riñón es útil. Dado que la secuencia U/S explora el riñón durante la respiración, el movimiento del riñón no se puede observar en un cuadro, pero sí en algunos cuadros consecutivos. Las secuencias de imágenes U/S tienen ventanas experimentales con un tamaño de 5 (Apéndice E). Por lo tanto, en lugar de extraer características del marco 2D U/S, las extrajimos del volumen en 256 × 192 × 5. En la red de características U/S, el tamaño de entrada fue 256 × 192 × 5 y se rebajó/aumentó en 2 en cada nivel. No redujimos la muestra de los datos en la dimensión temporal. Los números de mapas de características fueron 16, 32, 64, 128 y 256 en la ruta del codificador y 256, 128, 64, 32 y 16 en la ruta del decodificador. La capa de salida era una capa convolucional con activación sigmoidea y salida de un mapa de características renales U/S. Los mapas de características renales de las imágenes de TC y U/S tenían la misma dimensión que la entrada. Las imágenes de características renales en ventana se utilizaron para construir el par de imágenes CT-US.

Presentamos el registro renal (Fig. 1) en cinco aspectos: preprocesamiento de pares de imágenes, estructura de red, función de pérdida, generación de datos de entrenamiento y estrategia de aprendizaje.

La estructura de la red de registro 3D-2D.

Todas las imágenes de TC se convirtieron a orientación RAI y se tomaron muestras isotópicas en 0,8 mm × 0,8 mm × 0,8 mm. Las tomografías computarizadas se recortaron automáticamente a 128 × 224 × 288 alrededor del centroide. La imagen AU/S se vuelve a muestrear a 0,8 mm × 0,8 mm y se recorta a 224 × 288. Las imágenes U/S con ventanas se centraron en un volumen de 128 × 224 × 288 con relleno cero. Dentro de una ventana de EE. UU., el centro era el objetivo de registro y los demás contribuían a la regularización del movimiento. Las imágenes U/S se apilaron a lo largo del eje temporal, al igual que el eje RL en el espacio de la imagen. El volumen de CT se alineó con U/S haciendo coincidir los centroides del riñón de los mapas de características. Debido a que la ecografía del riñón estaba sujeta a las limitaciones de las costillas y la columna vertebral de los pacientes, la variabilidad de la posición inicial de los pares 3DCT-2DUS puede ser grande. Para reducir la variabilidad, alineamos uniformemente el riñón en la TC en el eje inferior-superior y luego alineamos el riñón en U/S con el centroide. Las entradas a la red de registro fueron imágenes de ventana CT y U/S de 128 × 224 × 288. CT era la imagen en movimiento y U/S era la imagen fija.

La arquitectura se muestra en la Fig. 1. Los volúmenes CT y U/S se concatenaron antes de pasar a la capa de convolución. Los números de mapas de características fueron 8, 16 y 16 en la ruta del codificador y 16, 16, 16, 16, 8 y 8 en la ruta del decodificador. El muestreo ascendente se realizó utilizando Upsampling3D y el muestreo descendente se realizó con convolución de zancada. La regresión de transformación utilizó el bloque afín. En cada nivel del decodificador, la activación de la capa de salida (densa) fue tan solo para los parámetros de transformación. La capa de red de transformador espacial (STN)38 procesó la transformación rígida porque el riñón rara vez sufrió deformación durante la respiración libre. El optimizador fue Adam. La tasa de aprendizaje fue 3e−4. Dado que el tamaño de la ventana de las imágenes U/S era Nw, la transformación de salida fue un conjunto de 6 parámetros de transformación rígida Nw, 3 Nw para rotación y 3 Nw para traslación. Nw se fijó experimentalmente en 5 en este trabajo (Apéndice G). Cada capa en la ruta del decodificador genera un conjunto de parámetros de transformación, y su suma ponderada compuso la transformación final. Para la rotación, fue un promedio de los parámetros de rotación. Para la traducción, fue una suma ponderada de los parámetros de traducción y las ponderaciones fueron {8, 4, 2, 1}/4 = {2, 1, 0,5, 0,25}. La rotación fue de invariancia de escala y ponderada promedio. La traducción fue inversamente proporcional a la resolución de la imagen y se ponderó proporcionalmente. La activación jerárquica mejoró la predicción y disminuyó el tiempo de entrenamiento. El número de parámetros entrenables fue de aproximadamente 282 M.

El mapa de características describe el riñón en general y la función MIND describe los detalles de la imagen. Pueden complementarse entre sí para medir la alineación con precisión. A medida que se produce el registro durante la respiración, los planos de corte de TC obtenidos deberían poder apilarse como secuencias de tiempo suaves. Dada \({I}_{fix}\) imagen fija, \({I}_{mov}\) imagen en movimiento, \({M}_{fix}\) mapa de características fijas, \({M}_ {mov}\) mapa de características en movimiento y \(\mathcal{D}\) parámetros de transformación, la pérdida característica-imagen-movimiento (FIM) se definió (Ec. 1) mediante tres medidas en el mapa de características, imagen original, y transformación:

La pérdida de características fue el coeficiente negativo de Dice del mapa de características de riñón fijo y deformado (Ec. 2), donde \(DICE\left(x,y\right)= \frac{1}{m}\sum \left(\ frac{2x \odot y}{x \oplus y}\right)\), ⨀ y ⊕ son operaciones por elementos: multiplicación y suma, y ​​m es el número de elementos. DICE se calculó entre el corte medio en el eje RL del volumen CT deformado y el corte correspondiente en el volumen U/S fijo. La pérdida de características fue un DICE promedio dentro de las ventanas de tiempo. La pérdida de imagen fue la diferencia de características MENTE entre la imagen original fija y deformada (Ec. 3)39. Se calculó una característica MIND mediante una función gaussiana de la diferencia cuadrática media entre un parche central de la imagen y uno de sus seis parches vecinos. El vecindario estaba en 3D y el tamaño del parche era de 3 × 3 × 3. Las características de MIND se extrajeron del volumen de CT y del volumen de U/S para capturar información de imágenes locales en 3D a medida que se movía el riñón. El volumen U/S tenía 5 fotogramas y la característica de su fotograma medio era válida y se utilizaba para calcular la pérdida de imagen. La pérdida de imagen fue la diferencia absoluta media entre las características MIND del corte medio en el eje RL en el volumen CT deformado y el volumen U/S fijo para comparar dos imágenes con detalles locales. N era el conjunto de vectores de desplazamiento. En este caso, las imágenes de TC deben enmascararse antes de calcular MIND porque las imágenes de TC muestran estructuras anatómicas adicionales además del riñón. La pérdida de transformación (Ec. 4) fue una suma ponderada de la norma L2 dividida por el número de parámetros y la diferencia de transformación promedio (Ec. 4). \({\lambda }_{1} , {\lambda }_{2}\) se establecieron empíricamente como 0,01 y 0,001. Aquí, asumimos que MENTE es localmente continua. \({\lambda }_{1}\) se configuró en 0,01 para garantizar que la pérdida de características domine las actualizaciones de peso inicialmente y, cuando se acercaba al óptimo global, la pérdida de imagen entró en vigor para ajustar los pesos. La pérdida de transformación regularizó la transformación de movimiento para mover la TC a su posición óptima alineada con las imágenes U/S. Básicamente, la pérdida de características, \({\mathcal{L}}_{f}\), se calculó en mapas de características del riñón. La pérdida de imagen, \({\mathcal{L}}_{i}\), se calculó entre imágenes U/S e imágenes de TC enmascaradas, que se implementaron mediante la multiplicación por elementos de las imágenes de TC deformadas y el mapa de características del riñón de TC deformado. La pérdida se calculó en las regiones del riñón, eliminando así la influencia de la diferencia entre el campo de visión en las imágenes de TC y U/S.

La transformación se realizó en un espacio de 6 dimensiones, mientras que el tamaño de los datos era relativamente pequeño. El entrenamiento en red era propenso a sobreadaptarse. La generación de conjuntos de datos de entrenamiento fue necesaria y se empleó en el registro proyectivo de imágenes 3D-2D25,40. Comúnmente se utilizó un muestreo denso. A diferencia del registro proyectivo, los parámetros de transformación o su distribución para el registro 3D-2D cortado eran incontrolables y no estaban disponibles. Necesitábamos descubrirlo. Primero, verificamos los planos de referencia con los médicos (Apéndice B). Las transformaciones para obtener esas alineaciones verificadas se modelaron, parámetro por parámetro, en distribuciones gaussianas 2-sigma, donde tomamos muestras aleatorias de Nt transformaciones individualmente (Apéndice C). Las Nt transformaciones inversas transforman la alineación óptima nuevamente a Nt posiciones iniciales del riñón diferentes. Generamos pares CT-US de entrenamiento Nt aplicando transformaciones inversas Nt en un volumen de CT de referencia (Apéndice D). Nuestro esquema de generación de datos de entrenamiento ayudó a obtener conjuntos de datos de entrenamiento realistas para superar el sobreajuste. En el futuro, si se dispone de suficientes datos clínicos, se podrá descuidar la generación de datos.

Con base en los conjuntos de datos de entrenamiento generados, se empleó el aprendizaje no supervisado para entrenar previamente un modelo de registro. Nuestras imágenes U/S objetivo son secuencias de respiración que incluyen imágenes de ciclos respiratorios periódicos. Fue posible utilizar el conjunto de datos específicos del paciente in situ para mejorar aún más el rendimiento del modelo. Propusimos una estrategia de aprendizaje por transferencia de un ciclo, que refinó el modelo previamente entrenado utilizando los datos del primer ciclo de respiración mediante el aprendizaje por transferencia con dos épocas e infirió las transformaciones posteriormente. La capacitación específica del paciente en el sitio sin un modelo previamente entrenado no era factible porque el tiempo de convergencia era demasiado largo para aceptarlo y un tiempo prolongado de preparación de la operación no era práctico en aplicaciones clínicas. Propusimos utilizar el aprendizaje por transferencia para refinar el modelo y ahorrar tiempo y mejorar el rendimiento (Apéndice F).

La distancia de Hausdorff (HD) y la distancia de contorno media (MCD) entre los contornos del riñón en imágenes de TC y ecografía se utilizaron para evaluar si el par CT-US estaba bien alineado y se calcularon como

\(d\left(u,c\right)\) es el valor absoluto en el mapa de distancia, y c y u son puntos de contorno en las imágenes CT y U/S, respectivamente. HD y MCD estaban en milímetros. La distancia de CT a U/S (CT-US) se calculó entre los límites del riñón en imágenes de CT y U/S. La distancia de CT a CT (CT-CT) entre los contornos del riñón en el plano de CT resultante y el plano de CT de referencia.

Los conjuntos de datos internos se recopilaron de la Universidad Médica de Guangzhou del Quinto Hospital Afiliado y fueron aprobados por la Junta de Revisión Institucional el 28 de agosto de 2020, con el número de protocolo L2020-24.

Los conjuntos de datos consistían en conjuntos de datos públicos KiTS1941 y conjuntos de datos internos. Los conjuntos de datos públicos consistieron en 210 imágenes de TC de fase corticomedular (CMP). Los conjuntos de datos internos se recopilaron de la Universidad Médica de Guangzhou del Quinto Hospital Afiliado y fueron aprobados por la Junta de Revisión Institucional el 28 de agosto de 2020, con el número de protocolo L2020-24. Los conjuntos de datos se estudiaron consecutivamente de enero a mayo de 2021 y consistieron en 132 secuencias de imágenes U/S (más de 30.000 imágenes) de 31 pacientes, 39 imágenes de TC de fase múltiple de 24 pacientes y 25 pares de volúmenes de TC y secuencias U/S de 25 pacientes. Todas las imágenes fueron anonimizadas. Las tomografías computarizadas se adquirieron en un escáner de 64 cortes (escáner CT GE OPTIMA CT600), utilizando un protocolo de imágenes estándar de cuatro fases con contraste mejorado con un grosor de corte de 0,6 a 5,0 mm, una matriz de 512 × 512 píxeles y un plano resolución de 0,625–0,916 mm. La exploración CMP se realizó con 180 HU detectadas en la región de interés dentro de la aorta abdominal. La fase nefrográfica (NP) se realizó 28 s después del contraste y la fase excretora (PE) se realizó entre 10 y 30 minutos después del contraste. Los conjuntos de datos de EE. UU. se adquirieron en un sistema de ultrasonido GE Versana Active™, con una matriz de 1132 × 852 píxeles y una resolución en el plano de 0,22 a 0,29 mm. Las secuencias U/S se escanearon a 17-22 fotogramas por segundo y tenían 58 ± 14 imágenes U/S por ciclo de respiración.

Para cada cuadro U/S, se mostró al lado de cuatro médicos experimentados un plano de corte de TC de referencia seleccionado manualmente con la superposición de los límites del riñón para verificar unánimemente si eran el mismo plano de corte del riñón. Los aviones verificados construyeron nuestro conjunto de referencia básico, a partir del cual ampliamos el conjunto de entrenamiento. Los médicos verificaron que en 22 de 25 pares de secuencias de volumen de TC y U/S el plano de corte 3D en las TC era el mismo que el de las imágenes de U/S.

Se modelaron seis parámetros en las transformaciones que dieron como resultado los planos CT de referencia desde las posiciones iniciales en distribuciones gaussianas 2-sigma. Los conjuntos de datos clínicos se dividieron en una proporción de 7:1:2 para conjuntos de entrenamiento, validación y prueba según los pacientes. Se normalizaron a píxeles que tenían un valor medio cero y un valor de varianza. Se utilizó una validación cruzada quíntuple para evaluar el rendimiento del modelo. Los datos del paciente se dividieron en cinco grupos. Un grupo estaba probando un conjunto de datos y los grupos restantes estaban entrenando/validando un conjunto de datos. El conjunto de datos de tren/validación se dividió aleatoriamente. El rendimiento del modelo se promedió en cinco ejecuciones. Solo se generaron conjuntos de datos de entrenamiento N veces.

Nuestra red se implementó en TensorFlow y la capacitación se realizó en una estación de trabajo con una Nvidia Quadro RTX 5000 dual de 16 GB y una memoria de CPU de 256 GB. La tasa de aprendizaje fue de 1 × 10–4. El modelo fue evaluado por

El modelo dio como resultado un coeficiente de Dice promedio del 96,88 % en la segmentación del riñón en las imágenes de TC de fase simple (Tabla 1). La red dio como resultado un coeficiente Dice promedio del 96,39 % en imágenes estadounidenses.

Los conjuntos de datos generados solo se utilizaron para capacitación. Cuantos más conjuntos de datos se generaron, menor fue el MCD logrado. Aquí, generamos aproximadamente 12.000 pares de datos de entrenamiento, 10 veces conjuntos de datos clínicos, para entrenar previamente la red de registro. Realizamos un estudio de ablación del método (tabla 2). Todos los componentes de la red contribuyeron a la mejora del rendimiento. La regresión de transformación jerárquica en las capas del decodificador contribuyó más que la pérdida de MIND. El aprendizaje por transferencia de un ciclo fue el que más contribuyó. La estimación de la incertidumbre estaba en el Apéndice H.

Como nuestro proceso basado en aprendizaje profundo es el primero para el registro de riñones 3DCT-2DUS, solo podemos comparar nuestro método con SOTA 14,32,33 en términos del módulo de registro (Tabla 3). Reemplazamos nuestra subred de registro jerárquico codificador-decodificador con estructuras de codificador o módulo de registro basado en transformador. Es decir, la entrada a SOTA fueron los pares de características CT-US después de la alineación global. VoxelMorph, ConvNet-affine14, VTN-affine32 y C2FViT33 se entrenaron en los conjuntos de datos de entrenamiento generales para converger. VoxelMorph utiliza el mismo bloque afín que en nuestra red de registro para obtener parámetros de transformación rígidos. ConvNet-afine y VTN-afine se implementaron en función de sus artículos mientras se empleaba una transformación rígida.

El nuestro, con entrenamiento en dos pasos, fue superior a todos los SOTA cuando se midió mediante HD y MCD (Tabla 3). Las distancias 2D CT-US fueron más pequeñas que las distancias 3D CT-CT porque se pasó por alto la distancia en una dimensión. Con una estrategia de entrenamiento de un solo paso, nuestro modelo previamente entrenado funcionó mejor que VoxelMorph con una distancia 3D CT-CT más pequeña y una distancia 2D CT-US más grande. Este resultado indicó que las estructuras jerárquicas impidieron la convergencia a un óptimo local. Además, se descubrió que nuestro modelo previamente entrenado con estructuras jerárquicas convergía en aproximadamente 20 a 50 épocas durante el entrenamiento, mucho más rápido que VoxelMorph, convergiendo en aproximadamente 200 a 300 épocas. Además, el método basado en transformador, C2FViT, funcionó mejor que los métodos basados ​​en CNN con una estrategia de entrenamiento de un solo paso.

Comparamos nuestro método con SOTA utilizando una estrategia de entrenamiento de dos pasos, todos con una estrategia de aprendizaje de transferencia de un ciclo aplicada (Tabla 3). El nuestro aprendió más del aprendizaje por transferencia para mejorar el desempeño. ConvNet, una estructura de codificador siamesa, ocupaba el segundo lugar después de la nuestra. C2FViT fue el que menos aprendió. El método basado en CNN funcionó mejor que el método basado en transformador con aprendizaje de transferencia de un ciclo durante dos épocas. Nuestro método funcionó mejor. Los resultados de ejemplo estaban en el Apéndice I.

Dividimos los pares de imágenes CT-US en dos grupos ordenados por transformaciones. El grupo A estaba compuesto por conjuntos de datos de pequeñas transformaciones, rotaciones de 10,37° ± 2,24° y traslación de 3,69 ± 0,95 mm. El grupo B estaba compuesto por conjuntos de datos de grandes transformaciones, rotaciones de 24,72° ± 2,28° y traslación de 5,04 ± 1,20 mm. La rotación y la traslación se calcularon por separado como la norma L2 de los componentes en las direcciones x, y y z. Todos los métodos basados ​​en aprendizaje profundo utilizaron una estrategia de aprendizaje de dos pasos. Se midió el desempeño de los dos grupos (Tabla 4). Nuestro método funcionó mejor en los Grupos A y B. Fue robusto ante grandes transformaciones.

Se mostraron secuencias de prueba de ejemplo de imágenes de CT y U/S en orientación RAI (Fig. 2). Los fotogramas U/S y los planos de TC resultantes en vista sagital se apilaron a lo largo de la orientación R-L. Las vistas axial y coronal proporcionaron información dinámica y el eje R-L representó el tiempo. La vista coronal mostró el movimiento hacia arriba y hacia abajo del riñón durante la respiración, y la vista axial mostró el movimiento del riñón hacia adelante y hacia atrás.

Resultados de registro de ejemplo, de izquierda a derecha, las imágenes son vista axial de TC, vista sagital de TC, vista coronal de TC, vista axial U/S, vista sagital U/S, vista coronal U/S. Las filas 1 y 3 visualizaron la alineación interna de los cálculos renales (en forma de cruz en la vista sagital). Las filas 2 y 4 visualizaron la alineación de los cortes en la inspiración y la espiración (en forma de cruz en la vista coronal).

Fue difícil encontrar puntos de referencia correspondientes entre CT y U/S. Identificamos un caso especial que tenía una pequeña lesión visible tanto en las imágenes ecográficas como en las imágenes de TC durante la respiración (Fig. 3). La lesión tenía aproximadamente 7 mm de diámetro en el riñón izquierdo. Fue interesante conocer la distancia del tumor después del registro para este caso especial. Si asumimos que el centro de la lesión observada en la ecografía también era su centroide en el volumen de la TC, la distancia al centro del tumor fue de 3,39 mm después del registro. 4,38 mm, 6,04 mm, 4,16 mm y 3,91 mm resultaron de VoxelMorph, C2FViT, VTN-affine y ConvNet-affine, respectivamente. La distancia era grande porque el tumor estaba cerca de la superficie del riñón.

Par de imágenes de ejemplo para visualizar el error de registro del objetivo (TRE) en (a) una lesión pequeña en la imagen CT registrada y la imagen U/S, (b) el movimiento de la lesión pequeña en la respiración.

Después de comparar los registros afines no supervisados, en esta sección presentamos el rendimiento de los métodos de registro 2D/3D existentes en la Tabla 5. Los métodos SOTA abordaron el registro 2D/3D profundo utilizando regresión CNN supervisada6,25,27,30, aprendizaje de refuerzo supervisado28,29 , o segmentación CNN supervisada con regresión plana convencional31. Todos fueron aprendizaje supervisado. Nuestro método utilizó una red neuronal convolucional de extremo a extremo no supervisada que genera tanto los parámetros de transformación como el plano de corte resultante, se entrenó sin las transformaciones reales del terreno y logró un rendimiento comparable con los métodos supervisados.

Es un desafío obtener una correspondencia espacial perfecta para imágenes de CT y U/S. Medimos la distancia en los pares CT-US de referencia; el HD promedio fue de 3,57 ± 1,11 mm y el MCD fue de 0,79 ± 0,22 mm, que tenía aproximadamente un píxel de tamaño. La distancia distinta de cero puede deberse a una extracción imperfecta del contorno, oclusión costal o diferentes posturas del paciente.

El modelo previamente entrenado se beneficia del uso de la generación de datos de entrenamiento, porque los parámetros de transformación se encuentran en un espacio de alta dimensión mientras que el tamaño de los datos es pequeño. Sin embargo, solo aumentar los conjuntos de datos generados dificulta mejorar aún más el rendimiento del modelo. Propusimos utilizar el aprendizaje por transferencia para lograr este objetivo.

El aprendizaje por transferencia puede necesitar tiempo adicional de preparación/capacitación antes de la aplicación. Con un modelo previamente entrenado, la preparación se puede acortar significativamente. Por ejemplo, si el modelo de registro se entrenó desde cero mediante el aprendizaje de un ciclo, tardó aproximadamente 46 minutos en converger, mientras que solo se necesitaron entre 2 y 3 minutos si el modelo se entrenó mediante el aprendizaje por transferencia. Por tanto, un buen modelo previamente entrenado era esencial para las aplicaciones prácticas.

Aunque estaban disponibles las alineaciones óptimas verificadas con los médicos, no cambiamos nuestro aprendizaje no supervisado por aprendizaje supervisado. En primer lugar, el tamaño de los datos era bastante pequeño y se requirió mucho esfuerzo para obtener más datos. No era deseable limitar a nuestro modelo el procesamiento de datos de emparejamiento versátiles cuando estuvieran disponibles. El aumento de los datos de entrenamiento generó un efecto de regularización, que benefició la optimización de la función de costos y redujo el sobreajuste y la generalización del modelo. Creemos que en el futuro será posible recopilar más conjuntos de datos emparejados para superar el sobreajuste resultante de la limitación del conjunto de datos.

Wein42 propuso un método convencional para el registro renal 3DCT-3DUS. Las imágenes U/S se adquirieron utilizando una sonda rastreada durante la retención de la respiración en la inspiración. La optimización se realizó mediante búsqueda exhaustiva del espacio de traducción. En este trabajo, nuestro objetivo fue un registro renal 3DCT-2DUS basado en aprendizaje profundo durante la respiración, que realizó una inferencia profunda del modelo.

Hasta donde sabemos, este artículo presentó el primer proceso de aprendizaje profundo para el registro de riñones cortados en 3DCT-2DUS. Todas las dificultades en el registro de los riñones durante la respiración libre se abordaron mediante nuevas estructuras de red y estrategias de capacitación. Experimentos completos demostraron que nuestra metodología propuesta funcionó bien (Información complementaria: Apéndice).

https://kits19.grand-challenge.org/.

Alam, F., Rahman, SU, Ullah, S. & Gulati, K. Registro de imágenes médicas en cirugía guiada por imágenes: problemas, desafíos y oportunidades de investigación. Biociberno. Biomédica. Ing. 38, 71–89 (2018).

Artículo de Google Scholar

Gorbunova, V. et al. Registro de imágenes que preservan el peso para controlar la progresión de la enfermedad en la TC de pulmón. en Computación de Imágenes Médicas e Intervención Asistida por Computadora. 863–870 (Springer, 2008).

Brandt, SS, Karemore, G., Karssemeijer, N. y Nielsen, M. Un sistema de coordenadas mamarias anatómicamente orientado para el análisis de mamografías. Traducción IEEE. Medicina. Imágenes 30, 1841–1851 (2011).

Artículo PubMed Google Scholar

Nazib, A., Fookes, C. y Perrin, D. Un análisis comparativo de las herramientas de registro: enfoque tradicional versus aprendizaje profundo en datos de limpieza de tejidos de alta resolución. Preimpresión de arXiv arXiv:1810.08315 (2018).

Haskins, G., Kruger, U. y Yan, P. Aprendizaje profundo en el registro de imágenes médicas: una encuesta. Mach. Vis. Aplica. 31, 1-18 (2020).

Artículo de Google Scholar

Miao, S., Wang, ZJ y Liao, R. Un enfoque de regresión de CNN para registro 2D/3D en tiempo real. Traducción IEEE. Medicina. Imágenes 35, 1352-1363 (2016).

Artículo de Google Scholar

Heinrich, MP Cerrando la brecha entre el registro de imágenes profundo y convencional utilizando redes probabilísticas de desplazamiento denso. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 50–58 (Springer, 2019).

Hu, Y. et al. Redes neuronales convolucionales débilmente supervisadas para el registro de imágenes multimodales. Medicina. Imagen Anal. 49, 1-13 (2018).

Artículo ADS PubMed PubMed Central Google Scholar

Lee, MC, Oktay, O., Schuh, A., Schaap, M. & Glocker, B. Redes de transformadores espaciales y de imágenes para el registro de imágenes guiado por estructuras. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 337–345 (Springer, 2019).

Balakrishnan, G., Zhao, A., Sabuncu, MR, Guttag, J. & Dalca, AV Voxelmorph: un marco de aprendizaje para el registro de imágenes médicas deformables. Traducción IEEE. Medicina. Imágenes 38, 1788–1800 (2019).

Artículo de Google Scholar

Dalca, AV, Balakrishnan, G., Guttag, J. y Sabuncu, MR Aprendizaje no supervisado para un registro difeomorfo probabilístico rápido. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 729–738 (Springer, 2018).

Kori, A. & Krishnamurthi, G. Aprendizaje de disparo cero para el registro de imágenes multimodal en tiempo real. Preimpresión de arXiv arXiv:1908.06213 (2019).

Krebs, J., Mansi, T., Mailhé, B., Ayache, N. y Delingette, H. Modelado de deformación probabilística no supervisada para un registro difeomorfo robusto. en Aprendizaje Profundo en Análisis de Imágenes Médicas y Aprendizaje Multimodal para Apoyo a la Decisión Clínica. 101–109 (Springer, 2018).

de Vos, BD et al. Un marco de aprendizaje profundo para el registro de imágenes deformables y afines no supervisadas. Medicina. Imagen Anal. 52, 128-143 (2019).

Artículo PubMed Google Scholar

Yoo, I., Hildebrand, DG, Tobin, WF, Lee, W.-CA y Jeong, W.-K. ssemnet: registro de imágenes de microscopía electrónica de sección en serie utilizando una red de transformadores espaciales con características aprendidas. en Aprendizaje Profundo en Análisis de Imágenes Médicas y Aprendizaje Multimodal para Apoyo a la Decisión Clínica. 249–257 (Springer, 2017).

Cao, X. y col. Registro de imágenes deformables basado en regresión CNN dirigida por similitud. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 300–308 (Springer, 2017).

Wu, G., Kim, M., Wang, Q., Munsell, BC y Shen, D. Marco de registro de imágenes escalable de alto rendimiento mediante aprendizaje profundo no supervisado de representaciones de características. Traducción IEEE. Biomédica. Ing. 63, 1505-1516 (2015).

Artículo PubMed PubMed Central Google Scholar

Fan, J., Cao, X., Wang, Q., Yap, P.-T. & Shen, D. Aprendizaje adversario para registro monomodal o multimodal. Medicina. Imagen Anal. 58, 101545 (2019).

Artículo PubMed PubMed Central Google Scholar

Hu, Y. et al. Regularización de deformación adversaria para entrenar redes neuronales de registro de imágenes. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 774–782 (Springer, 2018).

Baum, Z., Hu, Y. & Barratt, DC Registro de imágenes biomédicas multimodales utilizando redes de transformadores de puntos libres. en Ultrasonido Médico, y Análisis de Imágenes Pretérmino, Perinatal y Pediátrica. 116-125 (Springer, 2020).

Chen, J. y col. TransMorph: Transformador para registro de imágenes médicas no supervisadas. Preimpresión de arXiv arXiv:2111.10480 (2021).

Chen, J., He, Y., Frey, EC, Li, Y. & Du, Y. ViT-V-Net: Transformador de visión para registro de imágenes médicas volumétricas no supervisadas. Preimpresión de arXiv arXiv:2104.06468 (2021).

Liu, Z. y col. Transformador Swin: Transformador de visión jerárquica mediante ventanas desplazadas. en Actas de la Conferencia Internacional IEEE/CVF sobre Visión por Computadora. 10012–10022 (2021).

Wang, Z. & Delingette, H. Atención para el registro de imágenes (AiR): un enfoque de transformador no supervisado. Preimpresión de arXiv arXiv:2105.02282 (2021).

Foote, MD, Zimmerman, BE, Sawant, A. y Joshi, SC Registro deformable 2D-3D en tiempo real con aprendizaje profundo y aplicación a la focalización de radioterapia pulmonar. en Conferencia Internacional sobre Procesamiento de Información en Imágenes Médicas. 265–276 (Springer, 2019).

Huang, G., Liu, Z., van der Maaten, L. y Weinberger, KQ Redes convolucionales densamente conectadas. 4700–4708 (2017).

Salehi, SSM, Khan, S., Erdogmus, D. & Gholipour, A. Estimación de pose profunda en tiempo real con pérdida geodésica para registro rígido de imagen a plantilla. Traducción IEEE. Medicina. Imágenes 38, 470–481 (2018).

Artículo PubMed Central Google Scholar

Liao, R. y col. Un agente artificial para un registro robusto de imágenes. en Actas de la Conferencia AAAI sobre Inteligencia Artificial. vol. 31 (2017).

Krebs, J. y col. Registro sólido y no rígido a través del aprendizaje activo basado en agentes. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 344–352 (Springer, 2017).

Guo, H., Xu, X., Xu, S., Wood, BJ y Yan, P. Registro de volumen y cuadro de ultrasonido de extremo a extremo. en Computación de Imágenes Médicas e Intervención Asistida por Computador. 56–65 (Springer, 2021).

Wei, WEI, Haishan, X., Alpers, J., Rak, M. y Hansen, C. Un enfoque de aprendizaje profundo para el registro de imágenes por ecografía 2D y TC/RM 3D en la ablación de tumores hepáticos. Computadora. Métodos Programas Biomédicos. 206, 106117 (2021).

Artículo PubMed Google Scholar

Zhao, S. y col. Registro de imágenes médicas 3D de extremo a extremo sin supervisión con red de interpolación de volumen. IEEE J. Biomed. Informe de salud. 24, 1394-1404 (2019).

Artículo PubMed Google Scholar

Mok, TC & Chung, A. Registro de imágenes médicas afines con transformador de visión de grueso a fino. en Actas de la Conferencia IEEE/CVF sobre Visión por Computadora y Reconocimiento de Patrones. 20835–20844 (2022).

Heinrich, MP y cols. MIND: Descriptor de vecindad independiente de modalidad para registro deformable multimodal. Medicina. Imagen Anal. 16, 1423-1435 (2012).

Artículo PubMed Google Scholar

Heinrich, MP y Hansen, L. Registro de TC discreto basado en aprendizaje no supervisado, altamente preciso y eficiente en la memoria, mediante búsqueda de desplazamiento 2,5 D. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 190–200 (Springer, 2020).

Chi, Y. et al. Segmentación de riñón en imágenes de TC de fase múltiple utilizando ULBNet. en 2020 25ª Conferencia Internacional sobre Reconocimiento de Patrones (ICPR). 8554–8561 (IEEE, 2021).

Pietikäinen, M., Hadid, A., Zhao, G. y Ahonen, T. Visión por computadora utilizando patrones binarios locales. vol. 40 (Springer, 2011).

Jaderberg, M., Simonyan, K. y Zisserman, A. Redes de transformadores espaciales. Adv. Neural. inf. Proceso. Sistema. 28, 2017-2025 (2015).

Google Académico

Heinrich, MP, Jenkinson, M., Papież, BW, Brady, SM y Schnabel, JA Hacia la fusión multimodal en tiempo real para intervenciones guiadas por imágenes que utilizan auto-similitudes. en la Conferencia Internacional sobre Computación de Imágenes Médicas e Intervención Asistida por Computadora. 187–194 (Springer, 2013).

Schaffert, R., Wang, J., Fischer, P., Borsdorf, A. y Maier, A. Aprendizaje de un modelo de atención para un registro robusto 2-D/3-D utilizando correspondencias de punto a plano. Traducción IEEE. Medicina. Imágenes 39, 3159–3174 (2020).

Artículo PubMed Google Scholar

Heller, N. y col. Los kits19 desafían los datos: 300 casos de tumores renales con contexto clínico, segmentaciones semánticas de TC y resultados quirúrgicos. Preimpresión de arXiv arXiv:1904.00445 (2019).

Wein, W., Brunke, S., Khamene, A., Callstrom, MR y Navab, N. Registro automático de ecografía por tomografía computarizada para diagnóstico por imágenes e intervención guiada por imágenes. Medicina. Imagen Anal. 12, 577–585 (2008).

Artículo PubMed Google Scholar

Descargar referencias

Este trabajo está respaldado por ACCL/19-GAP035-R20H.

Estos autores contribuyeron igualmente: Chi Yanling y Xu Yuyu.

Instituto de Investigación de Infocomm (I2R), Agencia de Ciencia, Tecnología e Investigación (A*STAR), 1 Fusionopolis Way #21-01 Connexis South, Singapur, 138632, República de Singapur

Yanling Chi, Huiying Liu y Weimin Huang

Laboratorio clave de diagnóstico, terapia y rehabilitación de objetivos biológicos de los institutos de educación superior de Guangdong, quinto hospital afiliado de la Universidad Médica de Guangzhou, Guangzhou, 510700, República Popular de China

Yuyu Xu, Xiaoxiang Wu, Zhiqiang Liu y Guibin Xu

Creative Medtech Solutions Pte Ltd, Singapur, República de Singapur

Jia Wei Mao

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

YC contribuyó al método, los experimentos y la redacción de manuscritos. YX contribuyó al diseño del protocolo de datos clínicos para imágenes de TC y U/S y revisión del manuscrito. HL contribuyó a los experimentos. XW contribuyó al diseño del canal de recopilación de datos de EE. UU., la recopilación de datos de EE. UU. y la identificación del plano de referencia, y la revisión del manuscrito. ZL contribuyó a la identificación y verificación del plano de referencia. JM contribuyó al diseño y los experimentos del oleoducto. GX contribuyó al diseño del protocolo de datos clínicos, la explicación de los datos en imágenes de TC y U/S, la identificación y verificación del plano de referencia. WH contribuyó al diseño y los experimentos del oleoducto.

Correspondencia a Yanling Chi, Guibin Xu o Weimin Huang.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Chi, Y., Xu, Y., Liu, H. et al. Un método de aprendizaje profundo de dos pasos para el registro de riñones 3DCT-2DUS durante la respiración. Informe científico 13, 12846 (2023). https://doi.org/10.1038/s41598-023-40133-5

Descargar cita

Recibido: 04 de abril de 2023

Aceptado: 04 de agosto de 2023

Publicado: 08 de agosto de 2023

DOI: https://doi.org/10.1038/s41598-023-40133-5

Cualquier persona con la que comparta el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.