Un alto

Blog

HogarHogar / Blog / Un alto

Jul 11, 2023

Un alto

Communications Biology volumen 5, Número de artículo: 1318 (2022) Cita este artículo 3281 Accesos 1 Citas 69 Detalles de Altmetric Metrics Presentamos un sistema de imágenes económico con hardware integrado.

Biología de las comunicaciones volumen 5, número de artículo: 1318 (2022) Citar este artículo

3281 Accesos

1 Citas

69 altmétrico

Detalles de métricas

Presentamos un sistema de imágenes económico con hardware y software integrados para capturar imágenes multiespectrales de Lepidoptera con alta eficiencia. Este método facilita la comparación de colores y formas entre especies a escalas taxonómicas finas y amplias y puede adaptarse a otros órdenes de insectos con mayor tridimensionalidad. Nuestro sistema puede obtener imágenes de los lados dorsal y ventral de especímenes inmovilizados. Junto con nuestro proceso de procesamiento, los datos descriptivos se pueden utilizar para investigar sistemáticamente colores y formas multiespectrales basados ​​en la reconstrucción de las alas completas y un plan de base universalmente aplicable que cuantifique objetivamente los patrones de las alas para especies con diferentes formas de alas (incluidas las colas) y sistemas de venación. Se generan automáticamente mediciones morfológicas básicas, como la longitud del cuerpo, el ancho del tórax y el tamaño de la antena. Este sistema puede aumentar exponencialmente la cantidad y calidad de los datos de rasgos extraídos de especímenes de museo.

Las nanoestructuras en las cutículas de los insectos han inspirado muchos diseños de ingeniería novedosos1,2,3,4,5. Dado que se sabe que los insectos pueden percibir longitudes de onda más allá del espectro visible, se pueden perder datos importantes a menos que los sistemas de imágenes utilizados para estudiar las cutículas de los insectos sean capaces de detectar una gama completa de longitudes de onda electromagnéticas potencialmente relevantes. Los estudios actuales sobre el color y la forma de las alas de los lepidópteros (mariposas y polillas) (que en este artículo utilizamos como abreviatura de reflectancia, independiente de cualquier sistema visual) y su forma a menudo se limitan a menos de 100 especímenes3,6 debido a que se necesita mucho tiempo para obtener un solo espécimen. procedimientos basados7,8,9 como la necesidad de separar las alas de los especímenes2,4,10 o organizar y visualizar especímenes individuales con sus etiquetas. Diseñar sistemas que se adapten a la diversidad de formas de las alas9,11 también ha presentado un serio desafío.

Los lepidópteros proporcionan un objetivo ideal para obtener imágenes, ya que la naturaleza bidimensional de los especímenes fijados con alfileres de la mayoría de las mariposas y muchas polillas los hace más manejables para el análisis. Se necesitan métodos adecuados que puedan procesar imágenes multiespectrales de lepidópteros de forma objetiva, sistemática y eficiente. Los principales desafíos son dobles: (1) desarrollo de un sistema de imágenes de alto rendimiento y (2) identificación de un plano o arquetipo universalmente aplicable que pueda generalizarse para capturar las características de las alas en todas las familias.

Convencionalmente, las propiedades multiespectrales de la superficie de un objeto se pueden medir de dos maneras12,13,14,15. Un espectrofotómetro hiperespectral proporciona una alta resolución espectral (~0,1 nm) para un solo punto, mientras que las imágenes multiespectrales pueden crear rápidamente imágenes bidimensionales con alta resolución espacial con cierto costo para la resolución espectral al dividir el espectro en múltiples bandas de longitud de onda de ~100–200 nm cada una (en lo sucesivo denominadas “bandas”) y tomando medidas similares a fotografías en un área grande utilizando una cámara. Algunos sistemas de imágenes de última generación tienen una resolución espectral entre 10 y 20 veces más fina (~5-10 nm), pero cuestan 70 veces más que nuestros aparatos (~350.000 dólares). En la teledetección, los satélites utilizan imágenes multiespectrales para recopilar datos de manera eficiente en grandes áreas de todo el mundo (por ejemplo, el radiómetro avanzado de muy alta resolución [AVHRR] y el espectrorradiómetro de imágenes de resolución moderada [MODIS]). De manera similar, las cámaras multiespectrales comerciales pueden proporcionar mediciones multiespectrales objetivas en superficies bidimensionales, pero aquellas equipadas con alta resolución espacial son prohibitivamente costosas para la mayoría de los laboratorios individuales o colecciones de museos y tienen una eficiencia de obtención de imágenes relativamente lenta, lo que complica su uso en la obtención de imágenes de muestras de alto rendimiento. Por lo tanto, desarrollamos un sistema de imágenes escalable y de alto rendimiento basado en una cámara DSLR de consumo modificada que puede acomodar un cajón de muestras de museo estilo Cornell (450 × 390 × 67 mm) y es capaz de recopilar datos multiespectrales de una gran cantidad de muestras biológicas a la vez. .

Otro componente crucial para comparar un conjunto de insectos taxonómicamente diverso es el uso de un marco analítico apropiado que sea sólido para una variedad de morfologías. Hasta la fecha, el enfoque más común para comparar las formas de las alas y los patrones de color en los lepidópteros se ha basado en gran medida en la venación de las alas9,16,17, que está altamente correlacionada tanto con la historia evolutiva como con el desarrollo fisiológico de las especies que se estudian. En su estudio histórico, Frederick Nijhout describió un “plan general” para analizar el desarrollo de patrones en Nymphalidae y otras mariposas basándose en la variación en el patrón de venación y otras características morfológicas, guiado por un conjunto relativamente pequeño de reglas de desarrollo18. Los enfoques de desarrollo evolutivo más recientes se han alejado del análisis de la forma y la morfología per se y se han centrado en cambio en identificar genes reguladores maestros (p. ej., optix, corteza Wnt A) asociados con el patrón de color de las alas, así como los múltiples elementos reguladores en cis que mejoran su efectos4,10,19,20,21.

Si bien estos avances han ampliado nuestra comprensión de los fundamentos del desarrollo de los patrones de color de las alas, no han abordado el problema práctico de cómo hacer comparaciones sólidas de morfologías de alas muy variables. Por ejemplo, el número de venas de las alas varía entre diferentes familias de mariposas16,22, por lo que no es posible emplear un único sistema de venación para todas las mariposas. La forma de las alas también varía entre especies, y muchos Lycaenidae se distinguen por colas en las alas traseras que no se encuentran en parientes cercanos23,24. Como resultado, la mayoría de los estudios de morfología de alas entre familias se han llevado a cabo únicamente en las alas anteriores, utilizando métricas de las alas que afectan el vuelo, como la relación de aspecto y el momento del área25,26. Para colores y patrones multiespectrales, hay muchas herramientas disponibles27,28,29, pero su aplicación se limita en gran medida a clados individuales que comparten una venación de ala similar2,9,28 o forma7,28.

Los museos biológicos preservan la riqueza de especímenes biológicos del mundo, sin embargo, los estudios de los patrones de color de las alas hasta la fecha se han centrado comúnmente en especímenes que no están en museos porque dicha investigación requiere alas delanteras y traseras intactas2,4,10. Además, los métodos de obtención de imágenes para estos estudios a menudo requieren la desarticulación de muestras, lo que limita su utilidad para futuras investigaciones. Nuestro sistema de imágenes supera algunas de estas dificultades al obtener imágenes no destructivas de especímenes enteros fijados en un rango personalizable de bandas de longitud de onda y procesarlos automáticamente con un marco analítico que es robusto para diversas morfologías de los lepidópteros, incluidas las formas variables de cola y alas.

La naturaleza bidimensional de muchos especímenes de Lepidoptera fijados nos permite omitir algunas consideraciones técnicas, como los ángulos de incidencia variables que deben considerarse cuidadosamente al obtener imágenes de objetos 3D, y nuestro equipo de imágenes multiespectrales con su plataforma diseñada a medida puede obtener imágenes de ambos. los lados dorsal y ventral de los especímenes (Figs. 1a, 2 y 3). Los datos descriptivos iniciales se pueden utilizar para la exploración general de propiedades multiespectrales y la digitalización de muestras de museos (Fig. 1b); Los datos procesados, que se basan en los datos descriptivos iniciales, se pueden utilizar para investigar colores multiespectrales. Después de la reconstrucción de las alas delanteras y traseras (Fig. 1c), el diseño del marco analítico de aplicación universal (Figs. 1d y 4a) puede cuantificar objetivamente las colas de las alas y acomodar diferentes formas de alas y sistemas de venación (Figs. 1e y 4b). El marco también se puede aplicar para estudiar sistemáticamente patrones de color multiespectrales (Fig. 1g, h y 5) al tiempo que proporciona mediciones morfológicas básicas (Fig. 1f).

El flujo de trabajo se ejecuta de arriba a abajo y las funciones principales están resaltadas. a Una imagen ejemplar que muestra la alta capacidad de rendimiento de nuestro sistema de imágenes. b Las imágenes multiespectrales (dos filas superiores) se pueden resumir como imágenes en color falso (fila inferior) mediante análisis de componentes principales, donde el rojo corresponde a PC1, el verde a PC2 y el azul a PC3. c La forma completa del ala se puede reconstruir virtualmente utilizando información de la segmentación dorsal y ventral. d Se puede generar automáticamente un sistema de coordenadas universal para cada ala basado en cuatro puntos de referencia (etiquetados como puntos rojos). e Formas de alas resumidas de dos grupos de mariposas: Lycaenidae en el lado izquierdo y Papilionidae y Nymphalidae en el lado derecho. Las probabilidades de cola (Tail Prob.), la curvatura (Curv.) y el error estándar de la curvatura de la cola (SE de Tail Curv.) están codificados por colores en consecuencia. f Las morfologías corporales y antenales se pueden medir automáticamente durante el procesamiento de imágenes. g Se muestra el resumen de la reflectancia de cuatro bandas espectrales ejemplares (RGB y UV) de tres muestras. h La variación en la reflectancia UV de un grupo de mariposas se resume como "señal UV", que representa los contrastes promedio de la reflectancia UV. El azul indica señal baja y el rojo indica alta.

a Las ranuras precortadas ocultas se ilustran en azul. Las líneas discontinuas blancas, que indican la región que aparece en la imagen, fueron etiquetadas con líneas cosidas en negro en la plataforma de imágenes para guiar al usuario. La barra de escala y las referencias estándar en blanco y negro se encuentran en la esquina inferior izquierda. Los detalles del respaldo de espuma multicapa se pueden encontrar en la Fig. 6. b Los ejemplos muestran cómo se colocan los lados dorsal y ventral de las muestras en la plataforma de imágenes.

a Un conjunto de siete imágenes sin procesar en formato NEF; b Reconocimiento automático de la barra de escala y de las referencias estándar en blanco y negro; c Calibración de la reflectancia según las referencias estándar de blanco y negro; d Las imágenes de muestras individuales se extraen mediante cuadros delimitadores rojos.

La forma completa del ala se puede reconstruir virtualmente según la segmentación dorsal y ventral. a, b Las rejillas de las alas se pueden generar después de c Definir las regiones de la cola. En el panel izquierdo, el límite rojo representa la forma aproximada reconstruida de un ala trasera basada en los cinco armónicos principales después de ser proyectada en el dominio de la frecuencia mediante análisis elíptico de Fourier. b Las rejillas de alas universales pueden acomodar alas deformadas o rotas (p. ej., IV y VIII). I. Smerinthus cerisyi (Sphingidae); II. Catocala connubialis (Erebidae); III. Evenus coronata (Lycaenidae); IV. Heliconius melpomene (Nymphalidae); V. Allancastria cerisyi (Papilionidae); VI. Atrophaneura hector (Papilionidae); VII. Kallima inachus (Nymphalidae); VIII. Corades medeba (Nymphalidae).

a Se pueden proyectar reflectancias cuadriculadas resumidas en bandas azules, verdes y rojas b sobre las formas promedio de las alas de un grupo seleccionado de especímenes. c, d Señal UV (el contraste UV promedio entre especies) que muestra las regiones variables probablemente altamente UV más comunes en las alas. e, f Variación de las regiones variables de UV entre especies, lo que indica regiones de patrones de UV que están altamente conservadas (azul) frente a aquellas que cambian más activamente (rojo).

Nuestro sistema de imágenes multiespectrales de alto rendimiento representa un compromiso entre la velocidad de las imágenes tradicionales y la necesidad de datos espectrales objetivos. El sistema consta de una cámara SLR de alta resolución (Nikon D800) a la que se le ha quitado el filtro UV-IR interno para permitir la obtención de imágenes UV-IR-visible, equipada con un objetivo zoom Nikkor con enfoque automático de 28–80 mm f/3,3–5,6 G ( Métodos). La plataforma de imágenes personalizada se diseñó para acomodar ambos extremos de un pasador, de modo que las muestras montadas se puedan colocar en la plataforma en sentido dorsal o ventral (Métodos; Fig. 2). Una barra de referencia que contiene referencias estándar en blanco y negro y una barra de escala se adjunta a la plataforma de imágenes en cada ronda de imágenes mediante un sujetador de gancho y bucle (Métodos; Fig. 6a). El costo aproximado, excluyendo el costo computacional, es de ~$4500 (Información complementaria).

a Barra de referencia yb Materiales correspondientes. c Plataforma de imágenes con las ranuras precortadas ocultas que se muestran en azul y d Materiales correspondientes. (1) Referencias de estándar negro (estándar negro Spectralon AS-001160-960, Labsphere) y blanco (estándar blanco Spectralon AS-001160-060, Labsphere); (2) Tiras de gancho y bucle con adhesivo (2,4″ × 2,4″); (3) Etiquetas adhesivas de evidencia forense (medida 2 cm; A-6243); (4) Papel fotográfico adhesivo resistente al desgarro e impermeable; (5) Almohadillas de espuma negra con esponja de neopreno y adhesivo (12″ × 8″ × 1/4″); (6) hilo de algodón negro; (7) Kit de barra de bastidor de lona (16″ × 20″); (8) Espuma de caucho negro con esponja de neopreno y adhesivo (12″ × 8″ × 1/8″); (9) Almohadillas antivibración de espuma de neopreno con adhesivo (6″ × 6″ × 1/4″); (10) Espuma de polietileno (18″ × 16″ × 1,5″). Puede encontrar información detallada en Información complementaria.

Para cada conjunto de muestras, se toma una serie de siete imágenes (en lo sucesivo denominadas "imágenes de cajón"; Fig. 3a) en formato sin formato (*NEF) en el transcurso de dos minutos. Estas siete imágenes de cajón corresponden a los siguientes rangos de imágenes espectrales (con detalles sobre los ajustes de luz incluidos en Métodos): solo UV (λ = 360 nm; luz reflejada filtrada a través de un filtro de paso UV Hoya U-340 en la cámara; UV combinado reflectancia y fluorescencia visible sin filtrar (llamada UVF en lo sucesivo) compuesta por UV reflejado y toda la fluorescencia visible inducida por UV; dos bandas de IR cercano (luz reflejada sin filtrar de LED de λ = 740 nm [NIR] y 940 nm [fNIR]); y tres en lo visible (luz LED blanca de banda ancha reflejada, λ = 400–700 nm, una imagen RGB sin filtrar y dos imágenes RGB filtradas por polarizadores lineales en ángulos ortogonales para detectar la polarización a lo largo de ese eje), que luego se descomponen en rojo, verde y azul. canales Se pueden obtener imágenes de hasta treinta y cinco especímenes fijados simultáneamente, dependiendo de su tamaño, con los lados de las alas mirando hacia dorsal o ventralmente.

Todas las imágenes de cajón sin procesar (multiespectrales) se cargan en un entorno informático de alto rendimiento, donde hemos desarrollado un canal para procesar imágenes automáticamente. Sin embargo, se puede procesar una pequeña cantidad de imágenes (<5) en un escritorio con recursos razonables y un tiempo de ejecución más largo (Métodos). Para preservar el gradiente de color de las muestras, las imágenes se convierten primero en formato TIFF linealizado de 16 bits30 mediante dcraw31 (un programa de código abierto para manejar formatos de imágenes sin procesar). Luego, estas imágenes TIFF de 16 bits se analizan mediante scripts de MATLAB. Un conjunto de siete imágenes de cajón se considera una unidad informática, y el mismo grupo de especímenes en la unidad dorsal tiene una unidad ventral correspondiente (Métodos).

Cada unidad informática (Fig. 3a) se lee en la memoria y las referencias estándar en blanco y negro se reconocen en la imagen blanca (RGB normal) por sus formas circulares (Fig. 3b). En lugar de calcular el número exacto de fotones absorbentes en cada sensor13,27, empleamos la técnica de detección remota32 de convertir todos los valores de píxeles en unidades de reflectancia (albedo) (entre 0 y 1) de acuerdo con los estándares de referencia en blanco y negro (Métodos; Fig. .3c). La escala de la imagen del cajón se reconoce automáticamente mediante la comparación de características locales con una imagen de referencia de la misma escala, y se deriva el número de píxeles por centímetro (Métodos; Fig. 3b).

La variabilidad de la fijación de muestras y la aberración óptica del sistema de lentes de la cámara introducirían errores de medición durante el proceso de obtención de imágenes. Estimamos que este rango de error en la medición de la longitud es inferior al 0,4% (o 0,16 mm de una mariposa de 4 cm (Métodos; Fig. 7). Aunque el error es mínimo, dejamos un margen claro de 5 cm alrededor de los bordes de la longitud. etapa en la que se toman imágenes de las muestras para evitar una aberración relativamente alta en las proximidades de los límites de la imagen (Fig. 7d).

a Ilustración de estándares de escala colocados a diferentes alturas sobre pasadores. b Vista de la imagen tomada por el sistema de imágenes. c, d Distribución de frecuencia c y distribución espacial d de anomalías de tamaño en porcentaje absoluto en comparación con una mariposa de 4 cm. e, f Se proporciona el valor bruto para d & e. La línea discontinua en c y e indica mediana y cero, respectivamente. La región delimitada por la línea discontinua roja en d, f es donde colocamos nuestras muestras para obtener imágenes.

Se aplica posprocesamiento a las bandas UV, NIR (740 nm), fNIR (940 nm) y UVF para tener en cuenta la sensibilidad diferencial del sensor a estas longitudes de onda en los canales rojo, verde y azul (Métodos; Fig. 3c). , excepto la banda blanca RGB, que no requiere posprocesamiento. Se calcula un índice de polarización como la diferencia absoluta entre las dos imágenes blancas RGB polarizadas ortogonalmente. Esta única medida de polarización también puede proporcionar una indicación de la aparición de coloraciones inducidas por la estructura, lo que sugiere si se deben realizar estudios adicionales para investigar la polarización en otros ángulos de visión o de luz incidente33.

Nuestras observaciones preliminares mostraron que los lepidópteros tienen el mayor contraste con el fondo en la banda fNIR (940 nm), por lo que explotamos esta propiedad para ayudar a reconocer y extraer imágenes de especímenes individuales de las imágenes del cajón. (Métodos; Fig. 3d). Las imágenes de múltiples bandas de cada muestra se alinearon en una pila de imágenes en capas (Fig. 8a, b) según transformaciones geométricas afines, como traslación, rotación, escala y corte. Este paso requiere relativamente tiempo y el tiempo de procesamiento varía aproximadamente con el tamaño de la muestra. En esta etapa, la pila de imágenes de muestras de múltiples bandas registradas, nuestros datos descriptivos iniciales, pueden archivarse como parte de los datos extendidos de una muestra o transformarse aún más mediante nuestra canalización en datos procesados ​​de nivel superior que producen datos de rasgos de forma, color y patrón. . Para mayor comodidad, incluimos una capa de máscara binaria adicional con la información necesaria para eliminar el fondo (Métodos).

a El formato multicapa (“formato de celda”, término técnico utilizado en MATLAB) se aplica para contener los datos descriptivos de un solo lado de una muestra. b La aparición de algunas capas ejemplares de la licénida sudafricana, Chrysoritis pyramus. El orden real de las capas de salida se puede encontrar en la Información complementaria. c Se pueden encontrar variaciones en las propiedades de escala que afectan la reflectancia UV dentro de un solo espécimen de Hebomoia glaucippe, en comparación aquí con C. pyramus a la izquierda y A. wildei a la derecha.

Los datos descriptivos iniciales completos contienen imágenes multibanda registradas (que incluyen UV, azul, verde, rojo, NIR, fNIR, fluorescencia [RGB] y polarización [RGB]), una máscara de eliminación de fondo y la barra de escala) (Fig. 3a y 8a,b). Aunque se requieren más análisis para extraer datos de rasgos específicos de estos conjuntos de datos, pueden ser poderosas ayudas visuales en el descubrimiento de nuevos tipos y estructuras de escamas de alas. Por ejemplo, las manchas anaranjadas en las puntas de las alas anteriores de Hebomoia glaucippe (L.) muestran una fuerte reflectancia UV14,15 (Figs. 3c y 8c), pero las manchas anaranjadas de Chrysoritis pyramus (Pennington) no, lo que sugiere una diferencia en la capa subyacente. Mecanismo físico que produce estos colores. De manera similar, el fondo blanco de Hebomoia glaucippe muestra poca reflectancia UV14, pero las manchas blancas de Arhopala wildei Miskin (y muchas otras especies con manchas blancas) muestran una reflectancia UV significativa. (Figura 8c). Con un convertidor adecuado, estos datos descriptivos iniciales se pueden utilizar en paquetes de software27,29 para análisis que tengan en cuenta una variedad de sistemas visuales animales. Existe un inmenso potencial para el descubrimiento de fenómenos multiespectrales actualmente ocultos en las colecciones de los museos de todo el mundo durante siglos utilizando únicamente estos datos descriptivos iniciales.

Se diseñó una serie de procesos analíticos más complejos para cuantificar aún más la reflectancia multiespectral y los rasgos de forma. Después de una segmentación detallada de diferentes partes del cuerpo, se aplican canales personalizados de “cuantificación de cola” y “coordenadas ala-cuadrícula” para registrar información sobre las colas, la forma de las alas y los rasgos de reflectancia multibanda.

Nuestros datos descriptivos iniciales incluyen un contorno general del espécimen, pero para segmentar este contorno en diferentes partes del cuerpo, se identifican puntos de referencia clave basados ​​en la geometría convencional, que incluye, entre otros, la búsqueda matemática de la topología del contorno del espécimen (etiquetado como cruces y círculos). en la figura 9b). Incluimos dos métodos de segmentación. La segmentación básica (segmentación totalmente automatizada de las formas de los especímenes según puntos de referencia con líneas rectas) se puede utilizar en ausencia de datos de la segmentación manual de las alas delanteras y traseras, que requiere más tiempo. El proceso de segmentación de las alas delanteras y traseras definido manualmente es semiautomático, con participación humana a través de un paquete de software independiente adaptado de un repositorio de GitHub llamado “moth-graphcut”32, y las segmentaciones derivadas de él tienen un aspecto más natural (Fig. .9c). La segmentación básica es muy eficiente y no requiere intervención humana, pero es menos precisa (la inspección y la corrección se analizan más adelante). Por el contrario, la segmentación manual de las alas delanteras y traseras proporciona una alta precisión de la forma natural del ala y la reconstrucción del ala completa, con un rendimiento de aproximadamente 100 imágenes de especímenes procesadas por hora. En ambos métodos, también se mide y recopila automáticamente información morfológica adicional, como el tamaño del cuerpo, la longitud del cuerpo, el ancho del tórax, la longitud de la antena, el ancho de la antena y la curvatura de la antena, junto con la segmentación de las partes del cuerpo (Métodos; Fig. 1f).

a Eliminación de fondo basada en la imagen fNIR. b Con puntos de referencia primarios (representados por cruces y círculos) y vectores que identifican los ejes simétricos (representados por segmentos en la línea roja sólida y la línea discontinua azul), la máscara de la muestra se puede segmentar automáticamente c Con o sin división de las alas delanteras y traseras definida manualmente de la región de superposición. La especie que se muestra en (a – c) es Oxylides faunus. d Se puede calcular el resumen estadístico (media, variación y tamaño del parche) de todas las bandas de ambos lados (dorsal y ventral) de todas las partes del cuerpo (cuatro alas y el cuerpo). e Resultados estadísticos de bandas ejemplares basados ​​en 17 especímenes de 7 familias diferentes. La línea central representa la mediana; límites de caja, cuartiles superior e inferior; bigotes, rango intercuartil 1,5x; puntos, valores atípicos. Los niveles estadísticamente significativos de diferencia entre los lados dorsal y ventral (bajo la prueba t de dos colas) están etiquetados con asteriscos: *, 0,05; **. 0,01.

Una vez que las muestras se segmentan en partes del cuerpo, se puede resumir la reflectancia multiespectral de cada parte del cuerpo (Fig. 9d). Además de los análisis que se pueden hacer a nivel individual con los datos descriptivos iniciales, se pueden realizar comparaciones más detalladas entre los lados dorsal y ventral de diferentes partes del cuerpo. Por ejemplo, al analizar la reflectancia de 17 especímenes de 7 familias diferentes, podemos observar que el ala trasera dorsal muestra una reflectancia UV significativamente mayor que su lado ventral (Fig. 9e), posiblemente para ayudar en la señalización, mientras que el lado ventral del cuerpo y las alas anteriores muestran una reflectancia fNIR más alta que el lado dorsal (Fig. 9e), posiblemente para ayudar en la termorregulación. Sin embargo, se necesita un procesamiento adicional para producir datos de rasgos coherentes dentro de partes individuales del cuerpo que sean comparables entre taxones relacionados más lejanamente.

Para comparar rasgos de ala multiespectrales en diferentes formas de ala, desarrollamos un proceso generalizable que consta de cuatro componentes principales (Fig. 4): (1) reconstrucción completa de la forma del ala, (2) identificación de puntos de referencia secundarios, (3) generación de rejilla del ala y ( 4) resumen de la cola del ala trasera. Este sistema supera la dificultad particular de contabilizar y cuantificar diversas colas de alas traseras, y los datos procesados ​​generados a partir de esta tubería también se pueden aplicar directamente en análisis de forma.

En los lepidópteros y muchos otros insectos alados, una región del ala trasera a menudo se superpone a una porción del ala anterior, lo que complica la reconstrucción automatizada de la forma. En nuestro paradigma de imágenes, el ala trasera de un espécimen está superpuesta por el ala anterior en la imagen del lado dorsal, y el ala anterior está superpuesta por el ala trasera en la imagen del lado ventral (Fig. 4a). En nuestro algoritmo, los límites de las alas anteriores y posteriores definidos manualmente se utilizan para reconstruir el borde del ala trasera que falta en el lado dorsal y el borde del ala anterior incompleto en el lado ventral de un espécimen. Después de reconstruir un ala completa, los puntos de referencia secundarios se identifican automáticamente (Fig. 1d y 4a). Las colas de las alas traseras se separan computacionalmente de los cuerpos de las alas antes de su posterior procesamiento (los detalles sobre los análisis de las colas se pueden encontrar en Métodos). Luego se crea un conjunto de rejillas de alas de acuerdo con los puntos de referencia secundarios de cada ala (Fig. 1d y 4a). Este sistema de cuadrícula, que divide la silueta de un espécimen según el centroide de un conjunto de cuatro esquinas, es resistente a las diferencias de forma entre diferentes especies, incluso para lepidópteros distantes (p. ej., Sphingidae y Lycaenidae; Fig. 4b). Además, la mayoría de estas rejillas permanecen estables incluso en presencia de daños moderados en las alas (IV y VIII en la Fig. 4b). La resolución predeterminada de estas matrices es 32 × 32, pero también se puede ajustar para acomodar especímenes con áreas de alas más grandes.

La cuantificación de las colas de las alas traseras y las formas de las alas también se basa en este sistema cuadriculado (Métodos; Figs. 1e y 4c), y se puede aplicar a todos los lepidópteros (Fig.1e), sin necesidad de una identificación a priori de la presencia o ausencia de colas. . A diferencia de otros paquetes28, nuestra tubería de rejilla de alas permite comparar diversas formas de alas, especialmente alas traseras, con diferentes sistemas de venación y colas (Fig. 4b). El número par de anclajes cuadriculados (p. ej., 128 puntos en un sistema cuadriculado de 32 × 32) en la silueta de un ala se puede utilizar como "puntos de referencia" para comparar formas en otras aplicaciones9,11,34 (Fig. 4b). También se puede utilizar para resumir patrones de alas multiespectrales.

Con base en este sistema de cuadrícula de ala, se puede calcular la reflectancia promedio y la variación de cada cuadrícula (Figs. 1g y 5a), y los resultados de un análisis de ala se pueden almacenar en una matriz de 32 × 32 por N (donde N es el número de bandas de longitud de onda). La resolución de 32 × 32 estuvo determinada por el tamaño de los pequeños ejemplares que manejamos; por ejemplo, deja de tener sentido resumir los datos de un ala con 50 × 50 píxeles utilizando una resolución más fina (por ejemplo, 64 × 64). Este formato estándar facilita análisis estadísticos adicionales entre una amplia variedad de grupos de lepidópteros con diferentes formas de alas.

Los resultados de los análisis de patrones de alas se pueden proyectar aún más en una forma de ala promedio de un grupo para una interpretación más intuitiva (Figs. 1h y 5b). Por ejemplo, la reflectancia promedio identifica regiones de ala generalmente más brillantes (Fig. 5b) para las bandas RGB. Las regiones de alto contraste UV parecen ser importantes en la señalización intraespecífica de UV35, y encontramos que es más probable que dichas regiones se vean en el lado dorsal de Lycaenidae, pero en el lado ventral de Papilionidae (Fig. 5c, d). También podemos comparar la variabilidad en la ubicación de estas regiones variables de alto UV para un grupo determinado de taxones para mostrar dónde están altamente conservados (valores bajos) versus dónde son más lábiles (valores altos; Fig. 5e, f). Estas regiones conservadas indican que la variación UV (que podría estar implicada en la señalización) en esa región del ala (esté presente o no) está muy limitada y, por lo tanto, es estable en diferentes especies. Aunque estos son ejemplos elegidos para ilustrar una amplia variedad de formas de alas en lugar de centrarse en una cuestión científica específica, ya comienzan a proporcionar conocimientos biológicos para estudios posteriores, lo que demuestra la utilidad de llevar a cabo estudios sistemáticos de los rasgos de los lepidópteros utilizando este enfoque.

Dados los tamaños de archivos relativamente grandes (~240 Mb por imagen) y los procesos de posprocesamiento que requieren mucho tiempo, la mayoría de nuestros protocolos están diseñados para ejecutarse en entornos informáticos de alto rendimiento (es decir, clústeres); sin embargo, inspeccionar y corregir manualmente las imágenes resulta inconveniente en dichos entornos. Por lo tanto, diseñamos el proceso para permitir que una pequeña proporción del conjunto de datos se descargue en una máquina local para su inspección y corrección manual. En total, nuestro oleoducto tiene cinco puntos potenciales donde la inspección y corrección manual son posibles (Métodos). En cada punto de inspección, también desarrollamos scripts e interfaces de usuario correspondientes para corregir manualmente el conjunto de datos en máquinas locales con requisitos mínimos de recursos (bajos requisitos de almacenamiento, memoria y CPU). También se desarrollaron scripts para configuraciones de visualización personalizadas para la forma de las alas (incluidas las colas) y los patrones de las alas (métodos, información complementaria y disponibilidad de datos).

Este sistema permite a los investigadores producir y archivar de manera eficiente imágenes multiespectrales informativas y de alta calidad de especímenes de museo. Después de haberlo aplicado a más de 10 000 muestras hasta la fecha, hemos descubierto que se pueden obtener imágenes de un cajón de muestras de Cornell (entre 60 y 80 individuos) en 2 horas, dado nuestro flujo de trabajo actual. Esta estimación incluye el manejo, la recuperación y la reintegración de las muestras en las colecciones, aunque el tiempo de obtención de imágenes suele ser inversamente proporcional al tamaño de las muestras. La digitalización de las colecciones de los museos se ha convertido en una misión de instituciones de todo el mundo, con un gran número de especímenes procesados ​​en las últimas décadas36,37. Estos registros digitalizados se aplicaron con fines científicos y sociales con el apoyo de gobiernos y ciudadanos a través de diferentes sistemas y plataformas de curación, como GBIF (http://www.gbif.org), iDigBio (http://www.idigbio.org) , MCZBase (https://mcz.harvard.edu/database), Atlas of Living Australia (http://www.ala.org.au/), Mapa de vida (https://mol.org/) y ButterflyNet (http://www.butterflynet.org/). Los sistemas y sistemas de imágenes, que van desde la fotografía tradicional 2D37 hasta la tomografía computarizada 3D38,39 y la fotogrametría 3D39,40 con o sin interfaces de usuario convenientes, también han experimentado grandes mejoras, a menudo con los correspondientes precios elevados. Nuestro sistema de imágenes multiespectrales proporciona un importante paso adelante para aquellos interesados ​​en el fenotipado espectral de alto rendimiento o la digitalización de muestras de una manera rentable, que esperamos seguir adaptando a medida que madure el campo de la digitalización de archivos.

Anticipamos una serie de posibles mejoras al sistema actual. En cuanto al hardware, la incorporación de un plano de rotación en nuestra plataforma de imágenes actual permitirá a los investigadores estudiar la reflectancia en diferentes ángulos incidentes33, que inicialmente no incluimos debido a la naturaleza bidimensional de la mayoría de los especímenes de lepidópteros. Nuestra tubería actual no puede acomodar las alas que se han desprendido del cuerpo de un insecto, por lo que el desarrollo de una plataforma de imágenes para montar alas individuales también ampliará la utilidad potencial de este sistema.

En cuanto al software, la eficiencia mejoraría enormemente al reducir la necesidad de entrada manual41. Por ejemplo, con un número suficientemente grande de imágenes previamente procesadas como conjunto de entrenamiento, se puede desarrollar un sistema de inspección y autocorrección automático basado en el aprendizaje automático. Se podría aplicar un enfoque similar en el caso de la segmentación de las alas anteriores. La utilidad de este protocolo de imágenes en estudios morfológicos a gran escala de Lepidópteros avanzará aún más si también se pudiera desarrollar una segmentación más detallada de las partes del cuerpo (por ejemplo, ojos, piernas y probóscide).

La versión actual solo admite aquellos especímenes con cabezas colocadas hacia la parte superior de una imagen. Una corrección rotacional automática podría ayudar a orientar las muestras para un procesamiento posterior óptimo. La interfaz de usuario también podría mejorarse, ya que el diseño actual requiere comunicación de ida y vuelta entre un grupo informático y la máquina local del usuario. Una interfaz de usuario unificada podría ayudar a simplificar el funcionamiento de protocolos complejos.

Para conectar los resultados de los análisis de imágenes descritos aquí con el conocimiento existente en los campos de la evolución y la biología del desarrollo, parece esencial la integración de los datos con conocimientos evolutivos de los sistemas de venación de las alas. El sistema de rejilla de las alas proporciona coordenadas de aplicación universal para comparar la forma y la reflectancia entre diversos taxones de lepidópteros. Al registrar los sistemas de venación de las alas en estas rejillas de las alas, se pueden explorar más a fondo las relaciones entre la venación, la reflectancia multiespectral y las formas.

Las colecciones de los museos son vastos depósitos de información biológica de valor tanto básico como aplicado, que simplemente esperan ser extraídas. El hardware de imágenes y el software de procesamiento de rejillas de alas relativamente económicos y fáciles de usar que se presentan aquí permitirán a los investigadores del museo explorar con alta eficiencia las propiedades multiespectrales no sólo de los lepidópteros sino también de muchos otros grupos de insectos. También facilitará la comparación de colores y formas entre especies con formas de alas muy diversas, a diferencia de otros paquetes disponibles para el estudio de colores y patrones. Estos métodos se pueden adaptar fácilmente para estudiar otros temas bidimensionales similares, como las hojas de plantas o los microorganismos cultivados. Nuestros métodos tienen el potencial de revolucionar la eficiencia y accesibilidad de la recopilación de datos de reflectancia y forma de especímenes biológicos, proporcionando una rica fuente de información para la bioinnovación de colecciones de todo el mundo.

El sistema consta de una cámara SLR de alta resolución (Nikon D800), equipada con un objetivo zoom Nikkor con enfoque automático de 28–80 mm f/3,3–5,6 G. La cámara está montada dentro de una caja de luz rectangular construida con láminas de aluminio 6061 de 0,125 ″ de espesor (McMaster-Carr: 89015K18), montada en una extrusión de marco de aluminio con ranura en T (McMaster-Carr: 47065T101), que mide 36 pulgadas de alto y 24 pulgadas. ancho y profundo, y abierto en la parte inferior. Dentro de la caja de luz, hay 4 bancos de emisores LED montados a 18 pulgadas de alto en los lados, sobre disipadores de calor de aluminio grueso que se pueden girar hacia arriba y hacia abajo para proporcionar iluminación directa o indirecta. Cada banco de LED está compuesto por placas de circuito impreso con núcleo metálico de 4 estrellas (MCPCB, OSRAM Opto Semiconductors Inc.), una para cada banda de longitud de onda y cada una con 6 LED individuales. Las cuatro bandas de longitud de onda son ultravioleta (UV 365 nm: LZ1-30UV00-0000), blanca (blanco frío: LZ1-10CW02-0065), IR de 740 nm (rojo de 740 nm: LZ4-40R308-0000) e IR de 940 nm ( 940 nm Rojo: LZ1-10R702-0000). La cámara está atornillada a un monopié (Sinvitron Q-555) unido a una pieza de extrusión de marco que se extiende por el centro de la caja de luz, con la lente sostenida a 28,25 pulgadas de la parte inferior. Una rueda de filtros motorizada con cuatro ranuras está montada directamente debajo de la lente, con una ranura vacía para imágenes RGB blanco, UVF, NIR y fNIR sin filtrar, un filtro de paso UV Hoya U-340 para imágenes solo UV y dos B + W. Polarizadores circulares KSM montados en ángulos ortogonales, para imágenes polarizadas en blanco diferencial.

Un microcontrolador (PJRC, Teensy ++ 2.0) y un controlador paso a paso (Sparkfun, ROB-12779) controlan un motor (Mercury Motor, SM-42BYG011-25) que hace girar una rueda de filtro personalizada con referencia a un interruptor de origen. Los LED son controlados por bancos de controladores actuales (LEDdynamics, 3021-DI-100) con un microcontrolador que coordina el tiempo de iluminación (PJRC, Teensy 3.2). La cámara está controlada por el software DigiCamControl de código abierto (DigiCamControl V2.0.0). La coordinación del funcionamiento de la cámara, la iluminación LED, el posicionamiento de la rueda de filtros y la transferencia de imágenes se realiza mediante una computadora de escritorio que ejecuta un programa LabView personalizado42. Todos los diseños de software y hardware están disponibles a pedido.

Para minimizar la reflectancia del fondo, el material utilizado en la construcción de la plataforma se eligió cuidadosamente y se probó la neutralidad espectral desde las bandas ultravioleta hasta las del infrarrojo cercano (Fig. 1a y 6). Incluimos una serie de ranuras precortadas en el respaldo de espuma multicapa subyacente para que las muestras sujetas con alfileres pudieran empujarse y sujetarse fácilmente con la parte superior o la punta del alfiler, para permitir imágenes dorsales y ventrales eficientes (Fig. 2b). ). Se adjunta una barra de referencia que contiene referencias estándar de negro (spectralon 2% de reflectancia AS-001160-960, Labsphere) y blanco (spectralon 99% de reflectancia AS-001160-060, Labsphere) en colores de fondo contrastantes y una escala (Fig. 6). Probamos el sistema utilizando especímenes de lepidópteros de la colección de entomología del Museo de Zoología Comparada. La superficie de imagen de cada muestra se ajustó aproximadamente a la misma altura que la barra de referencia estándar.

Un conjunto de siete imágenes de cajón se considera una unidad informática, y el mismo grupo de especímenes en la unidad dorsal tiene una unidad ventral correspondiente. Cada unidad se procesa de forma independiente, de modo que todas las unidades se pueden procesar en paralelo en el clúster. Los recursos asignados para cada trabajo/unidad se establecen en dos núcleos con veinticuatro gigabytes de memoria para doce horas. La mayoría de las imágenes se pueden procesar completamente en seis horas, pero los especímenes más grandes (p. ej., Papilionidae, Nymphalidae y Saturniidae) tardan más. En este caso, se eligieron múltiples enfoques para maximizar el grado de automatización para condiciones de muestra muy variadas, aumentando el tiempo de procesamiento de imágenes de minutos a horas. Si bien los algoritmos simples pueden ser eficientes, no son generalizables. En condiciones más rápidas pero más simplistas, la cantidad de valores atípicos que tendrían que manejarse manualmente aumentaría, consumiendo en última instancia más tiempo y trabajo humano que el dedicado al cálculo en una situación de alto rendimiento.

Para cada unidad, se procesa un conjunto de siete imágenes de cajones (Fig. 3a) después de que se reconocen las referencias estándar en blanco y negro (Fig. 3b). La reflectancia de un parche circular en el centro de cada estándar se puede extraer para todas las bandas (evitando los márgenes, que pueden distorsionarse o contaminarse más fácilmente accidentalmente como subproducto de las imágenes frecuentes) (Fig. 3b). Al comparar la intensidad de los píxeles de la imagen con los valores de reflectancia conocidos de los estándares para la calibración, podemos reescalar y calibrar todos los píxeles de la imagen13,30 (Fig. 3c) con las reflectancias de las referencias estándar proporcionadas por el proveedor (Información complementaria). Los valores pueden diferir ligeramente de un estándar a otro, por lo que es necesario medirlos de forma independiente para proporcionar una línea de base inicial. La escala en la imagen del cajón se puede reconocer automáticamente mediante la comparación de características locales con una imagen de referencia determinada de la misma escala. Se pueden extraer los puntos característicos de las dos imágenes (la imagen de referencia y la del cajón), y se pueden identificar los puntos coincidentes mediante el descriptor de características robustas aceleradas (SURF)43, que es una versión avanzada de la transformación de características invariantes de escala (SIFT)44 . Luego se aplican procedimientos de procesamiento de imágenes convencionales adicionales (por ejemplo, erosión, dilatación y filtrado de objetos) a la escala detectada para derivar el número de píxeles representados en un centímetro (Fig. 3b).

El posprocesamiento de cada una de las bandas restantes es el siguiente: debido al diseño de mosaico no superpuesto de los filtros RGB Bayer, hay más receptores de luz verde que roja y azul en las cámaras SLR de consumo13,30,45. En entornos con poca luz RGB, es más probable que las señales recibidas por los sensores verdes se utilicen para estimar los valores de color faltantes, lo que compensa las señales insuficientes detectadas en los sensores rojo y azul. Este fenómeno se manifestó en nuestras imágenes UV, por lo que el canal verde se excluyó cada vez que se calibró una imagen UV. Para NIR (740 nm), que no está lejos del rango espectral detectado de los sensores azules de una cámara, el canal azul no se incluyó al derivar el producto NIR (740 nm), porque los sensores azules de la cámara aún pueden detectar minutos. señales NIR y, por tanto, introducen ruido. Por el contrario, fNIR (940 nm) está más distante de la detección de sensores azules, por lo que se aplicó la calibración RGB normal. Para la fluorescencia en todos los canales RGB, calculamos la diferencia de reflectancia entre las imágenes UVF y UV (UVF deduce UV). En este caso no evitamos el canal verde de las imágenes UV, o no habríamos obtenido valores de intensidad razonables para la fluorescencia verde. La fluorescencia cuantificada por nuestro enfoque sólo debe compararse con objetos medidos utilizando un enfoque similar. Dado que la fluorescencia y algunas bandas de longitud de onda (por ejemplo, UV y polarización) suelen ser tenues en comparación con otras longitudes de onda, las imágenes mostradas en este artículo se han ajustado para una mejor visibilidad humana.

Utilizamos lentes convencionales en nuestro sistema de imágenes por motivos de rentabilidad y facilidad de uso, pero dichos lentes son propensos a sufrir distorsiones espaciales y ópticas, generalmente hacia los límites de la imagen. Para cuantificar la magnitud de estas distorsiones en las mediciones tomadas por nuestro sistema de imágenes, se fijaron treinta barras de escala a diferentes alturas (para simular una variabilidad extrema en la altura de fijación) y se extendieron sobre la plataforma de imágenes (Fig. 7a, b). Se incluyeron diferentes alturas de alfileres para cada columna y fila, aunque esto dio como resultado que las barras de escala en las cuatro esquinas estuvieran todas cerca de la parte superior del alfiler. Luego se analizó la imagen RGB (Fig. 7b) en el proceso de procesamiento de imágenes. Para cada barra de escala, se registró la ubicación en la plataforma de imágenes y el número promedio de píxeles que indican un centímetro.

Dado que nuestro enfoque fue diseñado para adaptarse a la alta diversidad de lepidópteros, se pueden obtener imágenes juntas de especímenes con diversas formas de alas (Fig. 3). La posición aproximada de cada muestra se determina de acuerdo con la imagen fNIR y se genera un cuadro delimitador rectangular con la inclusión de zonas de amortiguamiento en los cuatro bordes (1/5 de la altura de la muestra hasta la parte superior; 1/15 de la altura hasta la parte inferior; 1 /20 de ancho hacia los límites izquierdo y derecho). Las muestras se recortan de acuerdo con los cuadros delimitadores correspondientes (Fig. 3d), y el algoritmo de recorte filtra automáticamente los objetivos difíciles (por ejemplo, patas y antenas, y manchas formadas por escamas caídas) en la plataforma de imágenes. Esta función puede eliminar accidentalmente muestras pequeñas, por lo que el valor umbral está diseñado para especificarse manualmente de acuerdo con el tamaño mínimo de la muestra que se va a visualizar en la plataforma de imágenes. Los esfuerzos para automatizar este paso no fueron factibles. Si el procedimiento de filtrado está automatizado, las muestras pequeñas se filtrarán automáticamente como objetos que no son de muestra cuando se tomen imágenes de muestras grandes y pequeñas juntas. Por ejemplo, el tamaño de una parte del cuerpo de un papilionido caído puede ser tan grande como el tamaño de una pequeña licénida a la que le falta un ala, y nos gustaría filtrar la primera pero conservar la segunda.

La eliminación del fondo, en la que se recorta selectivamente una muestra del fondo de la imagen, es parte del proceso de segmentación e implica muchos pasos, por lo que aquí solo se proporciona el esquema general del procedimiento. Dado que la intensidad de la reflectancia difiere de una especie a otra, se utilizó un enfoque de consenso basado en tres técnicas de segmentación para manejar la diversa gama de lepidópteros: agrupamiento de k-medias28,46, filtrado gaussiano29,47 y contorno activo48,49. La técnica de agrupamiento de K-medias divide una imagen RGB de color falso compuesta por una banda NIR y dos bandas fNIR en cinco grupos (k = 5). Luego se identifican el color de fondo y la ubicación, y las regiones restantes se etiquetan como muestra. La técnica del filtro gaussiano utiliza un filtro gaussiano en toda la imagen para suavizar variaciones relativamente menores dentro de una muestra mientras mantiene un alto contraste entre los límites de una muestra y el fondo, lo que facilita las técnicas de segmentación convencionales. La técnica de contorno activo (también conocida como Serpientes) también se aplicó para encontrar un contorno objetivo de un espécimen creciendo iterativamente desde la región especificada inicial hacia los límites del objeto (Fig. 9a).

Las antenas y el abdomen a veces requieren atención adicional durante la etapa de segmentación, particularmente cuando se superponen o tocan otras partes del cuerpo que se están segmentando. Las patas que se extienden desde debajo del abdomen pueden interferir con el corte preciso de las alas traseras. Utilizando una simple erosión de la imagen (deducción con cierta lógica básica), las antenas que tocan el borde anterior del ala anterior se conservan tanto como sea posible sin dañar la forma del ala anterior. Sin embargo, las patas que se cruzan con otras partes del cuerpo se eliminan automáticamente para preservar la forma de las alas traseras. En casos raros, se generaron máscaras delimitadoras de rectángulos como máscaras de marcador de posición cuando la muestra no se podía extraer del fondo en una sola pieza o cuando se producían errores graves en el proceso de formación de máscaras de muestra. Se pueden encontrar ejemplos y descripciones detallados en la Información complementaria.

Se utilizaron códigos de barras de muestras como nombre de archivo para un conjunto de imágenes de muestras (lados dorsal y ventral). En la etapa de procesamiento de imágenes se requirió un conjunto de datos (en formato csv) que contiene la información de todos los nombres de imágenes y muestras fotografiadas, que se pueden generar manualmente (busque el Protocolo en Información complementaria); de lo contrario, se asignaron automáticamente códigos de barras temporales (p. ej., “Tmp-1” y “Tmp-2”) para nombrar un conjunto de imágenes de muestras.

La información sobre el tamaño del cuerpo, la longitud del cuerpo y el ancho del tórax se mide después de la eliminación virtual de las cuatro alas (Fig. 1f). Para una antena, se desarrollaron una serie de mediciones (Fig. 1f): la longitud de un camino seguido a lo largo de una máscara antenal curva corresponde a la longitud de la antena; la anchura media de una antena puede derivarse del área de máscara de una antena dividida por su longitud; y la curvatura de la antena se calcula como la longitud de la antena dividida por la distancia lineal directa entre su punta y su base. El tamaño de un bulbo antenal también se puede obtener a partir del ancho de la punta de una antena. Estas morfologías también se cuantificaron para una antena rota, por lo que en la aplicación de rasgos antenales, se deben filtrar cuidadosamente los datos de la antena rota de forma manual o sistemática. Para comparar razonablemente este rasgo entre diferentes individuos, sugerimos utilizar la relación entre el tamaño del bulbo antenal y el ancho general de la antena como una cuantificación comparable significativa.

Primero se aplicó una erosión general de N píxeles (que se escala algorítmicamente según el tamaño del espécimen; un valor de alta frecuencia es 5 en nuestros especímenes fotografiados) para eliminar pequeñas características de silueta creadas por pelos y accesorios (por ejemplo, químicos cristalizados y grandes granos de polvo). Luego, el contorno de la máscara del espécimen se proyecta en el dominio de la frecuencia mediante un análisis elíptico de Fourier50, y los cinco armónicos superiores se utilizan para reconstruir la forma aproximada de un ala trasera. Las áreas que se extienden desde estas regiones del ala reconstruidas se definen como colas (Fig. 4c). La morfología (longitud y curvatura) de esas áreas independientes se puede cuantificar y registrar aún más de acuerdo con el sistema de rejilla del ala (Fig. 4c).

En total, nuestra tubería tiene cinco puntos potenciales cuando la inspección y la corrección manual son posibles: (1) el cuadro delimitador; (2) la máscara de la muestra; (3) la segmentación de las alas delanteras y traseras; (4) la identificación de puntos de referencia primarios; y (5) la aplicación de rejillas de alas. El módulo que genera imágenes para inspección está integrado en el proceso de procesamiento de imágenes, por lo que estas imágenes se pueden encontrar fácilmente en los directorios de resultados especificados. La mayoría de las herramientas de corrección manual para la computadora local se han escrito en MATLAB, excepto la corrección de la máscara de la muestra que requiere software de pintura comercial (como Adobe Photoshop) y la tarea de segmentación de las alas delanteras y traseras (escrita en Python). También se han preparado los scripts correspondientes para actualizar el conjunto de datos del clúster con la información corregida manualmente.

Muchas visualizaciones se generan automáticamente dentro del proceso de procesamiento de imágenes. Sin embargo, algunas especies tienen formas y tamaños de alas especiales, por lo que es posible que se requieran configuraciones más personalizadas para una mejor visualización. También se proporciona un script desarrollado para personalizar la forma del ala y la visualización de la cola (Información complementaria).

Las estructuras de datos de los datos descriptivos iniciales, así como los datos procesados ​​y la matriz de resumen del grupo se proporcionan en Información complementaria.

Siguiendo el proceso con los datos brutos proporcionados en la Información complementaria, todos los productos intermedios y finales son fácilmente reproducibles. Las cifras y sus leyendas dan los tamaños de muestra, el número de especímenes y especies, así como el enfoque estadístico aplicado.

Más información sobre el diseño de la investigación está disponible en el Resumen del informe de Nature Portfolio vinculado a este artículo.

Los conjuntos de datos generados y/o analizados durante el estudio actual están disponibles en DryAd (https://doi.org/10.5061/dryad.37pvmcvp5)51.

Las instrucciones detalladas paso a paso están documentadas en Protocols.io con videos tutoriales para algunos pasos cruciales. Todos los códigos fuente se proporcionan en GitHub. Encuentre información complementaria para obtener más detalles.

Mandal, J. y col. Recubrimientos poliméricos jerárquicamente porosos para un enfriamiento radiativo pasivo diurno altamente eficiente. Ciencia 362, 315–319 (2018).

Artículo CAS PubMed Google Scholar

Mazo-Vargas, A. et al. Los cambios macroevolutivos de la función WntA potencian la diversidad del patrón de alas de las mariposas. Proc. Acad. Nacional. Ciencia. Estados Unidos 114, 10701–10706 (2017).

Artículo CAS PubMed PubMed Central Google Scholar

Osotsi, MI et al. Las arquitecturas de alas de mariposa inspiran aplicaciones de sensores y energía. Ciencia nacional. Rev.8, nwaa107 (2021).

Artículo CAS PubMed Google Scholar

Reed, RD y cols. optix impulsa la repetida evolución convergente del mimetismo del patrón de alas de mariposa. Ciencia 333, 1137-1141 (2011).

Artículo CAS PubMed Google Scholar

Shi, NN y cols. Mantenerse fresco: reflexión óptica mejorada y disipación de calor radiativo en hormigas plateadas del Sahara. Ciencia 349, 298–301 (2015).

Artículo CAS PubMed Google Scholar

Pomerantz, AF y cols. Bases de desarrollo, celulares y bioquímicas de la transparencia en mariposas de alas claras. J. Exp. Biol. 224, https://doi.org/10.1242/jeb.237917 (2021).

Hegedus, M., DeVries, P. & Penz, CM La influencia del mimetismo en la evolución de la forma de las alas en la mariposa Papilio dardanus (Lepidoptera: Papilionidae). Ana. Sociedad Entomológica. Soy. 112, 33–43 (2019).

Artículo de Google Scholar

Le Roy, C. y col. Evolución adaptativa del vuelo en mariposas Morpho. Ciencia 374, 1158-1162 (2021).

Artículo PubMed Google Scholar

Owens, HL, Lewis, DS, Condamine, FL, Kawahara, AY y Guralnick, RP La filogenética comparativa de la forma y el tamaño del ala de la mariposa papilio demuestra una evolución independiente de las alas traseras y delanteras. Sistema. Biol. 69, 813–819 (2020).

Artículo CAS PubMed Google Scholar

Zhang, L., Mazo-Vargas, A. y Reed, RD Un gen regulador maestro único coordina la evolución y el desarrollo del color y la iridiscencia de las mariposas. Proc. Acad. Nacional. Ciencia. Estados Unidos 114, 10707–10712 (2017).

Artículo CAS PubMed PubMed Central Google Scholar

Cespedes, A., Penz, CM & DeVries, PJ Navegando por el suelo de la selva tropical: evolución de la forma del ala de mariposa y deslizamiento en efecto suelo. J.Anim. Ecológico. 84, 808–816 (2015).

Artículo PubMed Google Scholar

Imafuku, M., Hirose, Y. y Takeuchi, T. Colores de las alas de las mariposas Chrysozephyrus (Lepidoptera; Lycaenidae): reflejo ultravioleta de los machos. Zoológico. Ciencia. 19, 175–183 (2002).

Artículo de Google Scholar

Stevens, M., Párraga, CA, Cuthill, IC, Partridge, JC y Troscianko, TS Uso de la fotografía digital para estudiar la coloración de los animales. Biol. J. Linn. Soc. 90, 211–237 (2007).

Artículo de Google Scholar

Wijnen, B., Leertouwer, HL & Stavenga, DG Colores y pigmentación de pterina de alas de mariposa pierida. J. Fisiol de insectos. 53, 1206-1217 (2007).

Artículo CAS PubMed Google Scholar

Wilts, BD, Pirih, P. y Stavenga, DG Propiedades de reflectancia espectral de las alas de mariposa pierid iridiscentes. J.Comp. Fisiol. Un neuroetol. Comportamiento neuronal sensorial. Fisiol. 197, 693–702 (2011).

Artículo PubMed PubMed Central Google Scholar

Borror, DJ, Triplehorn, CA y Johnson, NF Una introducción al estudio de los insectos. (Publicación de la universidad Saunders, 1989).

McKenna, KZ, Kudla, AM y Nijhout, HF Patrón anteroposterior en alas de lepidópteros. Frente. Ecológico. Evolución 8, 146 (2020).

Artículo de Google Scholar

McMillan, WO, Monteiro, A. & Kapan, DD Desarrollo y evolución en la banda. Tendencias Ecológicas. Evolución 17, 125-133 (2002).

Artículo de Google Scholar

Lewis, JJ y cols. La evolución paralela de potenciadores pleiotrópicos antiguos subyace al mimetismo del patrón de las alas de las mariposas. Proc. Acad. Nacional. Ciencia. Estados Unidos 116, 24174–24183 (2019).

Artículo CAS PubMed PubMed Central Google Scholar

Martín, A. y col. Diversificación de patrones complejos de alas de mariposa mediante la evolución regulatoria repetida de un ligando Wnt. Proc. Acad. Nacional. Ciencia. Estados Unidos 109, 12632–12637 (2012).

Artículo CAS PubMed PubMed Central Google Scholar

Nadeau, Nueva Jersey y col. La corteza genética controla el mimetismo y la cripsis en mariposas y polillas. Naturaleza 534, 106-110 (2016).

Artículo CAS PubMed PubMed Central Google Scholar

Patil, S. & Magdum, S. Información sobre la venación de las alas en mariposas pertenecientes a las familias Papilionidae, Nymphalidae y Pieridae de Dang Dist Gujarat, India. J. Entomol. Zoológico. Semental. 5, 1596-1607 (2017).

Google Académico

Novelo, EG, Luis, MM & Cordero, C. Falsa complejidad de la cabeza y evidencia de ataques de depredadores en mariposas macho y hembra (Lepidoptera: Theclinae: Eumaeini) de México. PeerJ 7, e7143 – e7143 (2019).

Artículo de Google Scholar

Robbins, RK La hipótesis de la “cabeza falsa”: depredación y variación del patrón de alas de las mariposas licenidas. Soy. Naturalista 118, 770–775 (1981).

Artículo de Google Scholar

Betts, C. & Wootton, R. Forma de las alas y comportamiento de vuelo en mariposas (Lepidoptera: Papilionoidea y Hesperioidea): un análisis preliminar. J. Exp. Biol. 138, 271–288 (1988).

Artículo de Google Scholar

Le Roy, C., Debat, V. & Llaurens, V. Evolución adaptativa de la forma del ala de la mariposa: de la morfología al comportamiento. Biol. Rev.94, 1261–1281 (2019).

PubMed Google Académico

Maia, R., Gruson, H., Endler, JA & White, TE pavo 2: nuevas herramientas para el análisis espectral y espacial del color en R. Methods Ecol. Evolución. 10, 1097-1107 (2019).

Artículo de Google Scholar

Van Belleghem, SM et al. Patternize: un paquete R para cuantificar la variación del patrón de color. Métodos Ecología. Evolución. 9, 390–398 (2018).

Artículo PubMed Google Scholar

van den Berg, CP, Troscianko, J., Endler, JA, Marshall, NJ y Cheney, KL Análisis cuantitativo de patrones de color (QCPA): un marco integral para el análisis de patrones de color en la naturaleza. Métodos Ecología. Evolución 11, 316–332 (2020).

Artículo de Google Scholar

Troscianko, J. & Stevens, M. Caja de herramientas de análisis y calibración de imágenes: un paquete de software gratuito para medir objetivamente la reflectancia, el color y el patrón. Métodos Ecología. Evolución. 6, 1320-1331 (2015).

Artículo PubMed PubMed Central Google Scholar

Ataúd, D. dcraw v9.28, https://www.dechifro.org/dcraw/ (2018).

Wu, S. y col. La inteligencia artificial revela limitaciones ambientales sobre la diversidad de colores en los insectos. Nat. Comunitario. 10, 4554 (2019).

Artículo PubMed PubMed Central Google Scholar

Pirih, P., Wilts, BD y Stavenga, DG Patrones de reflexión espacial de alas iridiscentes de mariposas pierid macho: las escamas curvas se reflejan en un ángulo más amplio que las escamas planas. J.Comp. Fisiol. Un neuroetol. Comportamiento neuronal sensorial. Fisiol. 197, 987–997 (2011).

Artículo PubMed PubMed Central Google Scholar

Breuker, CJ, Gibbs, M., Van Dongen, S., Merckx, T. y Van Dyck, H. en Morfometría para no morfometristas 271–287 (Springer, 2010).

Bybee, SM y cols. Los fotorreceptores UV y los pigmentos de las alas de color amarillo UV en las mariposas Heliconius permiten que una señal de color sirva tanto para el mimetismo como para la comunicación intraespecífica. Soy. Naturalista 179, 38–51 (2012).

Artículo de Google Scholar

Blagoderov, V., Kitching, IJ, Livermore, L., Simonsen, TJ y Smith, VS Ningún espécimen queda atrás: digitalización a escala industrial de colecciones de historia natural. ZooKeys, 133 (2012).

Flemons, P. & Berents, P. Digitalización de colecciones de entomología basada en imágenes: aprovechar los voluntarios para aumentar la capacidad de digitalización. Zookeys, 203–217, (2012).

Faulwetter, S., Vasileiadou, A., Kouratoras, M., Dailianis, T. & Arvanitidis, C. Tomografía microcomputarizada: introducción de nuevas dimensiones a la taxonomía. ZooKeys, 1 (2013).

Metallo, A. & Rossi, V. El futuro de las imágenes tridimensionales y las aplicaciones de museos. Comisario.: Mus. J. 54, 63–69 (2011).

Artículo de Google Scholar

Medina, J.J. et al. Un proceso rápido y rentable para la digitalización de especímenes de museos con fotogrametría 3D. MÁS UNO 15, e0236417 (2020).

Artículo CAS PubMed PubMed Central Google Scholar

Lürig, MD, Donoughe, S., Svensson, EI, Porto, A. y Tsuboi, M. Visión por computadora, aprendizaje automático y la promesa de la fenómica en ecología y biología evolutiva. Frente. Ecológico. Evolución 9, 148 (2021).

Artículo de Google Scholar

Bitter, R., Mohiuddin, T. & Nawrocki, M. Técnicas avanzadas de programación LabVIEW™. (Prensa CRC, 2017).

Bay, H., Ess, A., Tuytelaars, T. y Van Gool, L. Funciones robustas aceleradas por SURF, visión por computadora y comprensión de imágenes (CVIU). (2008).

Lowe, DG en Actas de la séptima conferencia internacional IEEE sobre visión por computadora. 1150-1157 (es decir).

Gunturk, BK, Altunbasak, Y. & Mersereau, RM Interpolación del plano de color mediante proyecciones alternas. Traducción IEEE. Proceso de imagen. 11, 997–1013 (2002).

Artículo PubMed Google Scholar

Arthur, D. & Vassilvitskii, S. k-means++: The Advantages of Careful Seeding, SODA'07 Actas del decimoctavo simposio anual ACM-SIAM sobre algoritmos discretos, Nueva Orleans, Luisiana, 2007. https://theory.stanford. edu/~sergei/papers/kMeansPP-soda.pdf, 1027–1035.

Deng, G. y Cahill, L. en 1993, registro de la conferencia del IEEE, simposio de ciencia nuclear y conferencia de imágenes médicas. 1615-1619 (IEEE).

Caselles, V., Kimmel, R. & Sapiro, G. Contornos activos geodésicos. En t. J. Vis por computadora. 22, 61–79 (1997).

Artículo de Google Scholar

Chan, TF & Vese, LA Contornos activos sin aristas. Traducción IEEE. Proceso de imagen. 10, 266–277 (2001).

Artículo CAS PubMed Google Scholar

Crampton, JS Análisis de la forma elíptica de Fourier de bivalvos fósiles: algunas consideraciones prácticas. Lethaia 28, 179–186 (1995).

Artículo de Google Scholar

Chan, W.-P. et al., Un sistema de imágenes multiespectral de alto rendimiento para especímenes de museo, Dryad, Dataset. https://doi.org/10.5061/dryad.37pvmcvp5 (2022).

Descargar referencias

Agradecemos a Chen-Ming Yang por compartir el código fuente y aconsejarnos cuando desarrollamos la herramienta para la segmentación manual de las alas delanteras y traseras; Zoe Flores por probar todos los canales y scripts; Josh Sanes por sus consejos y aliento a través del Centro de Ciencias del Cerebro de Harvard; y a David Lohman por sus consejos y asistencia para identificar al personal adecuado para la entrada de datos y para determinar la nomenclatura adecuada. Agradecemos a Joel Greenwood por su ayuda en el desarrollo inicial del sistema de imágenes. Agradecemos a Sarah Maunsell, Jalen Winstanley, Amy Wu, Even Dankowicz, Clayton Ziemke, Christian Alessandro Perez, Ling Fang, Avalon Owens, Zhengyang Wang, Cong Liu, Katherine Angier, Evan Hoki, Francisco Matos, Beaziel Ombajen, Zoe Flores, Jocelyn Wang , Han-Ting Yang, Jingqian Wang, Jiale Chen, Annina Kennedy-Yoon, Atreyi Mukherji por probar y ayudar a optimizar diferentes protocolos y herramientas para la inspección y corrección manual. W-PC contó con el apoyo de una beca de posgrado del Departamento de Biología Organística y Evolutiva de la Universidad de Harvard; SA recibió el apoyo de una subvención Herchel-Smith de la Universidad de Harvard; RARC contó con el apoyo de una beca de investigación para graduados (GRFP) de la Fundación Nacional de Ciencias (NSF), y C-CT contó con el apoyo de una beca de posgrado del Departamento de Física Aplicada y Matemáticas de la Universidad de Columbia. Esta investigación fue apoyada por la Oficina de Investigación Científica de la Fuerza Aérea FA9550-14-1-0389 (Iniciativa de Investigación Universitaria Multidisciplinaria) y FA9550-16-1-0322 (Programa de Instrumentación de Investigación de la Universidad de Defensa) para Nueva York, y por NSF PHY-1411445 para NY y NSF PHY-1411123 a NEP y NSF DEB-0447242 a NEP. Publicado con una subvención de Acceso Abierto del Fondo Wetmore Colles del Museo de Zoología Comparada.

Estos autores contribuyeron igualmente: Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe.

Departamento de Biología Organísmica y Evolutiva, Universidad de Harvard, Cambridge, MA, EE. UU.

Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe, Caroline Elson y Naomi E. Pierce

Museo de Zoología Comparada, Universidad de Harvard, Cambridge, MA, EE.UU.

Wei-Ping Chan, Richard Rabideau Childers, Rachel L. Hawkins Sipe, Crystal A. Maier y Naomi E. Pierce

Departamento de Física Aplicada y Matemáticas Aplicadas, Universidad de Columbia, Nueva York, NY, EE. UU.

Cheng-Chia Tsai y Nanfang Yu

Departamento de Recursos Forestales y Ambientales, Universidad Estatal de Carolina del Norte, Raleigh, Carolina del Norte, EE.UU.

Kirsten J. Keleher

Departamento de Neurobiología y Comportamiento, Universidad de Cornell, Ithaca, Nueva York, EE. UU.

Kirsten J. Keleher

Centro McGuire para Lepidópteros y Biodiversidad, Museo de Historia Natural de Florida, Universidad de Florida, Gainesville, FL, EE. UU.

Andrei Sourakov

Oficina de Sistemas Informáticos y División de Entomología, Museo Peabody de Historia Natural, Universidad de Yale, New Haven, CT, EE. UU.

Lawrence F. Gall

Departamento de Ingeniería Eléctrica e Informática, Universidad de Washington, Seattle, WA, EE. UU.

Gary D. Bernardo

Centro de Ciencias del Cerebro, Universidad de Harvard, Cambridge, MA, EE. UU.

Edward R. Soucy

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

Conceptualización: RRC, C.-CT, GDB, ERS, NY, NEP, Recopilación de datos: W.-PC, SA, CE, KJK, RRC, ERS, Curación de datos: RLHS, CAM, AS, LFG, Desarrollo de hardware: RRC , ERS, Desarrollo de software: W.-PC, Análisis formal: W.-PC, Visualización: W.-PC, Validación: W.-PC, SA, Redacción: borrador original: W.-PC, RRC, SA, NEP , Escritura: revisión y edición: todos los autores

Correspondencia a Wei-Ping Chan o Naomi E. Pierce.

Los autores declaran no tener conflictos de intereses.

Communications Biology agradece a Bodo Wilts y a los demás revisores anónimos por su contribución a la revisión por pares de este trabajo. Editores principales: Veronique van den Berghe y Luke R. Grinham. Los informes de los revisores pares están disponibles.

Nota del editor Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Chan, WP., Rabideau Childers, R., Ashe, S. et al. Un sistema de imágenes multiespectral de alto rendimiento para especímenes de museo. Común Biol 5, 1318 (2022). https://doi.org/10.1038/s42003-022-04282-z

Descargar cita

Recibido: 04 de agosto de 2022

Aceptado: 18 de noviembre de 2022

Publicado: 01 de diciembre de 2022

DOI: https://doi.org/10.1038/s42003-022-04282-z

Cualquier persona con la que comparta el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.