Imágenes de robótica submarina: explorando las profundidades

La primera vez que vi una imagen en tiempo real desde 800 metros bajo la superficie me sorprendió el silencio. No el silencio acústico, sino el visual: un paisaje casi lunar de lodos finos, sombras alargadas y destellos de organismos que parecían luces de ciudad vista desde un avión. La robótica submarina nos abrió una ventana a ese mundo, y las imágenes son el lenguaje que lo traduce. No es casualidad que, cuando preguntas por qué hacemos robotica bajo el agua, la respuesta acabe en fotos y videos: documentar, medir, inspeccionar, narrar. Sin imágenes, la automatizacion y robotica industrial aplicada al mar sería ciega. Con ellas, podemos tomar decisiones, entrenar a nuevos técnicos, y, a veces, salvar vidas o millones en activos.

image

Este texto parte de esa experiencia y trabaja con una verdad simple: la calidad de la imagen no depende solo de la cámara. En el mar, la óptica, la iluminación, la navegación, la computacion y robotica, la física del agua y el flujo de trabajo a bordo están intrincados. Voy a desarmar ese rompecabezas con ejemplos y detalles prácticos que aprendí en campañas, talleres de mantenimiento y laboratorios húmedos.

Qué estamos mirando realmente

Cuando hablamos de imágenes de robótica, no hablamos solo de “ver bonito”. Hay muchos tipos de imagen con propósitos distintos. La más obvia es la óptica, una cámara RGB que registra la luz visible y, con suerte, un balance de blancos decente. Pero en el mar, lo visible es caprichoso. La turbidez dispersa la luz, el agua absorbe el rojo muy rápido y los verdes y azules dominan. A 10 metros de profundidad, una pieza roja puede verse marrón o casi negra si no llevas luces adecuadas. Por eso, las campañas serias combinan cámaras con fuentes auxiliares de iluminación, filtros y una estrategia de distancia al objetivo.

Junto al canal óptico, verás imágenes acústicas. Un sonar de imagen, como un multihaz o un sonar de apertura sintética, no “fotografía”, pero genera mapas y “sombras” que, a efectos prácticos, funcionan como imágenes. Donde la cámara no llega por turbidez, el sonar pinta la escena con sonido. Y hay más: cámaras de baja luz, láseres para escalado estereoscópico, termografías en ambientes especiales, incluso fotogrametría que termina en modelos 3D texturizados.

Si alguien te pregunta que es la robotica cuando la llevas al mar, puedes decir algo concreto: es enseñar a una máquina a moverse, medir y decidir en un entorno donde la luz, la presión y la química cambian las reglas del juego. Las imágenes son el insumo y, muchas veces, el resultado.

Paisaje de plataformas: ROV, AUV y híbridos

No todas las plataformas “ven” igual. Un ROV, controlado desde superficie con cable umbilical, suele ofrecer imágenes más estables y mejor iluminadas, porque puedes acercarte con precisión, ajustar luces, y volver al mismo punto. En una inspección de casco a 20 metros, un ROV con dos cámaras inclinables y luces de 10.000 a 20.000 lúmenes dará planos limpios del biofouling, de una soldadura o de una toma de mar. Puedes detenerte, limpiar con una escobilla hidráulica, y repetir la toma.

Con un AUV, el juego es otro. El vehículo autónomo recorre patrones preprogramados a 2 o 3 nudos, a alturas de 3 a 10 metros del fondo. La imagen óptica requiere sincronía fina: velocidad constante, altura estable, iluminación homogénea y una cámara calibrada. Si lo consigues, la recompensa es grande: mosaicos de kilómetros cuadrados con resolución de centímetros, ideales para cartografiar corales, tuberías enterradas parcialmente o campos de cable. También se capturan imágenes acústicas de alta fidelidad que complementan lo óptico.

Existen híbridos y vehículos observadores de descenso libre con lastre, usados para puntos específicos a grandes profundidades. Allí, un único disparo de alta calidad, con estrobos potentes y calibración de color, vale más que horas de video con ruido.

La tiranía del agua: luz, color y partículas

La física del agua dicta la estética y la utilidad de cada cuadro. La absorción selectiva elimina el rojo en los primeros metros, luego se comen los amarillos, y al final sobreviven los azules y verdes. Si pretendes evaluar corrosión, recubrimientos o marcadores de color, necesitas iluminación con temperatura de color consistente, y a veces filtros rojos en aguas claras. En ambientes muy turbios, la solución no es solo subir la potencia de las luces. Más luz puede crear retrodispersión y “nieve” visual. La distancia cámara - sujeto y el ángulo de la iluminación importan más. Luces separadas de la óptica, a 30 o 40 centímetros, y apuntadas de forma oblicua, reducen el reflejo de partículas frente al objetivo.

He visto equipos duplicar lúmenes sin mejorar nada, hasta que ajustaron el brazo de luz para evitar iluminar directamente el volumen frente a la lente. En videografía submarina para ciencia, mantener 1 a 1,5 metros de distancia al fondo y compensar con estrobos de corta duración ayuda a congelar el movimiento y minimizar el velo.

Ópticas, lentes y domos: el vidrio marca la diferencia

En el mundo submarino, la elección entre lente plana y domo no es estética. Una ventana plana introduce refracción y reduce el ángulo de visión, además de posibles aberraciones en los bordes. Un domo corrige parte de esto, sobre todo con gran angulares, pero es más delicado y costoso. Para tareas de inspección industrial, lentes fijas robustas, con apertura moderada (f/5.6 a f/8 equivalente según sensor), ofrecen nitidez constante y profundidad de campo suficiente para compensar microoscilaciones del ROV.

La resolución del sensor sin una lente adecuada y una iluminación estable es una cifra de marketing. Prefiero una cámara de 2 a 4 MP con buen rendimiento en baja luz, perfiles logarítmicos y compresión bien gestionada, antes que 12 MP comprimidos agresivamente por una línea de datos saturada. En el mar, el cuello de botella suele ser el enlace y el almacenamiento, no el número de píxeles.

Estabilización y navegación: imágenes que sirven para medir

Una imagen bonita pero sin referencia pierde valor. Si tu objetivo es medir crecimiento de biofouling, robotica detectar fisuras o cuantificar densidad de organismos, necesitas escala. Hay tres caminos que he usado con éxito: láseres paralelos separados una distancia conocida, patrones de calibraje rígidos que se colocan temporalmente en la escena, y fotogrametría con superposición alta más GNSS/USBL para georreferenciar.

Los láseres son el método más simple. Dos puntos verdes separados 10 centímetros te dan escala inmediata en cada cuadro. Útiles para tuberías, pilotes o cascos. La fotogrametría, en cambio, exige disciplina: solapes de 60 a 80 por ciento, trayectorias uniformes, altura constante y una calibración previa de cámara. El premio es un modelo 3D texturizado donde medir volúmenes y áreas de forma repetible.

Para que todo esto funcione, el vehículo debe navegar con estabilidad. Un ROV con control de cabeceo y guiñada finos, y un piloto que mantenga tensión de umbilical adecuada, reduce la trepidación. En AUV, los datos de DVL, INS y altímetro se sincronizan con el disparo de la cámara. Es computacion y robotica aplicada al detalle: si la latencia de disparo no se modela, el mosaico tendrá “costuras” visibles.

Compresión, bitrate y la deuda invisible de la transmisión

En operaciones offshore, la tentación de transmitir video HD sin pérdida por el umbilical choca con la realidad. La mayoría de los sistemas trabaja con H.264 o H.265 para bajar el bitrate. Si sobrecomprimes, verás bloques en aguas con mucha particulación y fallos de detalle en zonas oscuras. Esto no solo afecta estética. En inspecciones legales, un pixel perdido puede cambiar una interpretación. Por eso se graba a bordo en un códec de mayor calidad, y se transmite una versión comprimida para la sala de control. El operador, si ve algo, marca un evento y luego se extrae la grabación de alta calidad para análisis.

En un proyecto de ductos, adoptamos una política simple: transmisión a 6 a 8 Mbps H.264 a 1080p para control, grabación en ProRes Proxy local, y fotos RAW cada 5 segundos disparadas en paralelo. Las fotos resolvieron ambigüedades que el video comprimido no permitía, y la carga de datos fue razonable.

Robótica educativa: bajar al agua para aprender a ver

A menudo me preguntan como introducir robotica educativa en contextos de escuelas o clubes con bajo presupuesto. Las imágenes son el anzuelo perfecto. Un ROV tipo “open frame” construido con PVC, motores sellados y una cámara deportiva dentro de una carcasa acrílica es suficiente para descubrir el mundo subacuático local. No se trata de competir con sistemas industriales, sino de enseñar principios: flotabilidad, sellado, iluminación, balance de blancos, registro de datos. La primera vez que un estudiante ajusta la posición de una luz y ve cómo desaparece la nieve de partículas en la imagen, entendió más que en diez diapositivas.

Ese aprendizaje práctico responde a preguntas de que es robotica desde la experiencia. También explica por qué automatizacion y robotica industrial en el mar invierte tanto en pequeñas cosas como un prensaestopa bien instalado o una junta tórica limpia. Una gota en el lugar equivocado arruina un día de filmación.

image

Aplicaciones industriales: ver para decidir

Las imágenes sostienen decisiones caras. En plataformas, se inspeccionan uniones, anodos de sacrificio y protectores de impactos. En presas y tomas de agua, se documentan grietas, acumulación de sedimentos y estado de rejillas. En acuicultura, las cámaras vigilan redes en busca de roturas y miden el tamaño de peces para feed management. Cada caso tiene un estándar distinto de “buena imagen”. En una represa turbia, una cámara monocroma con luz de ángulo cerrado puede rendir mejor que una color con gran angular. En mar abierto, un conjunto de luces de amplio ángulo y cámaras duales evita sombras duras que ocultan detalles.

He visto penalidades por detener producción porque la imagen no era inequívoca. Un operador detuvo una descarga por supuesta grieta; al día siguiente, con estrobos y escala láser correcta, se comprobó que era un surco superficial. Esa noche costó decenas de miles. La lección no fue “ver más fuerte”, fue planificar la captura: ángulo, distancia, luz, escala.

Ciencia y conservación: series temporales y fotomosaicos

Para la ciencia, las imágenes no son una foto bonita, son una serie temporal. Corales de aguas frías, praderas de fanerógamas, fondos blandos con pistas de pepinos de mar. Se repiten transectos a lo largo de años y se usan modelos 3D para cuantificar cambios milimétricos. El estándar aquí es la repetibilidad. Mismas lentes, misma altura, igual temperatura de color, y metadatos completos: fecha, hora, altura, altitud, actitud del vehículo, parámetros de cámara. Cuando alguien me pregunta si conviene invertir en una nueva cámara o en sensores de navegación, a menudo digo que en navegación. Una imagen mediocre pero bien georreferenciada, que puedes repetir, vale más que un “wallpaper” de 8K sin contexto.

El procesamiento: donde la imagen se vuelve dato

Después de la captura viene la molienda. Corrección de color para compensar absorción de rojos, dehazing para reducir el velo, estabilización, y, si corresponde, detección automática de objetos. La computacion y robotica aporta algoritmos de aprendizaje profundo para identificar válvulas, biofouling o especies. Pero el mar castiga a los modelos entrenados solo en datos idealizados. Cambia turbidez, luz, ángulos, y el algoritmo empieza a confundir esponjas con sedimentos. Lo práctico es construir pipelines con etapas de control humano y modelos entrenados con datos locales. Etiquetar bien 2.000 a 5.000 imágenes propias vale más que usar 50.000 ajenas de otro ecosistema.

Para fotogrametría, la limpieza de frames es clave. Eliminar cuadros con burbujas, trepidación, reflejos de backscatter, y mantener una superposición suficiente acelera el ajuste de cámaras y mejora la densidad de puntos. En fondos con poca textura, los láseres ayudan al algoritmo a anclar la escala. Y si hay luces dinámicas, es mejor desactivar el autoexposure de la cámara durante el transecto, aunque duela, para evitar parpadeos que rompen el mosaico.

Casos de baja visibilidad: cuando la óptica pierde

En puertos con limo en suspensión, la cámara puede ser más poesía que dato. Allí entra el sonar de imagen. Un sonar multihaz a 700 kHz dibuja perfiles de escolleras, neumáticos, cadenas y estructura de muelles. Las “sombras” acústicas, al principio, confunden. Luego aprendes a leerlas como luz al revés. Un elemento alto proyecta sombra aguas abajo del haz. Ajustar ganancia y rango es como ajustar ISO y zoom en la cámara. Úsalo como mapa para posicionarte y emplear la cámara solo a corta distancia. La sinergia sonar - óptica ahorra tiempo, y tiempo en el mar es dinero.

Energía, térmica y gestión del riesgo

Las luces y cámaras consumen. En AUVs con misiones de 8 a 12 horas, cada lumen cuenta. Las configuraciones de disparos intermitentes, with duty cycles medidos, alargan la misión sin sacrificar calidad. Un patrón común es vídeo a baja tasa de cuadros para navegación y disparos fotográficos de alta calidad cada segundo o dos cuando el vehículo entra en sector crítico. El calor generado por luces y electrónica en carcasas selladas es un enemigo silencioso. Si vas a 3.000 metros, la presión y el frío del agua ayudan a disipar, pero en aguas someras y cálidas, he visto cámaras cortar por temperatura. Pequeñas soluciones como disipadores internos y rutas térmicas hacia el casco evitan sorpresas.

Aspectos legales y de seguridad

No todo paisaje se puede mostrar. En zonas críticas, las imágenes de robótica pueden considerarse información sensible. Mantén control de cadena de custodia, hash de archivos, bitácora de operadores y horas. En inspecciones de siniestros, la trazabilidad da credibilidad, y un video sin metadatos puede volverse un argumento “no concluyente”. También hay ética: no persigas fauna con el ROV para “mejorar la toma”. Un pez que huye puede chocar con estructuras o redes.

Cómo planificar una campaña de imagen útil

    Definir el objetivo de la imagen: inspección dimensional, detección de anomalías, documentación estética, fotogrametría o identificación biológica. Elegir plataforma y sensores en función de visibilidad, profundidad y estabilidad requerida. Ensayar en superficie las configuraciones de cámara y luz, con cartas de color y escala. Establecer un plan de navegación que garantice cobertura y repetibilidad, con márgenes de batería y tiempo. Asegurar un flujo de datos robusto: compresión para transmisión, grabación de alta calidad local y respaldo redundante.

Errores comunes que he visto y cómo evitarlos

    Confiar en el auto todo: auto focus, auto exposure, auto white balance. Ajusta y fija parámetros cuando la escena sea consistente para evitar saltos. Olvidar la escala. Lleva láseres o patrones y que funcionen desde el minuto uno. Cambiar la altura sin registrar. Cada modificación de setpoint debe anotarse en la bitácora y reflejarse en metadatos. Sobreiluminar la neblina. Separa luces de la cámara, reduce ángulo, acércate un poco más si puedes. No revisar en el momento. Una pausa de 5 minutos para evaluar imágenes a bordo ahorra repetir toda la línea.

Qué es la robótica cuando se mira desde la imagen

Si alguna vez te preguntaste que es robotica más allá de brazos en fábricas, las imágenes submarinas lo responden con humildad. Es una conversación entre sensores, control y propósito, mediada por agua. En automatizacion y robotica industrial, solemos medir el éxito en unidades procesadas por hora. Bajo el mar, muchas veces el éxito es un plano nítido, con escala, de una soldadura a 120 metros, capturado a la primera, sin comprometer seguridad ni presupuesto. Es menos glamoroso que un robot de almacén, pero suele implicar más variables físicas que domar.

Las imágenes de robotica, en este ámbito, son el puente entre mundos. Muestran al ingeniero lo que no puede bucear, tranquilizan a un gerente que debe decidir si para una línea de flujo, y entusiasman a estudiantes que, al ver un cangrejo acercarse a un láser verde, entienden por qué la técnica es una forma de curiosidad organizada.

Mirando hacia adelante: automatización del análisis y realidad mixta

La siguiente frontera no es solo capturar mejor, sino interpretar más rápido y con menos sesgo. Ya se entrenan modelos que etiquetan tipos de corrosión, clasifican especies bentónicas o detectan microfisuras. El reto está en validar esos modelos con datos locales, en rangos de visibilidad realistas y con cambios de estación. La integración con visores de realidad mixta en cubierta permite a un técnico “ver” el modelo 3D superpuesto al video en vivo, marcar anomalías y dejar una pista auditable que vuelve al repositorio.

No todo será automático. La experiencia humana sigue siendo el filtro que diferencia una sombra de una grieta. Pero podemos Haga clic para fuente dejar que la máquina haga el trabajo pesado de prefiltrar miles de cuadros y que los humanos se concentren en los casos dudosos.

Cierre que no parece cierre

Cuando examinas una buena imagen tomada a 1.500 metros, ves algo más que un paisaje. Ves decisiones correctas acumuladas: el domo bien elegido, la luz colocada con criterio, la velocidad estable, la compresión adecuada, la bitácora completa. También ves un equipo que sabe por qué salió al mar. La robótica submarina no se reduce a motores y controladores. Es una forma de mirar. Y cada vez que un ROV regresa con su carcasa cubierta de sal y la tarjeta llena de frames útiles, el mar, por un rato, fue menos desconocido.

Para quienes empiezan, mi consejo es sencillo: no persigas cifras, persigue claridad. Pregunta por el para qué de cada imagen. Si va a medir, dale escala. Si va a convencer, quita ruido. Si va a contar, ilumina. Así, las imágenes de robótica no serán un decorado, serán la herramienta que te ayuda a explorar y comprender, con la paciencia y el rigor que el océano exige.