Introducción a las redes neuronales informadas por la física (PINN)
Las redes neuronales informadas por la física (PINN) son redes neuronales que incorporan leyes físicas descritas por ecuaciones diferenciales en sus funciones de pérdida para guiar el proceso de aprendizaje hacia soluciones que sean más acordes con la física subyacente. Las redes neuronales informadas por la física se pueden emplear para:
- Aproximar soluciones de ecuaciones diferenciales parciales (EDP) y ecuaciones diferenciales ordinarias (EDO).
- Resolver problemas inversos, como estimar parámetros de modelos a partir de datos limitados.
Con Deep Learning Toolbox™, puede crear y entrenar PINN, lo que permite análisis predictivo rápido. Puede integrar las PINN con MATLAB® y Simulink® para simulación en nivel de sistema, diseño de control y optimización de diseños.
Ventajas de las redes neuronales informadas por la física
Las PINN son una clase de métodos de Machine Learning informados por la física que integran fácilmente conocimientos de física con datos. Las PINN se suelen comparar con métodos puramente basados en datos y métodos numéricos tradicionales para resolver problemas de EDP y EDO.
A diferencia de los enfoques puramente basados en datos, que aprenden relaciones matemáticas únicamente a partir de datos de entrada y salida, las PINN:
- Utilizan conocimientos de física previos.
- Realizan predicciones más precisas fuera del conjunto de datos de entrenamiento.
- Son más eficaces con datos de entrenamiento limitados o con ruido.
A diferencia de los métodos numéricos tradicionales para resolver ecuaciones diferenciales, como el análisis de elementos finitos para EDP, las PINN:
- No tienen malla.
- Pueden aproximar soluciones de EDP de alta dimensionalidad.
- Encuentran soluciones de parámetros de modelos ausentes, como coeficientes de EDP o EDO desconocidos.
- Resuelven problemas mal condicionados donde no existen datos de límites.
- Incorporan fácilmente mediciones dispersas o con ruido.
Si bien las PINN ofrecen ventajas potenciales en comparación con métodos puramente basados en datos y métodos numéricos tradicionales, también presentan algunas limitaciones y desafíos, tales como:
- Teoría de convergencia limitada
- Falta de estrategias de entrenamiento unificadas
- Carga computacional del cálculo de derivadas de orden superior
- Dificultad para aprender componentes de alta frecuencia y multiescala de soluciones de EDP
No obstante, las PINN constituyen un área de investigación dinámica, y se espera que los avances continuos aborden y superen estos desafíos y limitaciones actuales.
La opción de utilizar PINN, enfoques basados en datos o métodos numéricos tradicionales depende de la aplicación. La siguiente tabla resume las ventajas y limitaciones de cada método.
Enfoques puramente basados en datos | Métodos numéricos tradicionales | PINN | |
Incorporan física conocida | |||
Generalizan bien con datos de entrenamiento limitados o con ruido | |||
Resuelven problemas directos e inversos simultáneamente | |||
Resuelven EDP de alta dimensionalidad | |||
Permiten predicción “online” rápida | |||
No tienen malla | |||
Cuentan con una teoría de convergencia bien comprendida | |||
Se escalan bien a EDP de alta frecuencia y multiescala |
Diferencia entre redes neuronales informadas por la física y redes neuronales tradicionales
Las PINN se diferencian de las redes neuronales tradicionales por su capacidad de incorporar el conocimiento del dominio preexistente en forma de ecuaciones diferenciales. Esta información adicional permite a las PINN realizar predicciones más precisas fuera de los datos de medición proporcionados. Además, los conocimientos físicos adicionales regularizan la solución prevista en presencia de datos de medición con ruido, lo que permite a las PINN aprender la verdadera señal subyacente en lugar de sobreajustar los datos con ruido.
Por ejemplo, tomemos un escenario donde se han recopilado las mediciones de ruido,
La red neuronal tiene dificultades para predecir con precisión valores del sistema fuera de los datos de entrenamiento.
Capturar más datos podría mejorar las predicciones, pero este enfoque puede tener un coste prohibitivo o ser imposible para muchas aplicaciones. No obstante, a menudo la persona experta en el dominio posee un conocimiento más profundo sobre el proceso físico subyacente que rige el sistema de interés. En este escenario concretamente, las mediciones representan el ángulo de desplazamiento desde la vertical de la carga que se balancea desde una grúa. Este proceso se puede representar de manera simplificada con un péndulo amortiguado, que se puede modelar aproximadamente para ángulos pequeños con una ecuación diferencial lineal de segundo orden:
En lugar de ignorar este conocimiento, las redes PINN incorporan la ecuación diferencial como un término adicional informado por la física en la función de pérdida. Las PINN evalúan el residuo de la ecuación diferencial en puntos adicionales del dominio, lo que ofrece más información sin necesidad de realizar más mediciones. Si bien este ejemplo inventado se puede resolver analíticamente, sirve para ilustrar los conceptos en los que se basan las PINN.
Durante el entrenamiento, las PINN buscan un equilibrio entre el ajuste de las mediciones proporcionadas y el proceso físico subyacente.
Las redes PINN pueden superar a las redes neuronales tradicionales mediante la incorporación de un término de pérdida física adicional, lo que mejora sus predicciones en presencia de mediciones con ruido y en regímenes de datos sin mediciones.
Cómo funcionan las redes neuronales informadas por la física
Las PINN utilizan algoritmos de optimización para actualizar iterativamente los parámetros de una red neuronal hasta que el valor de una función de pérdida informada por la física especificada se reduce hasta un nivel aceptable, lo que empuja a la red hacia una solución de la ecuación diferencial.
Las PINN tienen funciones de pérdida,
Las PINN aparecieron en 2017, y actualmente tienen muchas variaciones, como las siguientes:
- PINN bayesianas (BPINN), que utilizan el marco bayesiano para permitir la cuantificación de la incertidumbre
- PINN variacionales (VPINN), que incorporan la formulación débil de una EDP en la función de pérdida
- PINN formuladas de primer orden (FO-PINN), que pueden ser más rápidas y precisas para resolver EDP de orden superior que las PINN estándar
Además, las PINN se pueden utilizar con diferentes arquitecturas de redes neuronales, como redes neuronales gráficas (GNN), operadores neuronales de Fourier (FNO) y redes de operadores profundos (DeepONets), entre otras, para generar versiones informadas por la física de estas arquitecturas.
MATLAB y Deep Learning Toolbox ofrecen un soporte integral para el desarrollo de las PINN, desde creación o importación de diversas arquitecturas de redes neuronales, definición de funciones de pérdida informadas por la física personalizadas con AD y entrenamiento con algoritmos de optimización basados en gradientes como Adam o L-BFGS, hasta visualización de soluciones con gráficas avanzadas de MATLAB.
Aplicaciones para redes neuronales informadas por la física
Las PINN aprovechan la potencia de Deep Learning al tiempo que mejoran el cumplimiento de leyes físicas, lo que las convierte en una herramienta versátil para aplicaciones donde la física se conoce total o parcialmente, como en el caso de una EDP o EDO con coeficientes desconocidos. Entre las aplicaciones de PINN se incluyen las siguientes:
- Transferencia de calor, concretamente para modelar procesos de distribución y transferencia de calor. Las PINN pueden incorporar las ecuaciones rectoras que modelan procesos térmicos en materiales y sistemas, como la ecuación de calor, en la función de pérdida. Este enfoque garantiza que las soluciones cumplan con estas leyes físicas, lo que se traduce en predicciones físicamente posibles. Además, las PINN pueden reemplazar costosas simulaciones numéricas para aproximar rápidamente distribuciones de temperatura sobre geometrías parametrizadas en aplicaciones de optimización de diseños. Asimismo, las PINN se pueden utilizar en problemas inversos para identificar propiedades de materiales desconocidas, como conductividad térmica.
- Dinámica de fluidos computacional (CFD), concretamente para aproximar campos de velocidad, presión y temperatura de fluidos incorporando las ecuaciones de Navier-Stokes en la función de pérdida. Las PINN se pueden usar en simulaciones directas sin malla para predecir con precisión estas cantidades, o bien en problemas inversos donde el objetivo es inferir entradas o parámetros desconocidos, como condiciones límite, términos de origen o propiedades de fluidos, a partir de datos observados.
- Mecánica estructural, para resolver problemas directos e inversos incorporando las leyes físicas rectoras, como ecuaciones de elasticidad y dinámica estructural, directamente en la función de pérdida. Esta integración permite a las PINN predecir respuestas estructurales con precisión, como deformaciones, presiones y tensiones bajo diversas cargas y condiciones, e identificar propiedades de materiales o cargas externas desconocidas a partir de datos observados. Las PINN son especialmente útiles en escenarios donde las soluciones analíticas tradicionales no son viables o los datos son escasos, y reducen la dependencia de conjuntos de datos extensos, ya que aprovechan los principios físicos para guiar el proceso de aprendizaje. Por su flexibilidad, las PINN pueden gestionar problemas complejos, como comportamiento de materiales no lineales y modelado multifísico.
Una vez creadas y entrenadas con Deep Learning Toolbox, las PINN pueden integrarse fácilmente con Optimization Toolbox™ para optimizar diseños, conectarse a Simulink para simular en nivel de sistema, y emplearse en muchas otras aplicaciones.
Ejemplos y procedimientos
Referencias de software
También puede consultar estos temas: Deep Learning Toolbox, Partial Differential Equation Toolbox, Análisis de elementos finitos, Modelado de orden reducido, Red neuronal hamiltoniana, Modelado dinámico de sistemas con EDO neuronales, Deep Learning, Redes neuronales convolucionales (CNN), Redes generativas antagónicas (GAN), Redes de memoria a corto-largo plazo (LSTM), Redes neuronales recurrentes (RNN), Redes neuronales