Ir a pucv.cl

Fusión nuclear e inteligencia artificial: investigación busca diseñar sistemas de detección de anomalías

El Dr. Gonzalo Farías, académico e investigador del laboratorio de inteligencia artificial de la Escuela de Ingeniería Eléctrica (EIE) de la Facultad de Ingeniería de la Pontificia Universidad Católica de Valparaíso (PUCV), se encuentra llevando a cabo un proyecto FONDECYT -1191188- que busca desarrollar sistemas de detección de anomalías de tipo disruptivas, en dispositivos experimentales de fusión nuclear que buscan generar energía.

 Sobre el desarrollo de esta iniciativa de colaboración internacional, titulada Learning data-driven models to predict plasma disruptions in nuclear fusion devices, el actual director de la EIE comentó los principales aspectos:

 

¿En qué contexto se da este proyecto? ¿cómo se originó la idea?

 Gonzalo (G): Es una temática que vengo trabajando desde que realicé mi doctorado, en el año 2005. Como sabes, estos dispositivos de fusión nuclear son dispositivos experimentales que buscan reproducir un proceso que se da en las estrellas, que es el proceso de fusión, y que se da, por ejemplo, en el Sol. En términos simples, se produce un átomo más liviano, y esa pérdida de masa se convierte en energía. En el Sol, esto ocurre por gravitación, mientras que en estos dispositivos se recrea este proceso calentando átomos a temperaturas incluso más altas que las del Sol, lo que produce la colisión, y por lo tanto, la generación de átomos más pequeños quedando como resto energía. ¿Cómo se aprovecha esta energía? Cuando es fisión, por ejemplo, se usa agua alrededor de forma que se pueda generar movimiento de turbinas. En fusión nuclear, todavía no llegamos a esa línea, ya que mantener el proceso de fusión es aún muy inestable. No se comprende, a nivel físico, cómo funciona. Estamos lejos de eso, porque es un proceso muy complejo. Entonces, uno aumenta la temperatura, y en segundo lugar, busca mantenerla, para así, poder mantener la generación de energía. Ahora, el desafío está en que las descargas o shots que se hacen en estos dispositivos, como los que están en Europa, son de breves segundos, pero generan un gran volumen de datos, en los sistemas que tienen funcionando para las mediciones. En ese sentido, poder comprender o analizar esos datos de forma manual, para conocer más en profundidad los fenómenos que ocurren en estos dispositivos, es una tarea titánica. Ahí es donde intervenimos cuando comenzamos a trabajar estas temáticas. Propusimos utilizar sistemas de inteligencia artificial, para apoyar el proceso de análisis de datos. E incluso más allá, generando modelos predictivos de fenómenos, sistemas de procesamiento automatizados o de detección de anomalías.

 

¿En qué ha consistido el trabajo realizado hasta este momento?

 G: En el marco de este proyecto, estamos interesados particularmente en la detección de anomalías. Es bien particular, porque se trata de la búsqueda de patrones o comportamientos inusuales, que escapan a lo normal. Es bien difícil incluso definir en sí qué viene a ser una anomalía. A primeras uno podría pensar en algo simplemente extraño, pero ello puede responder a una multiplicidad de factores. En ese sentido, hay distintos tipos de anomalías: puntuales, contextuales, patrones anómalos, entre otros. Entonces, lo “raro” no depende solo de un valor, sino que puede ser, de frecuencia, de magnitud, del contexto. Ahora, debes considerar que sí de por sí es complejo entender una anomalía cuando se trata de fenómenos donde conoces la regularidad, en nuestro caso, la dificultad se eleva, dado que no se tiene claridad total del funcionamiento de la fusión nuclear.  En este FONDECYT, nos interesa la generación de sistemas que puedan detectar las anomalías en el escenario que te comenté. Hay algunas anomalías que ya conocemos. Una es la disrupción, que consiste en la pérdida del plasma en el dispositivo cuando se realiza el proceso y que choca con las paredes, y puede perjudicarlo. Recuerda que esto se realiza a temperaturas altísimas. Que se dañe el material, implica, o bien desechar el dispositivo, o invertir en la reparación del mismo. Por ende, se trata de evitar estos eventos. En proyectos anteriores, nos enfocamos en la generación de sistemas de pronóstico de disrupciones. En este, consideramos lo anterior para ver la posibilidad de incursionar en la detección de anomalías más allá de las disrupciones. Lo interesante es que lo que estamos haciendo finalmente puede extrapolarse a otros contextos. Imagina por ejemplo lo que puede lograrse en un sistema bancario o financiero, donde una anomalía podría ser todo lo relacionado con el fraude. Y dice relación con la idea misma de anomalía, que son escasas pero de muy variada naturaleza.

 

¿Qué balance se hace hasta este punto? ¿se han presentado dificultades durante el proceso?

 G: Actualmente estamos desarrollando los sistemas de detección. Estamos trabajando con la base de datos del JET, y lo que estamos intentando es diseñar un sistema que utilice datos que no están etiquetados, vale decir, en bruto, para poder realizar la operación que diga, coloquialmente cierto, aquí ocurre algo o en este momento.

Pienso que la caracterización de anomalías es algo súper atractivo que puede hacerse en otros contextos. Por ejemplo, a través de la tesis de postgrado de un alumno, lo revisamos pensando en la detección de exoplanetas, en astronomía. En ese caso, lo regular, es que la estrella no tenga un planeta. Para ello entonces, se hace necesario la detección de características para ver la existencia de un exoplaneta. Otra iniciativa fue en la detección de fallas para misiones espaciales. En esa ocasión, nuestras propuestas del proyecto pudieron ser aplicadas casi de forma instantánea en ese contexto. Otra más fue en la detección de caídas de personas, y así..

 

¿Quiénes forman parte de este proyecto? ¿cuál ha sido el plan de trabajo?

 G: Por supuesto, esto se trata de una colaboración internacional, ya que aquí no se dispone de un dispositivo experimental de esas características. Tenemos convenios con el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT) de España, con la UNED, que son quienes nos proporcionan el acceso a las bases de datos. Yo también mantengo contacto con profesionales del JET perteneciente al Centro Culham de Fusión Nuclear, en Reino Unido, donde tuve la oportunidad de realizar una pasantía como investigador el 2017, donde pude conocer cómo opera la instalación, cómo se distribuyen los datos y se generan las bases de datos, entre otras cosas. En estas actividades hay investigadores de Italia, Reino Unido, España, Rumania y nosotros. En Chile al menos, creo que es una iniciativa muy peculiar, porque no he visto colegas que estén indagando en este tipo de cosas. Este FONDECYT contempla una ejecución de cuatro años, partimos el 2019 y el próximo año culminamos este proceso. Dentro de los estudiantes que han colaborado conmigo, están Sebastián Vergara que terminó su pregrado y realizó la tesis de Magíster en Ciencias de la Ingeniería, mención Ingeniería Eléctrica a raíz de este proyecto, Diego Hidalgo, también de magíster, José Cortés.

 

¿A qué tipo de herramientas se tiene que recurrir para este tipo de investigación?

 G: Todo esto se enmarca en lo que conocemos como algoritmos, control automático, aprendizaje profundo, etcétera. En el fondo, lo que es inteligencia artificial. El software o lenguaje de programación de referencia hoy en día es Python y es esencial si uno quiere adentrarse en estas problemáticas. Usamos también MatLab, muchísimo. Es una herramienta que tenemos disponible a nivel Facultad y que es ampliamente utilizada en la industria. Lo que es interesante es que hay una amplia comunidad detrás de todo eso, cierto, Google, Amazon o Microsoft proporcionan kits de herramientas tipo TensorFlow, donde uno puede generar estos modelos de aprendizaje profundo. En el caso de Python, hay muchas cosas que están hechas, pero que no han sido aplicadas en otras iniciativas. Tener a esta comunidad detrás que puede apoyarte con la resolución de errores por ejemplo, es algo muy positivo y que nutre mucho cualquier investigación que uno realice.

 

¿Cómo se encuentra el panorama investigativo en lo que es detección de anomalías en general?

 G: A grandes rasgos, desde la perspectiva del aprendizaje profundo, la detección de anomalías es un tópico muy candente. Por su aplicabilidad, sin ir más lejos. He visto cada vez más interés en el área. Hay mucha gente indagando al respecto, en las temáticas más variopintas, ya sea, reconocimiento facial, clasificación de imágenes, pronóstico metereológico, contaminación atmosférica, pronóstico de accidentes, y así… la cantidad es enorme. Existe una gran democratización del uso de estas técnicas que antes estaban muy asociadas netamente al mundo científico e ingenieril. Las posibilidades que hay, desde hace unos cinco o seis años, ha crecido de forma inédita.

 

Para concluir, ¿qué importancia observa en estas temáticas ligadas a la inteligencia artificial?

 G: Pensando en lo que hacemos en este FONDECYT, pienso que con estos avances uno puede pensar en la seguridad de grandes proyectos que se están ejecutando a nivel mundial. Pensemos por ejemplo en el ITER, proyecto internacional que busca, en palabras muy coloquiales, generar un pequeño Sol que nos permita generar energía limpia, continua y sustentable. Con este tipo de técnicas, uno podría afirmar que no ocurriría lo que lamentablemente sucedió en eventos históricos como Chernóbil o Fukushima. Y todo gracias a la aplicación de la inteligencia artificial. También se revela lo importante que es el tratamiento de información a grandes escalas. En cualquier contexto. Estamos hablando de sistemas que monitorean datos de forma automática, pero también de decisiones que podrían tomarse automáticamente en el futuro por estos sistemas. El potencial es gigante.

 

Para conocer más del laboratorio de inteligencia artificial de la EIE, puede consultarse el sitio web oficial.