[ad_1]

La inteligencia artificial, el aprendizaje automático y las redes neuronales son términos que cada vez resultan más habituales en la vida cotidiana. El reconocimiento de caras, la detección de objetos, la clasificación, segmentación y contabilización de personas son tareas comunes para los algoritmos de aprendizaje automático, que ya se utilizan de forma generalizada. Detrás de todos estos procesos está el Machine Learning o el aprendizaje automático, que implica que los ordenadores pueden captar las propiedades esenciales o las características clave de procesos, fenómenos donde relaciones entre objetos son realmente complejas. Esto constituye un proceso de aprendizaje sobre buenos y malos ejemplos, sin tener ningún conocimiento previo sobre los objetos ni conocer las leyes físicas que hay detrás.

 

Pero el aprendizaje automático, al tratarse de un proceso de optimización ciega, se mantiene como una caja negra: cuando el ordenador toma una decisión que se considera válida, no se conoce el porqué de esta decisión y no otra, por lo que la maquinaria interna del método sigue sin estar clara. Como resultado, las predicciones del aprendizaje automático para situaciones críticas son bastante arriesgadas y poco fiables, ya que pueden generar predicciones engañosas.

 

En este trabajo realizado por el grupo de investigadores formado por Vladimir Baulin, del Departamento de Ingeniería Química de la URV (Catalunya, España); Marc Werner, del Leibniz Institute of Polymer Research (Dresden) i Yachong Guo (de la Universidad de Nanjing, China) ha puesto a prueba las predicciones de una red neuronal para comprobar si sus predicciones coinciden con el resultado real, ya conocido. Para ello escogieron un ejemplo práctico y bien definido: la red neuronal debía diseñar una molécula de polímero con la que atravesar la membrana lipídica en un tiempo mínimo. La membrana lipídica es una barrera natural que protege a las células del daño y de componentes externos. Para controlar la predicción de la red neuronal, los investigadores desarrollaron un método numérico inédito que utiliza un sistema de enumeración exhaustiva y completa todas las posibilidades de composición de polímero gracias a la programación directa de las tarjetas gráficas de alto rendimiento en cálculos paralelos. “El procesador tradicional de un ordenador puede contener un máximo de 12-24 núcleos para realizar cálculos, pero las tarjetas gráficas están diseñadas para hacer cálculos paralelos de píxeles de imágenes y vídeos y tienen miles de núcleos de cálculos optimizados para cálculos paralelos” explica Vladimir Baulin. Esta enorme potencia computacional permite generar miles de millones de combinaciones de polímeros en tan solo unos segundos o minutos. De esta manera es posible de generar un mapa que contenga todas las combinaciones posibles y, por tanto, monitorizar cómo la red neuronal elige el resultado correcto.

 

[Img #61616]

 

(Foto: URV)

 

“Lo que es sorprendente es que una red mínima y tan simple como la red neuronal sea capaz de encontrar correctamente la composición de una molécula”, destaca Baulin. “Esto se debe probablemente a que los sistemas físicos obedecen a las leyes de la naturaleza, que tienen simetría intrínseca y auto-similitud, lo que a su vez reduce drásticamente el número de posibles combinaciones de parámetros, que luego son capturados por las redes neuronales, ”añade el investigador.

 

Por lo tanto, comparar el resultado de la red neuronal con el resultado exacto no solo permite comprobar la predicción, sino que también puede demostrar cómo evolucionan las predicciones si se cambia la tarea, mostrando así como las redes neuronales toman decisiones y como “piensan”. (Fuente: URV)

[ad_2]

Source link