header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Equipo de físicos de partículas con AI para resolver los problemas más difíciles de la ciencia

Aug 3, 2018 6:00 AM ET

machine learning, illustration

Los investigadores del SLAC y alrededor del mundo utilizan cada vez más máquina de aprendizaje para manejar grandes datos producidos en experimentos modernos y estudiar algunas de las propiedades más fundamentales del universo.

Experimentos en el Gran Colisionador de Hadrones (LHC), acelerador de partículas más grande del mundo en el laboratorio europeo de física de partículas CERN, producen cerca de 1 millón gigabytes de datos cada segundo. Incluso después de la reducción y compresión, los datos en sólo una hora están similares al volumen de datos Facebook recauda en un año entero, demasiado para almacenar y analizar.

Por suerte, los físicos de partículas no tienen que lidiar con todos esos datos por sí mismos. Asocian con una forma de inteligencia artificial llamado el aprender de máquina que aprende a hacer análisis complejos sobre su propia.

Un grupo de investigadores, incluyendo científicos de laboratorio nacional de acelerador SLAC del Departamento de energía de Estados Unidos y el Fermi National Accelerator Laboratory, resumir las aplicaciones actuales y perspectivas futuras de aprendizaje de máquina en física de la partícula en “Máquina de aprendizaje en la energía y la intensidad de las fronteras de la física de la partícula,” publicado en la revista Nature.

“En comparación con un algoritmo de computadora tradicionales que diseñamos para hacer un análisis específico, diseñamos un algoritmo de aprendizaje de máquina para averiguar por sí mismo cómo hacer distintos análisis, potencialmente nos ahorra incontables horas de trabajo de análisis y diseño,” dice el co-autor Alexander Radovic de la College of William & Mary, que trabaja en el experimento del neutrino de NOvA.

Decisiones de los datos

Para manejar los volúmenes de datos gigantescos producidos en experimentos modernos como los del LHC, los investigadores aplican lo que llaman “disparadores”, dedicado a hardware y software que decidir en tiempo real los datos que se mantienen para el análisis y los datos que se mezcla hacia fuera.

En LHCb, un experimento que podría arrojar luz sobre por qué hay mucha más materia que antimateria en el universo, aprender a hacer algoritmos por lo menos el 70 por ciento de estas decisiones, la máquina dice a LHCb científico Mike Williams de Massachusetts Institute of Technology , uno de los autores del Resumen de la naturaleza . “Aprendizaje máquina desempeña un papel en casi todos los aspectos de los datos del experimento, de disparadores para el análisis de los datos restantes,” él dice.

El aprender de máquina ha demostrado gran éxito en el área de análisis. Los gigantescos detectores ATLAS y CMS en el LHC, que permitió el descubrimiento del bosón de Higgs, cada uno tienen millones de detección de señales de que es necesario poner los elementos para obtener resultados significativos.

“Estas señales constituyen un espacio de datos complejos,” dice Michael Kagan de SLAC, que trabaja en el ATLAS y fue también autor de la revisión de la naturaleza . “Necesitamos entender la relación entre ellos para llegar a conclusiones, por ejemplo que una cierta partícula de pista en el detector fue producido por un electrón, un fotón o algo más”.

Experimentos del neutrino también aprovechar el aprender de máquina. NOvA, que es administrado por Fermilab, estudia cómo neutrinos cambian de un tipo a otro en su viaje a través de la tierra. Estas oscilaciones del neutrino potencialmente podrían revelar la existencia de un nuevo tipo de neutrino que algunas teorías predicen que una partícula de materia oscura. Detectores de nOvA están velando por las partículas cargadas producidas neutrinos golpear el material del detector, y algoritmos de aprendizaje de máquina identifican.

Aprendizaje más

Novedades en el aprender de máquina, a menudo se llama “aprendizaje profundo”, prometen hacer aplicaciones en física de partículas aún más. Aprendizaje profundo se refiere normalmente al uso de redes neuronales: algoritmos con una arquitectura inspirada en la densa red de neuronas en el cerebro humano.

Estas redes de los nervios aprenden por cuenta propia a realizar ciertas tareas de análisis durante un período de formación en la que son muestra los datos de muestra, tales como simulaciones y dijo lo bien realizan.

Hasta hace poco, el éxito de redes de los nervios era limitado porque les era muy duro, dice coautor Kazuhiro Terao, un investigador SLAC en el experimento de neutrinos MicroBooNE , que estudia las oscilaciones del neutrino como parte de Fermilab neutrino corto-línea de base del programa y se convertirá en un componente del futuro profundo subterráneo del Neutrino experimento en las instalaciones de Long Baseline Neutrino. “Estas dificultades nos limitan a las redes neuronales que eran sólo un par de capas profundas”, dice. “Gracias a los avances en algoritmos y hardware de computación, ahora sabemos mucho mejor cómo construir y formar redes más capaces de cientos o miles de capas profundas”.

Muchos de los avances en el aprendizaje profundo son conducidos por aplicaciones comerciales gigantes de la tecnología y la explosión de datos que han generado en las últimas dos décadas. “NOvA, por ejemplo, utiliza una red neuronal inspirado por la arquitectura de la GoogleNet,” dice Radovic. “Mejoró el experimento de manera que de lo contrario podría sólo han logrado por la recogida de datos de más del 30 por ciento”.

Resumen de características

Algoritmos de aprendizaje de máquina se convierten en más sofisticado y perfeccionado día a día, abriendo oportunidades sin precedentes para resolver problemas de física de partículas.

Muchas de las nuevas tareas que podían ser utilizados para se relacionan con visión por computador, dice Kagan. “Es similar al reconocimiento facial, excepto que en física de partículas, características de la imagen son más abstractos que orejas y narices.”

Algunos experimentos como NOvA y MicroBooNE producen datos que fácilmente se traducción en imágenes reales, y AI se puede usar para identificar características en ellos. En los experimentos del LHC, por el contrario, imágenes primero necesitan ser reconstruido a partir de una turbia piscina de datos generados por millones de elementos del sensor.

“Pero incluso si los datos no parecen imágenes, todavía podemos utilizar métodos de visión de computadora si somos capaces de procesar los datos de la manera correcta”, dice Radovic.

Un área donde este enfoque podría ser muy útil es el análisis de los chorros de partículas producidas en números grandes en el LHC. Los jets son estrechas aerosoles de partículas cuyas pistas individuales son extremadamente difíciles de separar. Tecnología de visión de computadora podría ayudar a identificar características en los jets.

Otra aplicación emergente de aprendizaje profundo es la simulación de datos de física de partículas predicen, por ejemplo, lo que ocurre en colisiones de partículas en el LHC y puede ser comparado con los datos reales. Simulaciones como estos son típicamente lentos y requieren gran potencia de cálculo. AI, por otra parte, podía hacer simulaciones mucho más rápido, potencialmente complementando el enfoque tradicional.

“Hace apenas unos años nadie hubiera pensado que las redes neuronales profundos pueden ser entrenadas a ‘alucinar’ datos de ruido aleatorio,” dice Kagan. “Aunque se trata de trabajo muy temprano, se muestra una gran promesa y puede ayudar con los retos de datos del futuro.”

Sano escepticismo

A pesar de los avances evidentes, entusiastas del aprendizaje de máquina con frecuencia enfrentan Escepticismo de sus socios de colaboración, en parte porque los algoritmos de aprendizaje de máquina en su mayoría funcionan como “cajas negras” que proporcionan muy poca información acerca de cómo llegaron a un cierta conclusión.

“El escepticismo es muy saludable”, dice Williams. “Si utilizas el aprender de máquina para desencadenadores que descartar datos, como hacemos en LHCb, entonces quieres ser extremadamente prudente y fijar el listón muy alto.”

Por lo tanto, establecer el aprender de máquina en física de partículas requiere constantes esfuerzos para entender mejor el funcionamiento interno de los algoritmos y para hacer comprobaciones cruzadas con datos reales siempre que sea posible.

“Siempre debemos tratar de entender lo que hace un algoritmo de computadora y siempre evaluar su resultado”, dice Terao. “Esto es cierto para cada algoritmo, no sólo máquina de aprendizaje. Por lo tanto, ser escéptico no debería detener el progreso.”

Rápido progreso tiene algunos investigadores soñando de lo que podría ser posible en un futuro cercano. “Hoy estamos utilizando máquina de aprendizaje sobre todo encontrar características de datos que nos puede ayudar a responder a algunas de nuestras preguntas”, dice Terao. “Diez años a partir de ahora, algoritmos de aprendizaje de máquina pueden ser capaces de plantear sus propias preguntas independientemente y reconocer cuando se encuentra nueva física.”

Otros co-autores del artículo de naturaleza son David Rousseau de la Universidad de París-Saclay, Francia; Daniele Bonacorsi, de la Universidad de Bologna y del Instituto Nacional de Física Nuclear, Italia; Alexander Himmel de Fermilab; Adam Aurisano de la Universidad de Cincinnati; y Taritree Wongjirad en la Universidad Tufts.

See Campaign: https://cacm.acm.org/careers/230043-particle-physicists-team-up-with-ai-to-solve-toughest-science-problems/fulltext
Contact Information:
SLAC National Accelerator Laboratory

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News