x

RSS Newsfeeds

See all RSS Newsfeeds

May 16, 2018 3:00 AM ET

Sujeto a los Términos de uso.

Los investigadores de AI alegan que el aprender de máquina es alquimia

iCrowdNewswire - May 16, 2018

Ali Rahimi, investigador en inteligencia artificial (AI) de Google en San Francisco, California, tuvo un golpe fuerte en su campo en diciembre pasado y recibió una ovación de 40 segundos para él. Hablando en una conferencia de AI, Rahimi cargado eso máquina de aprender algoritmos, en el cual equipos aprenden por ensayo y error, se han convertido en una forma de “Alquimia”. Los investigadores, dijo: no sé por qué algunos algoritmos funcionan y otros no, ni tienen rigurosos criterios para la elección de una arquitectura de AI sobre otro. Ahora, en un documento presentado el 30 de abril en la Conferencia Internacional sobre representaciones aprendizaje en Vancouver, Canadá, Rahimi y sus colaboradores ejemplos de documentode lo que ven como el problema de la alquimia y ofrecen recetas para reforzando AI rigor.

“Hay una angustia en el campo”, dijo Rahimi. “Muchos de nosotros sensación como que estamos operando en una tecnología alienígena”.

El tema es distinto del problema de reproducibilidad de AI, en el que los investigadores no pueden replicar los resultados debido a la inconsistente experimentales y las prácticas de publicación. También difiere de la “caja negra” o “interpretabilidad” problema de aprendizaje de máquina: la dificultad de explicar cómo un particular AI ha llegado a sus conclusiones. Como dice Rahimi, “Estoy intentando establecer una distinción entre una sistema que es una caja negra y un campo entero que se ha convertido en una caja negra de aprendizaje de máquina”.

Sin comprensión profunda de las herramientas básicas necesarias para construir y entrenar nuevos algoritmos, dice, los investigadores crear recurso de AIs a rumores, como los alquimistas medievales. “Las personas gravitan alrededor de las prácticas de culto de la carga,” confiar en “folclore y hechizos mágicos,” agrega François Chollet, un informático de Google en Mountain View, California. Dice, por ejemplo, adoptan mascotas métodos para afinar sus AIs “aprendizaje tipos” — cuánto un algoritmo se corrige después de cada error, sin entender por qué uno es mejor que otros. En otros casos, los investigadores de Ia formación sus algoritmos están simplemente tropezando en la oscuridad. Por ejemplo, poner en práctica lo que denomina “descenso de gradiente estocástico” con el fin de optimizar los parámetros de un algoritmo para la menor tasa de fracaso posible. Aún a pesar de miles de artículos académicos sobre el tema e innumerables maneras de aplicar el método, el proceso todavía se basa en ensayo y error.

Papel de Rahimi destaca el esfuerzo inútil y rendimiento subóptimo que puede resultar. Por ejemplo, señala que cuando otros investigadores desnudaron de la mayor parte de la complejidad de un algoritmo de traducción de lenguaje de vanguardia, realmente traducido del inglés al alemán o francés mejor y más eficiente, mostrando que sus creadores no completamente comprender lo que eran buenas para las partes adicionales. Por el contrario, a veces las campanas y silbidos viramos en un algoritmo son las partes bien, dice Ferenc Huszár, investigador del aprender de máquina en Twitter en Londres. En algunos casos, dice, la base de un algoritmo es técnicamente defectuoso, lo que implica que sus buenos resultados son “atribuibles a otros trucos que aplicar en la parte superior.”

Rahimi ofrece varias sugerencias para el aprendizaje de algoritmos que funcionan mejor y cuando. Para empezar, dice, los investigadores deben realizar “estudios de ablación” como los hechos con el algoritmo de traducción: eliminar las partes de un algoritmo uno a la vez para ver la función de cada componente. Llama “análisis en rodajas”, en que funcionamiento de un algoritmo se analiza en detalle para ver cómo mejora en algunas áreas puede tener un costo en otros lugares. Y dice investigadores deben probar sus algoritmos con diferentes condiciones y configuración y deben reportar actuaciones para todos ellos.

Ben Recht, un científico de la computación en la Universidad de California, Berkeley y coautor de la charla de apertura de alquimia de Rahimi, dice que AI necesita pedir prestado de la física, donde los investigadores a menudo reducir un problema a un pequeño “problema de juguete”. «Los físicos son increíbles en idear experimentos simples para erradicar las explicaciones para los fenómenos», dice. Algunos investigadores de AI ya tienen ese enfoque, pruebas de algoritmos en pequeños caracteres manuscritos en blanco y negro antes de abordar las fotos grandes, para mejor entender la mecánica interna de los algoritmos de reconocimiento de imágenes.

Csaba Szepesvári, un informático en DeepMind en Londres, dice que el campo también tiene que reducir su énfasis en la prueba competitiva. En la actualidad, un papel es más probable que se publicará si el algoritmo reportado gana algún punto de referencia que si el libro arroja luz sobre el funcionamiento interno del software, dice. Es cómo el algoritmo de traducción lujo lo hizo a través de la revisión por pares. “El propósito de la ciencia es generar conocimiento”, dice. “Usted quiere producir algo que otras personas pueden tomar y aprovechar”.

No todo el mundo está de acuerdo con la crítica Rahimi y de Recht. Yann LeCun, director científico de AI de Facebook en la ciudad de Nueva York, le preocupa ese cambio demasiado esfuerzo del límite técnicas hacia la base de comprensión podría frenar la innovación y desalentar la adopción del mundo real de Amnistía Internacional. “No es alquimia, es la ingeniería,” él dice. “La ingeniería es sucia”.

Recht ve un lugar para la investigación metódica y aventura por igual. “Necesitamos tanto”, dice. “Necesitamos entender donde puntos de falla vienen de modo que podemos construir sistemas confiables, y tenemos que empujar las fronteras para que podamos tener sistemas aún más impresionantes de la línea”.

Via iCrowdNewswire
Tags: , News
View Related News >