Spain Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Mar 29, 2018 1:00 PM ET

Para proteger la inteligencia artificial de los ataques, muéstrela Datos falsos


Para proteger la inteligencia artificial de los ataques, muéstrela Datos falsos

iCrowd Newswire - Mar 29, 2018

A veces, se puede engañar a los sistemas para que vean algo que no está realmente allí, como cuando el software de Google “vio” una tortuga impresa en 3-D como un rifle . Una forma de detener estos ataques potenciales es crucial antes de que la tecnología se pueda desplegar ampliamente en sistemas críticos para la seguridad, como el software de visión por computadora que se encuentra detrás de los autos sin conductor.

En la conferencia anual EmTech Digital de MIT Technology Review en San Francisco esta semana, el investigador de Google Brain Ian Goodfellow explicó cómo los investigadores pueden proteger sus sistemas.

Goodfellow es mejor conocido como el creador de redes adversas generativas (GAN), un tipo de inteligencia artificial que hace uso de dos redes entrenadas en los mismos datos. Una de las redes, llamada generador, crea datos sintéticos, generalmente imágenes, mientras que la otra red, llamada discriminador, usa el mismo conjunto de datos para determinar si la entrada es real. Goodfellow analizó casi una docena de ejemplos de cómo los diferentes investigadores han usado GAN en su trabajo, pero se centró en su principal interés actual de investigación, defendiendo a los sistemas de aprendizaje automático de ser engañados en primer lugar. Él dice que para las tecnologías anteriores, como los sistemas operativos, la defensa de la tecnología se agregó después, un error que no quiere que se haga con el aprendizaje automático.

“Quiero que sea lo más seguro posible antes de confiar demasiado en él”, dice.

Los GAN son muy buenos para crear ejemplos adversos realistas, que terminan siendo una muy buena forma de entrenar los sistemas de Inteligencia Artificial para desarrollar una defensa robusta. Si los sistemas están entrenados en ejemplos adversarios que tienen que detectar, mejoran al reconocer ataques adversos. Cuanto mejores sean esos ejemplos adversarios, más fuerte es la defensa.

Goodfellow dice que estas preocupaciones aún son teóricas y que no ha escuchado que se utilicen ejemplos antagónicos para atacar los sistemas de visión por computadora, pero los bots o los spammers intentan usar métodos similares para parecer más tráfico legítimo y lograr sus objetivos.

Afortunadamente, dice Goodfellow, aún hay tiempo para preparar nuestros sistemas para defenderse de los ataques con inteligencia artificial.

“Hasta ahora, el aprendizaje automático no es lo suficientemente bueno como para ser utilizado en ataques”, dice.

See Campaign: http://www.technologyreview.com/s/610656/to-protect-artificial-intelligence-from-attacks-show-it-fake-data/
Contact Information:
Jackie Snow

Tags:
, Wire, Artificial Intelligence Newswire, United States, Spanish

image




iCrowdNewswire

Tags:    News