header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Estas son algunas de las formas en que los expertos piensan que la IA podría confundirnos en los próximos cinco años. Recuerde: prevenido es prevenido

Feb 21, 2018 11:00 AM ET
Ilustración de Alex Castro / The Verge

Cuando hablamos de los peligros que representa la inteligencia artificial, el énfasis es por lo general sobre los efectos secundarios previstos de la ONU. Nos preocupa que podamos crear accidentalmente una IA súper inteligente y olvidar programarla con conciencia; o que implementaremos algoritmos de sentencia criminal que han absorbido los sesgos racistas de sus datos de entrenamiento.

Pero esto es solo la mitad de la historia.

¿Qué pasa con las personas que desean utilizar activamente la inteligencia artificial para fines inmorales, delictivos o maliciosos? ¿No es más probable que causen problemas, y antes? La respuesta es afirmativa, según más de dos docenas de expertos de institutos que incluyen el Instituto del Futuro de la Humanidad, el Centro para el Estudio del Riesgo Existencial y el OpenAI sin ánimo de lucro apoyado por Elon Musk. Mucho si

En un informe publicado hoy titulado ” El uso malicioso de la inteligencia artificial: previsión, prevención y mitigación “, estos académicos e investigadores explican algunas de las formas en que la IA podría utilizarse para atacarnos en los próximos cinco años, y lo que podemos hacer para detenerlo Debido a que, si bien AI puede permitir algunos nuevos ataques bastante desagradables, el coautor del artículo, Miles Brundage del Instituto del Futuro de la Humanidad, le dice a The Verge , ciertamente no deberíamos entrar en pánico ni abandonar la esperanza.

“Me gusta tomar el encuadre optimista, que es que podríamos hacer más”, dice Brundage. “El punto aquí no es pintar una imagen de pesimismo: hay muchas defensas que se pueden desarrollar y hay mucho que aprender. No creo que sea inútil, pero sí veo este papel como un llamado a la acción “.

El informe es extenso, pero se centra en algunas formas clave en que la IA va a exacerbar las amenazas para los sistemas de seguridad física y digital, y también creará peligros completamente nuevos. También hace cinco recomendaciones sobre cómo combatir estos problemas, incluido conseguir que los ingenieros de IA sean más directos sobre los posibles usos maliciosos de su investigación; y comenzando nuevos diálogos entre políticos y académicos para que los gobiernos y la aplicación de la ley no te atrapennawares.

Sin embargo, comencemos con amenazas potenciales: una de las más importantes es que AI reducirá drásticamente el costo de ciertos ataques al permitir que los malos actores automaticen las tareas que antes requerían trabajo humano.

Tomemos, por ejemplo, spear phishing, en el cual a los individuos se les envían mensajes especialmente diseñados para engañarlos y dejarles sus credenciales de seguridad. (Piense: un correo electrónico falso de su banco o de lo que parece ser un viejo conocido). AI podría automatizar gran parte del trabajo aquí, diseñando la red social y profesional de un individuo, y luego generando los mensajes. Hay un gran esfuerzo para crear chatbots realistas e interesantes en este momento, y ese mismo trabajo podría usarse para crear un chatbot que se haga pasar por su mejor amigo y que de repente, por alguna razón, realmente quiera saber su contraseña de correo electrónico.

Este tipo de ataque suena complejo, pero el punto es que una vez que haya creado el software para hacerlo todo, puede usarlo una y otra vez sin costo adicional. Los correos electrónicos de phishing ya son lo suficientemente dañinos: fueron responsables tanto de la fuga de iCloud de las imágenes de celebridades en 2014, como del hackeo de correos electrónicos privados del presidente de campaña de Hillary Clinton, John Podesta. Esta última no solo influyó en las elecciones presidenciales de 2016 en Estados Unidos, sino que también alimentó una serie de teorías de conspiración como Pizzagate, que casi mata a personas . Piensa en lo que un lanzador automático de disparos de IA podría hacer a los funcionarios del gobierno analfabetos en tecnología.

El segundo gran punto planteado en el informe es que AI agregará nuevas dimensiones a las amenazas existentes. Con el mismo ejemplo de spear phishing, AI podría ser utilizado no solo para generar correos electrónicos y mensajes de texto, sino también audio y video falsos. Ya vimos cómo se puede usar la IA para imitar la voz de un objetivo después de estudiar unos pocos minutos de voz grabada , y cómo puede convertir el metraje de personas hablando en títeres . El informe se centra en las amenazas que se presentarán en los próximos cinco años, y estos se están convirtiendo rápidamente en problemas.

Y, por supuesto, hay toda una gama de otras prácticas desagradables que AI podría exacerbar. La manipulación política y la propaganda para empezar (una vez más, las áreas donde el video y el audio falsos podrían ser un gran problema ), pero también la vigilancia, especialmente cuando se usan para atacar a las minorías. El mejor ejemplo de esto ha sido en China, donde el reconocimiento facial y las cámaras de seguimiento de personas han convertido una región fronteriza, hogar de la minoría uigur mayoritariamente musulmana, en un ” estado de vigilancia total “.

Estos son solo ejemplos de la capacidad de AI para convertirse en una amenaza. Reemplaza a los humanos que miran las alimentaciones, convirtiendo la cámara CCTV de pasiva en observadores activos, lo que les permite categorizar el comportamiento humano automáticamente. “La escalabilidad en particular es algo que no ha recibido suficiente atención”, dice Brundage. “No es solo el hecho de que la inteligencia artificial puede funcionar a niveles humanos en ciertas tareas, sino que puede escalar hasta una gran cantidad de copias”.

Finalmente, el informe destaca los peligros completamente novedosos que crea AI. Los autores describen una serie de escenarios posibles, incluido uno en el que los terroristas implantan una bomba en un robot de limpieza y la introducen de contrabando en un ministerio del gobierno. El robot usa su visión artificial incorporada para rastrear a un político en particular, y cuando está cerca, la bomba detona. Esto aprovecha los nuevos productos que AI habilitará (los robots de limpieza) pero también sus funciones autónomas (el seguimiento basado en la visión artificial).

Esbozar escenarios como este puede parecer un poco fantástico, pero ya hemos comenzado a ver los primeros ataques novedosos habilitados por AI. La tecnología de intercambio de rostros se ha utilizado para crear los denominados “deepfakes”, pegar las caras de celebridades en clips pornográficos sin su consentimiento . Y aunque no ha habido casos destacados de esto hasta la fecha, sabemos que los involucrados en la creación de este contenido quieren probarlo con personas que conocen; creando un forraje perfecto para el acoso y el chantaje.

Estos ejemplos solo incluyen una parte del informe, pero el documento completo lo deja preguntándose: ¿qué hacer? Las soluciones son fáciles de describir, pero será un desafío seguir adelante. El informe hace cinco recomendaciones clave:

  • Los investigadores de IA deben reconocer cómo su trabajo puede ser usado maliciosamente
  • Los responsables políticos deben aprender de los expertos técnicos sobre estas amenazas
  • El mundo de la IA necesita aprender de expertos en ciberseguridad cómo proteger mejor sus sistemas
  • Los marcos éticos para la IA deben ser desarrollados y seguidos
  • Y más personas necesitan participar en estas discusiones. No solo los científicos y formuladores de políticas de IA, sino también los especialistas en ética, las empresas y el público en general.

En otras palabras: un poco más de conversación y un poco más de acción, por favor.

Es una gran pregunta teniendo en cuenta la inteligencia artificial de un sujeto complejo y matizado, pero ha habido signos prometedores. Por ejemplo, con el aumento de deepfakes, las plataformas web reaccionaron rápidamente, prohibiendo el contenido y deteniendo su propagación inmediata . Y los legisladores en los Estados Unidos ya comenzaron a hablar sobre el problema , mostrando que estos debates llegarán al gobierno si son lo suficientemente urgentes.

“Ciertamente hay interés”, dice Brundage sobre la participación del gobierno en la discusión de estos temas. “Pero todavía existe la sensación de que se necesita más discusión para descubrir cuáles son las amenazas más críticas y cuáles son las soluciones más prácticas”. Y en la mayoría de los casos, dice, es difícil siquiera juzgar qué será una amenaza cuando. “No está claro qué tan gradual será todo esto, si habrá un gran evento catastrófico, o si será algo lento que nos dé muchas oportunidades para adaptarnos”.

“Pero es exactamente por eso que planteamos estos problemas ahora”.

See Campaign: http://www.theverge.com/2018/2/20/17032228/ai-artificial-intelligence-threat-report-malicious-uses
Contact Information:
James Vincent

Tags:
, Wire, Artificial Intelligence Newswire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News