header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

¿Cómo podemos estar seguros de que Ai se comportará? Tal vez viendo discutir con sí mismo… Los expertos sugieren que disponer de sistemas de AI tratar de burlar a uno con el otro podría ayudar a una persona a juzgar sus intenciones.

May 16, 2018 5:00 AM ET

Omeday S, puede ser perfectamente normal ver a un sistema de Ia lucha con sí mismo.

El concepto viene de investigadores OpenAI, una sin fines de lucro fundada por varias luminarias de Silicon Valley, como socio de Y Combinator Sam Altman, Presidente de LinkedIn Reid Hoffman, miembro de la Junta de Facebook y Palantir fundador Peter Thiel y Tesla y SpaceX cabeza de Elon Musk.

Los investigadores OpenAI previamente han demostrado que los sistemas de IA que se entrenan a veces pueden desarrollar hábitos inesperados y no deseados. Por ejemplo, en un juego de ordenador, un agente puede averiguar cómo “glitch” su camino a una puntuación más alta. En algunos casos puede ser posible que una persona para supervisar el proceso de formación. Pero si el programa de AI está haciendo algo increíblemente complejo, esto no podría ser factible. Por lo que los investigadores sugieren que tener dos sistemas de discutir un objetivo particular en su lugar.

“Creemos que esto o un enfoque similar podría eventualmente ayudarnos formar sistemas de AI para llevar a cabo tareas cognitivamente mucho más avanzadas que los seres humanos son capaces de, manteniendo en línea con preferencias humanas”, escriben los investigadores en un blog exponiendo el concepto.

Tomemos, por ejemplo, un sistema de Ia diseñado para defenderse de los humanos o los hackers del AI. Para evitar que el sistema de hacer algo dañino o poco ético, puede ser necesario explicar la lógica de una acción particular. Que lógica puede ser demasiado compleja para una persona comprender, por lo que los investigadores sugieren que tener otro debate AI la sabiduría de la acción con el primer sistema, lenguaje natural, mientras que la persona observa. Otros datos aparecen en un trabajo de investigación.

Tener programas de AI sostienen uno con el otro, requiere una tecnología más sofisticada que existe en la actualidad. Así que hasta el momento, los investigadores OpenAI sólo han explorado la idea con un par de ejemplos muy simples. Uno consiste en dos sistemas de AI tratando de convencer a un observador sobre un personaje oculto revelando lentamente pixeles individuales.

Los investigadores han creado un sitio web donde cualquier dos personas pueden tratar de jugar el papel de los sistemas de AI debates mientras que un tercero sirve como juez. Los dos participantes compiten para convencer al juez acerca de la naturaleza de una imagen destacando partes de él. Eventualmente se convierte en más fácil para el observador a que está siendo honesto.

Vincent Conitzer, investigador en la Universidad de Duke que estudia los problemas éticos que implican AI, dice el trabajo es en una etapa temprana pero prometedor. “Creación de sistemas de IA que pueden explicar sus decisiones es una desafiante agenda de investigación”, dice. “Si tiene éxito, mucho puede contribuir para el uso responsable de AI.”

Tal como está — y a pesar de algunos extravagantes declaraciones de la talla de Elon Musk (un donante OpenAI y hasta hace poco un miembro de su junta), todavía estamos lejos de contar con sistemas AI capaces de engañar y burlar a nosotros en el tipo de escenario retratado en películas como Ex Machina y su.

Aún así, algunos investigadores de AI están explorando maneras de asegurar que la tecnología no se comporta de forma no intencionada. Esto puede llegar a ser más importante como programas AI cada vez más complejo e inescrutable (véase “el oscuro secreto en el corazón de AI“).

“Creo que la idea de la alineación de valor a través del debate es muy interesante y potencialmente útil,” dice Ariel Procaccia, profesor de Ciencias de la computación en CMU que estudia la toma de decisiones con sistemas autónomos.

Sin embargo, Procaccia observa que el trabajo es muy preliminar, y que incluso el concepto puede contener una contradicción fundamental. «En orden a las preguntas cargadas de valor de debate en una forma comprensible para un juez humano, los agentes de AI pueden necesitan tener una comprensión sólida de los valores humanos en primer lugar,» dice. “Así que el enfoque podría decirse que pone el carro delante del caballo.”

Iyad Rawan, investigador Media lab del MIT, añade que los investigadores tendrían que tener cuidado que un par de AIs no entrar en un argumento circular. “Creo que te pegaron algunos temas muy complicados muy rápidamente”, dice. “Primero es cómo automatizar argumentación en lenguaje natural, que sigue siendo un problema no resuelto”.

See Campaign: https://www.technologyreview.com/s/611069/how-can-we-be-sure-ai-will-behave-perhaps-by-watching-it-argue-with-itself/
Contact Information:
Will Knight

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News