En un pequeño evento en San Francisco la noche anterior, IBM organizó dos debates de estilo club de debate entre dos seres humanos y una inteligencia artificial llamada “proyecto polemista“. El objetivo era para que la IA a participar en una serie de argumentos razonados según algunas reglas bastante estándar del debate: no hay conciencia del tema de debate por delante de las respuestas de tiempo, no la conservas. Cada lado dio un discurso introductorio de cuatro minutos, cuatro minutos refutación de otros argumentos, y una declaración de cierre de dos minutos.
Proyecto polemista celebró su propio.
Parece un enorme salto más allá que otros splashy demostración que todos recordamos de IBM, cuando Watson trapeó el piso con su concurso en peligro. Demostración de AI de IBM hoy en día fue construido sobre esa base, él tenía muchos corpus de datos que podría dibujar, tal como Watson lo hizo en su día. Y como Watson, fue capaz de analizar el contenido de todo lo que los datos para llegar a la respuesta pertinente, pero esta vez la “respuesta” fue contundente puntos relacionados a subvencionar espacio y telemedicina en un discurso de cuatro minutos defendiendo cada uno.
Proyecto polemista citaba fuentes, fomentó la afinidad del público para niños y veteranos y realizó un trabajo pasable de agrietarse un chiste pertinente o dos en el proceso.
Eso es bastante impresionante — esencialmente creó una clase de nivel de primer año de trabajo de discusión en tan solo un par de minutos plana cuando está presentado con un tema debate que no tenía ninguna preparación específica para. El sistema tiene “varios artículos 100 millones” que supone son exactos en sus bancos de datos, alrededor de cerca de 100 áreas de conocimiento. Cuando se pone un tema de debate, toma un par de minutos a examen a través de ellos, decide qué haría los mejores argumentos a favor del tema y luego crea un pequeño discurso que describe los puntos.
Algunos de los puntos que fueron bastante fáciles, algunos cita fuentes, y algunos fueron bastante claramente cribbed de artículos. Todavía, sin embargo, fue capaz de moverse desde el modo “presentar información” generalmente pensamos cuando escuchamos AI a un modo de “hacer un argumento”. Pero lo que más me impresionó fue que trató de discutir directamente con puntos que sus oponentes humanos hecho en casi tiempo real (el sistema necesario un par de minutos para analizar el discurso de 4 minutos de humanos antes de que pudiera responder).
Francamente me hizo sentir un poco inestable, pero no debido a las habituales preocupaciones como “robots van a ser auto conscientes y asumir el control” o “AI viene para nuestros trabajos”. Era algo más sutil y más difícil poner mi dedo. Tal vez la primera vez, sentí que una IA estaba tratando de desmontar. No verlo mentir, ni creo trató de engañarnos, pero lo participar en una táctica de debate que, si has visto un ser humano intenta, confía un poco en humanos hacen poco menos.
Aquí estaba la escena: un polemista humano fue argumentando contra la moción que el gobierno debe subvencionar la exploración del espacio. Estableció un marco para entender el mundo, una táctica debate bastante común. Subsidios, argumentó, deben ajustarse a uno de dos criterios específicos: satisfacer necesidades humanas básicas y crear cosas que sólo podrían hacerse por el gobierno. Exploración del espacio no coincidía con el proyecto de ley. Muy bien.
Debate del proyecto, cuya tarea era responder directamente a los puntos, no muy refutarles directamente. Sin duda habló en la misma zona: afirmó que “subvencionar exploración espacial generalmente devuelve la inversión” en forma de potencia económica de descubrimiento científico, y se dice que para una nación como Estados Unidos, “tener un programa de exploración espacial es una parte fundamental de ser una gran potencia”.
Qué proyecto polemista no es participar directamente los criterios establecidos por su oponente humano. Y aquí está la cosa: si yo estuviera en ese debate, no habría hecho tan bien. Es un fuerte debate táctica para definir el marco de debate y aceptando que marco es a menudo una receta para perder.
¿La pregunta, entonces: polemista proyecto simplemente no entendía los criterios, o lo entendieron y elegir no participar en esos términos? Viendo el debate, me imaginé la respuesta fue que no bastante conseguir — pero no era positiva. Yo no podía decir la diferencia entre una IA no es tan inteligente como podría ser y una inteligencia artificial siendo la manera más inteligente que he visto a un IA antes de. Fue un momento bastante cognitivamente disonante. Como dije: inquietante.
Director Jeff Welser, el Vicepresidente y el laboratorio de investigación de IBM en Almaden, poner mi mente en la facilidad. Proyecto polemista no lo recibi. Pero no sale de una manera realmente interesante e importante. “No ha habido ningún esfuerzo para realmente jugar tricky o desmontaje,” él me dice que (ufff). “Pero en realidad hacer… exactamente lo que un humano no, pero lo hace dentro de sus limitaciones”.
Esencialmente, polemista de proyecto asigna una puntuación de confianza para cada pedazo de información que entiende. ¿Como en: seguro de cómo es el sistema que realmente entiende el contenido de lo que se está discutiendo? “Si está seguro de que tiene ese punto de derecho, si realmente cree que entiende lo que estaba diciendo ese oponente, él y r