header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Cómo la ciencia ficción es la formación a ignorar las amenazas reales por AI. Maran Nelson clara laboratorios en por qué películas como ella y Ex Machina se pierda el punto de

Jun 20, 2018 11:00 AM ET
Ilustración de Alex Castro / al borde

CEOs de empresas de la inteligencia artificial generalmente tratan de minimizar las amenazas planteadas por AI, en lugar de jugar para arriba. Pero en el episodio de esta semana de Converge, Clara laboratorios Co-fundador y CEO de Maran Nelson nos dice no hay razón para preocuparse por AI y no por las razones que la ciencia ficción ha entrenado nos esperan.

Películas como su Ex Machina representan un futuro en que antropomorfo inteligencias artificiales manipular nuestras emociones y aun cometen violencia contra nosotros. Pero las amenazas como Ex Machinade Ava requerirá varios avances tecnológicos antes de que son remotamente plausibles, dice Nelson. Y mientras tanto, real AI estado de la técnica, que utiliza la máquina de aprender a hacer predicciones algorítmicas — ya está causando daño.

“En el transcurso de los próximos cinco años, mientras las empresas sigan mejor y mejor a la construcción de estas tecnologías, el público en general no va a entender lo que es lo que se está haciendo con sus datos, lo que está regalando, y cómo debe ser asustados de las formas que AI está ya jugando en y con su vida y su información,”dice Nelson.

Predicciones de AI que quizás quieras leer artículos contribuyeron a la propagación de información falsa en Facebook y la crisis financiera de 2008, dice Nelson. Y ya que algoritmos operan invisiblemente, a diferencia de Ava y otros personajes de AI en la ficción — son más perniciosos. “Es importante siempre darle el mayor control del usuario y mayor visibilidad que habían tenido antes de que sistemas como este”, dice Nelson. Y sin embargo, cada vez más, AI está diseñado para tomar decisiones para los usuarios sin preguntarles primero.

Enfoque de clara AI es inocuo hasta el punto de ser aburrido: es un asistente virtual que horarios reuniones de personas. (Esta semana, ha añadido un montón de integraciones diseñado para posicionarlo como una herramienta para ayudar en la contratación.) Pero incluso aparentemente tareas simples viaje todavía rutinariamente por AI. «Son las situaciones más difíciles que a menudo interactuamos con, ‘ el próximo miércoles sería genial — a menos que se puede hacer en persona, en cuyo caso tendremos golpear un par de semanas según tu preferencia. Feliz de llegar a sus oficinas. “”

Incluso un AI estado de la técnica no puede procesar este mensaje con un alto grado de confianza, por lo que Clara contrata a personas para verificar el trabajo de Amnistía Internacional. Es un sistema conocido como “ser humano en el lazo”, y Nelson dice que es esencial a la construcción de IA que es potente y responsable.

Nelson esboza su visión de un mejor tipo de AI en Converge, un espectáculo de juego de entrevista donde las personalidades más grandes de tecnología nos hablan de sus sueños. Es un espectáculo que es fácil ganar, pero no imposible de perder, porque, en la ronda final, finalmente tienen la oportunidad de jugar y marcar algunos puntos de mi.

Puede leer una transcripción parcial, ligeramente editada con Nelson abajo, y encontrarás el episodio completo de Converge arriba. Usted puede escuchar a él aquí o en cualquier otra encontrará podcasts, incluyendo Podcasts de Apple, Modelos de bolsillo, Google Play Music, Spotify, nuestro feed RSSy donde podcasts finos se venden.

Maran Nelson: Mi gran idea es que la ciencia ficción ha lastimado realmente las posibilidades de que nos vamos a asustarse de AI cuando debe.

Casey Newton: Hemos visto muchas películas y programas de televisión donde hay un malévolo AI, por lo que quiero para descomprimir que para nosotros un poco. ¿Qué quieres decir?

Casi cada vez que las personas han jugado con la idea de una IA como se verá, y lo que significa que sea miedo, se ha antropomorfizado tremendamente. Tiene esta cosa — viene, camina hacia ti, y parece que probablemente vas a morir, o lo hizo muy claro que hay alguna oportunidad de tu vida está en peligro.

Sí.

Lo que me asusta más sobre que es no la probabilidad de que en los próximos cinco años algo como esto va a pasar con nosotros, pero la probabilidad de que él no. En el transcurso de los próximos cinco años, mientras las empresas sigan mejor y mejor a la construcción de estas tecnologías, el público en general no va a entender lo que es lo que se está haciendo con sus datos, lo que está regalando, y cómo debe ser asustados de las formas t sombrero de AI ya se está reproduciendo en y con su vida y su información.

Así que la idea de HAL de 2001 es distraer gente de cuáles son las amenazas reales.

Mucho.

Creo que otro que no piensa la gente como es el financiero de 2008 colapso. Hay otra situación donde hay personas que están construyendo los modelos de riesgo sobre lo que pueden hacer con el dinero. Entonces están dando los modelos de riesgo, que son en efecto mo

dels como las que están suministrando energía Facebook News Feed y todos estos otros modelos predictivos, y les están dando a los banqueros. Y están diciendo, “Hey, banqueros, parece que tal vez estos préstamos de la securitización en la vivienda, va a estar bien.” No va a estar bien. ¡No es en absoluto! Está tratando con una gran cantidad de incertidumbre, y al final de la jornada en ambos casos, como con el News Feed, con los préstamos de securitización, son los consumidores que terminan teniendo el gran éxito debido a que la Corporación sí mismo no tiene ninguna verdadera rendición de cuentas estructura.

Una de las ideas que está recibiendo en es que empresas de todos los tamaños tipo de onda AI alrededor como un talismán mágico y el momento que dicen, “bueno, no te preocupes, ponemos AI,” Estamos supuestos a relajarse y decir, “Oh, bien los equipos tienen esta manejado”. Pero lo que usted está señalando que estos modelos pueden ser muy malos predecir cosas. O predicen las cosas mal.

Absolutamente, y creo que la realidad es todo lo contrario. Cuando empiezas a interactuar con los consumidores y un producto como el nuestro es en gran parte AI, existe un factor de temor. ¿Qué significa eso? ¿Qué significa que estoy renunciando o regalar? Es importante siempre dar al usuario un mayor control y visibilidad que tenía antes de que sistemas como este.

See Campaign: https://www.theverge.com/2018/6/20/17475410/ai-science-fiction-clara-labs-maran-nelson-interview-converge-podcast
Contact Information:
Casey Newton

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News