header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

LAS EMPRESAS DE TECNOLOGÍA HACIA PONER BARANDILLAS ÉTICA ALREDEDOR DE AI

May 17, 2018 5:00 AM ET
Las empresas de tecnología hacia poner barandillas ética alrededor de AI

 

LAS EMPRESAS DE TECNOLOGÍA HACIA PONER BARANDILLAS ÉTICA ALREDEDOR DE AI

thics-FINAL.jpg 825w, https://media.wired.com/photos/5afb6983812eef48e7ed14b9/master/w_942, c_limit/ai_ethics-FINAL.jpg 942w, https://media.wired.com/photos/5afb6983812eef48e7ed14b9/master/w_1164, 1164w, c_limit/ai_ethics-FINAL.jpg https://media.Wired.com/photos/5afb6983812eef48e7ed14b9/Master/w_1598, c_limit/ai_ethics-FINAL.jpg 1598w, https://media.wired.com/photos/5afb6983812eef48e7ed14b9/master/w_1746, c_limit/ai_ethics-FINAL.jpg 1746w, https:// media.Wired.com/photos/5afb6983812eef48e7ed14b9/Master/w_2397,c_limit/ai_ethics-final.jpg 2397w, https://media.wired.com/photos/5afb6983812eef48e7ed14b9/master/w_2400, c_limit/ai_ethics-FINAL.jpg 2400w”/ >

Microsoft, Facebook, Google y otros son creación de grupos internos y revisando aplicaciones de inteligencia artificial.
HOTLITTLEPOTATO

Un día último verano, director de Microsoft de inteligencia artificial investigación, Eric Horvitz, activa la función de piloto automático de su sedán Tesla. El coche sí mismo dirigido por una carretera curva cerca del campus de Microsoft en Redmond, Washington, libera su mente para mejorar el foco en una llamada con una sin fines de lucro había cofundó alrededor de la ética y el gobierno de AI. Luego, él dice, algoritmos de Tesla, que hacia abajo.

“El coche no centro de sí mismo adecuado,” recuerda Horvitz. Dos neumáticos en el lado del conductor del vehículo mellan un levantado bordillo amarillo marca la línea central y triturado. Horvitz tenía la rueda para tirar de su coche lisiada en el carril del gancho agarrador. Él estaba ileso, pero el vehículo salió de la escena en la parte trasera de un camión, con su suspensión trasera dañada. Su conductor izquierda afirma en su creencia de que las empresas implementar AI debe considerar nueva ética y desafíos de seguridad.

En Microsoft, Horvitz ayudó a establecer un Comité de ética interna en 2016 para ayudar a la empresa navegar por lugares potencialmente complicados con su propia tecnología de AI. El grupo es copatrocinado por el Presidente y más senior abogado, Brad Smith de Microsoft. Ha llevado a la empresa para rechazar negocios de clientes corporativos y para fijar las condiciones a algunos acuerdos para limitar el uso de su tecnología.

Horvitz se negó a proporcionar detalles de los incidentes, diciendo sólo que normalmente participan a empresas pidiendo a Microsoft a crear proyectos personalizados de AI. El grupo también tiene Microsoft entrenado equipos de ventas en las aplicaciones de la IA la empresa es de. Y ayudó a Microsoft a mejorar un servicio para el análisis de caras que un trabajo de investigación reveló era mucho menos precisa para las mujeres negras que los hombres blancos. “Ha sido alentador ver la participación de la empresa y cuán seriamente se toman las preguntas”, dice Horvitz. Compara lo que está sucediendo en Microsoft a un despertar más temprano sobre seguridad informática, diciendo que también va a cambiar cómo funciona cada ingeniero en tecnología.

 

Muchas personas están ahora hablando sobre los problemas éticos planteados por AI, como la tecnología se extiende a más rincones de la vida. El Presidente francés Emmanuel Macron recientemente le dijo a WIRED que su nacional planea impulsar el desarrollo de AI consideraría establecer “límites éticos y filosóficos”. Han surgido nuevos institutos de investigación, grupos de la industriay programas filantrópicos .

Microsoft está entre el menor número de empresas que construyen procesos de ética formal. Incluso algunas empresas a cosechar beneficios de AI se han preocupado demasiado rápidamente. “Los últimos años que he estado obsesionado con asegurándose de que todo el mundo puede usarlo mil veces más rápido,” dice Joaquín Candela, director de Facebook de aplica el aprender de máquina. Pero como más equipos dentro de Facebook usan de las herramientas, “empecé a ser muy consciente acerca de los posibles puntos ciegos.”

En la conferencia anual de desarrolladores de Facebook este mes, científico de datos Isabel Kloumann describe una especie de consejero automático para los ingenieros de la compañía llamado equidad de flujo. Mide cómo aprender de máquina software realiza análisis de datos en diferentes categorías — decir hombres y mujeres, o gente en diferentes países, para ayudar a exponer a sesgos potenciales. Investigación ha demostrado que modelos de aprendizaje automático pueden recoger o incluso amplificar prejuicios contra ciertos grupos, como las mujeres o a los mexicanos, cuando está entrenado en imágenes o texto recopilada en línea.

Los primeros usuarios de Kloumann eran ingenieros crear una función de Facebook donde empresas publicar anuncios de reclutamiento. Feedback de flujo de Justicia les ayudó a elegir trabajo algoritmos de recomendación que funcionaron mejor para diferentes tipos de personas, dice. Ahora está trabajando en la construcción de equidad flujo y herramientas similares en la plataforma de aprendizaje máquina utilizan toda la empresa. Algunos científicos de datos realizan comprobaciones similares manualmente; lo que es más fácil debe hacer la práctica más generalizada. “Asegurémonos de que antes de lanzar estos algoritmos que no tienen un impacto dispar en la gente,” dice Kloumann. Un portavoz de Facebook dijo que la compañía no tiene planes para tableros de ética o directrices sobre ética de la AI.

 

‘ Vamos a hacer que antes de lanzar estos algoritmos que no tienen un impacto dispar en la gente.’

ISABEL KLOUMANN, FACEBOOK

Google, otro líder en la investigación de AI y despliegue, se ha convertido recientemente en un estudio de caso en lo que puede suceder cuando una empresa no parece considerar adecuadamente la ética de la AI.

La semana pasada, la empresa prometió que haría falta una nueva forma hiperrealista de su asistente de voz para identificarse como un bot, al hablar con los seres humanos en el teléfono. El compromiso llegó dos días después de CEO Sundar Pichai impresionante — y para algunos preocupante, clips de audio en el que el software experimental realizado reservas en restaurantes con personal desprevenido.

Google ha tenido problemas previos con algoritmos éticamente cuestionables. Servicio de foto-organización de la empresa es programada no a fotos de etiqueta con “mono” o “chimpancé” después de un incidente de 2015 en que imágenes de personas negras fueron etiquetado de “Gorila”. Pichai también lucha contra a los críticos internos y externos de un contrato del Pentágono AI, en que Google está ayudando a crear software de aprendizaje automático que puede tener sentido de vigilancia drone video. Miles de empleados han firmado una carta de protesta por el proyecto; mejores investigadores de AI en la empresa tienen Twitter su descontento; y Gizmodo informó lunes que algunos empleados han renunciado.

Un portavoz de Google dijo la empresa dio la bienvenida a comentarios sobre el software de llamadas automatizado — conocido como Duplex, se refina en un producto, ya que Google está participando en un amplio debate interno sobre usos militares del aprender de máquina. La empresa ha tenido los investigadores que trabajan en

al-inteligencia-personas-ai-investigación / “> ética y equidad en el AI para algunos tiempo pero no tenía previamente las reglas formales para usos adecuados de la IA. Está empezando a cambiar. En respuesta al escrutinio de su proyecto Pentágono, Google está trabajando en un conjunto de principios que guiarán el uso de su tecnología.

Algunos observadores son escépticos de que los esfuerzos corporativos para imbuir ética en Ia hará una diferencia. El mes pasado, Axon, fabricante de Taser, anunció un Consejo de ética de expertos externos para revisar ideas como el uso de IA en la vigilancia de los productos como las cámaras de cuerpo. La Junta será cumplir trimestralmente, publicar uno o más informes de un año e incluye a un miembro designado como punto de contacto para empleados de axón preocupados por trabajo específico.

 

Aprende más

LA guía de conexión a la inteligencia ARTIFICIAL

Poco después, más de 40 académicos, derechos civiles y grupos comunitarios critican el esfuerzo en una carta abierta. Sus acusaciones incluyen que el axón había omitido a representantes de las comunidades fuertemente vigiladas más propensos a sufrir los inconvenientes de la nueva tecnología de la policía. Axon dice ahora está mirando que la Junta tome la entrada de una gama más amplia de personas. Miembro de la Junta Tracy Kosa, que trabaja en seguridad en Google y es profesor adjunto en Stanford, no ve el episodio como un retroceso. “Estoy francamente encantado sobre él”, dice, hablando independientemente de su rol en Google. Más gente relacionarse críticamente con las dimensiones éticas de la IA es lo que ayudará a las empresas hacer las cosas bien, dice Kosa.

Ninguno ha acertado hasta el momento, dice Wendell Wallach, un erudito de la Universidad de Yale centro de interdisciplinario para la bioética. “No hay codigo postal cualquier buenos ejemplos todavía,” dice cuando se le preguntó acerca de los primeros experimentos corporativos con IA ética y otros procesos. “Hay mucho de high falutin pero todo lo que he visto hasta ahora es ingenua en ejecución”.

Wallach dice que los procesos puramente internos, como Microsoft, están difíciles confiar, sobre todo cuando son opacas a los forasteros y no tiene un canal independiente al directorio de la compañía. Insta a las empresas a contratar a agentes de Ia ética y establecer revisión tablas pero argumenta gobernanza externa como normas nacionales e internacionales, acuerdos, o se necesitarán normas.

Horvitz llegó a una conclusión similar después de su percance conducción. Quería informarles de los detalles del incidente para ayudar a los ingenieros de Tesla. Al relatar su llamada a Tesla, describe el operador como más interesado en establecer los límites de responsabilidad del fabricante de automóviles. Porque Horvitz no usa piloto automático como se recomienda, que conducía a menos de 45 millas por hora — el incidente era de él.

“Tengo que”, dice Horvitz, que todavía ama a su Tesla y su característica de piloto automático. Pero también pensó que su accidente ilustra cómo empresas empujando gente confiar en AI podrían ofrecer, o se requiere hacer más. “Si tuviera una erupción desagradable o problemas respiratorios después de tomar medicamento, habría un informe a la FDA,” dice Horvitz, un MD, así como ciencias de la computación doctorado. “sentí que ese tipo de cosas debería o podría haber sido en su lugar”. NHTSA requiere fabricantes de automóviles para reportar algunos defectos en vehículos y partes; Horvitz imagina un sistema de información formal alimentado directamente con datos de vehículos autónomos. Un portavoz de Tesla, dijo la empresa recopila y analiza datos de sus vehículos de seguridad y choque, y que los propietarios pueden utilizar comandos de voz para proporcionar información adicional.

Liesl Yearsley, que vendía una startup de chatbot a IBM en el año 2014, dice que el embrionario movimiento de ética corporativo de AI tiene que madurar rápido. Recuerda ser alarmado para ver cómo sus bots podría deleitar a clientes tales como bancos y compañías de medios de comunicación manipulando a gente joven para tomar más deuda, o pasar horas conversando con una pieza de software.

La experiencia convenció Yearsley para hacer su nueva startup de asistente de AI, Akin, una corporación de beneficio público. AI va mejorar la vida de muchas personas, dice. Pero las empresas que buscan obtener ganancias mediante el empleo de software inteligente inevitablemente serán empujadas hacia terreno arriesgado — por una fuerza que dice sólo es cada vez más fuerte. “Va a empeorar a medida que la tecnología se mejor,” dice Yearsley.

See Campaign: https://www.wired.com/story/tech-firms-move-to-put-ethical-guard-rails-around-ai/
Contact Information:
TOM SIMONITE

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News