Un día último verano, director de Microsoft de inteligencia artificial investigación, Eric Horvitz, activa la función de piloto automático de su sedán Tesla. El coche sí mismo dirigido por una carretera curva cerca del campus de Microsoft en Redmond, Washington, libera su mente para mejorar el foco en una llamada con una sin fines de lucro había cofundó alrededor de la ética y el gobierno de AI. Luego, él dice, algoritmos de Tesla, que hacia abajo.
“El coche no centro de sí mismo adecuado,” recuerda Horvitz. Dos neumáticos en el lado del conductor del vehículo mellan un levantado bordillo amarillo marca la línea central y triturado. Horvitz tenía la rueda para tirar de su coche lisiada en el carril del gancho agarrador. Él estaba ileso, pero el vehículo salió de la escena en la parte trasera de un camión, con su suspensión trasera dañada. Su conductor izquierda afirma en su creencia de que las empresas implementar AI debe considerar nueva ética y desafíos de seguridad.
En Microsoft, Horvitz ayudó a establecer un Comité de ética interna en 2016 para ayudar a la empresa navegar por lugares potencialmente complicados con su propia tecnología de AI. El grupo es copatrocinado por el Presidente y más senior abogado, Brad Smith de Microsoft. Ha llevado a la empresa para rechazar negocios de clientes corporativos y para fijar las condiciones a algunos acuerdos para limitar el uso de su tecnología.
Horvitz se negó a proporcionar detalles de los incidentes, diciendo sólo que normalmente participan a empresas pidiendo a Microsoft a crear proyectos personalizados de AI. El grupo también tiene Microsoft entrenado equipos de ventas en las aplicaciones de la IA la empresa es de. Y ayudó a Microsoft a mejorar un servicio para el análisis de caras que un trabajo de investigación reveló era mucho menos precisa para las mujeres negras que los hombres blancos. “Ha sido alentador ver la participación de la empresa y cuán seriamente se toman las preguntas”, dice Horvitz. Compara lo que está sucediendo en Microsoft a un despertar más temprano sobre seguridad informática, diciendo que también va a cambiar cómo funciona cada ingeniero en tecnología.
Muchas personas están ahora hablando sobre los problemas éticos planteados por AI, como la tecnología se extiende a más rincones de la vida. El Presidente francés Emmanuel Macron recientemente le dijo a WIRED que su nacional planea impulsar el desarrollo de AI consideraría establecer “límites éticos y filosóficos”. Han surgido nuevos institutos de investigación, grupos de la industriay programas filantrópicos .
Microsoft está entre el menor número de empresas que construyen procesos de ética formal. Incluso algunas empresas a cosechar beneficios de AI se han preocupado demasiado rápidamente. “Los últimos años que he estado obsesionado con asegurándose de que todo el mundo puede usarlo mil veces más rápido,” dice Joaquín Candela, director de Facebook de aplica el aprender de máquina. Pero como más equipos dentro de Facebook usan de las herramientas, “empecé a ser muy consciente acerca de los posibles puntos ciegos.”
En la conferencia anual de desarrolladores de Facebook este mes, científico de datos Isabel Kloumann describe una especie de consejero automático para los ingenieros de la compañía llamado equidad de flujo. Mide cómo aprender de máquina software realiza análisis de datos en diferentes categorías — decir hombres y mujeres, o gente en diferentes países, para ayudar a exponer a sesgos potenciales. Investigación ha demostrado que modelos de aprendizaje automático pueden recoger o incluso amplificar prejuicios contra ciertos grupos, como las mujeres o a los mexicanos, cuando está entrenado en imágenes o texto recopilada en línea.
Los primeros usuarios de Kloumann eran ingenieros crear una función de Facebook donde empresas publicar anuncios de reclutamiento. Feedback de flujo de Justicia les ayudó a elegir trabajo algoritmos de recomendación que funcionaron mejor para diferentes tipos de personas, dice. Ahora está trabajando en la construcción de equidad flujo y herramientas similares en la plataforma de aprendizaje máquina utilizan toda la empresa. Algunos científicos de datos realizan comprobaciones similares manualmente; lo que es más fácil debe hacer la práctica más generalizada. “Asegurémonos de que antes de lanzar estos algoritmos que no tienen un impacto dispar en la gente,” dice Kloumann. Un portavoz de Facebook dijo que la compañía no tiene planes para tableros de ética o directrices sobre ética de la AI.
‘ Vamos a hacer que antes de lanzar estos algoritmos que no tienen un impacto dispar en la gente.’
ISABEL KLOUMANN, FACEBOOK
Google, otro líder en la investigación de AI y despliegue, se ha convertido recientemente en un estudio de caso en lo que puede suceder cuando una empresa no parece considerar adecuadamente la ética de la AI.
La semana pasada, la empresa prometió que haría falta una nueva forma hiperrealista de su asistente de voz para identificarse como un bot, al hablar con los seres humanos en el teléfono. El compromiso llegó dos días después de CEO Sundar Pichai impresionante — y para algunos preocupante, clips de audio en el que el software experimental realizado reservas en restaurantes con personal desprevenido.
Google ha tenido problemas previos con algoritmos éticamente cuestionables. Servicio de foto-organización de la empresa es programada no a fotos de etiqueta con “mono” o “chimpancé” después de un incidente de 2015 en que imágenes de personas negras fueron etiquetado de “Gorila”. Pichai también lucha contra a los críticos internos y externos de un contrato del Pentágono AI, en que Google está ayudando a crear software de aprendizaje automático que puede tener sentido de vigilancia drone video. Miles de empleados han firmado una carta de protesta por el proyecto; mejores investigadores de AI en la empresa tienen Twitter su descontento; y Gizmodo informó lunes que algunos empleados han renunciado.
Un portavoz de Google dijo la empresa dio la bienvenida a comentarios sobre el software de llamadas automatizado — conocido como Duplex, se refina en un producto, ya que Google está participando en un amplio debate interno sobre usos militares del aprender de máquina. La empresa ha tenido los investigadores que trabajan en