header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Google se compromete no a desarrollar armas de AI, pero dice que aún funciona con los militares. La compañía ha publicado pautas indispensables en su enfoque en la investigación del AI

Jun 8, 2018 7:22 AM ET
Ilustración de Alex Castro / al borde

Google ha lanzado un conjunto de principios para guiar su trabajo en inteligencia artificial, aprovechando en una promesa de hacerlo el mes pasado después de controversia sobre su participación en un proyecto de drone de Departamento de defensa. El documento, titulado “Inteligencia Artificial de Google: nuestros principios,” no no directamente referencia este trabajo, pero deja claro que la compañía desarrollará no AI para su uso en armamento. También describe una serie de orientaciones para AI, tocando temas como el sesgo, la privacidad y la supervisión humana.

Mientras que los nuevos principios prohíben el desarrollo de armas de AI, afirman que Google seguirá trabajando con los militares “en muchas otras áreas.” Un representante de Google dijo a The Verge, que estos principios habían sido publicados anteriormente, la empresa probablemente no habría participar en proyecto de drones del Pentágono, que utiliza AI para analizar imágenes de vigilancia. Aunque esta aplicación era para «fines de no-ofensivo», y por lo tanto hipotéticamente permitida bajo estas directrices, el representante dijo que estaba demasiado cerca para la comodidad, lo que sugiere Google será jugar a lo seguro con los contratos militares futuros.

Así como prohibir el desarrollo de la IA para las armas, los principios dicen que Google no funcionará en proyectos de vigilancia de la AI que violan “las normas internacionalmente aceptadas”, o proyectos que contravienen “ampliamente principios aceptados del derecho internacional y humano derechos”. La compañía dice que sus principales focos de investigación de AI deben ser “socialmente justa”. Esto significa evitar el prejuicio injusto; queda responsable a los seres humanos y sujetos al control humano; defensa de “alto nivel de excelencia científica” e incorporando salvaguardias de privacidad.

“En Google, utilizamos AI para hacer productos más útiles, de correo electrónico libre de spam y más fácil de componer, a un asistente digital usted puede hablar a naturalmente, a ese pop fotos cosas de la diversión hacia fuera para que pueda disfrutar,” CEO de Google Sundar Pichai escribió en un blog que lo acompaña post. “Reconocemos que tal potente tecnología plantea preguntas igualmente poderosas sobre su uso. Cómo se desarrolla y utiliza AI tendrá un impacto significativo en sociedad durante muchos años por venir. Como un líder en AI, sentimos una profunda responsabilidad para llegar a esta derecha”.

AI en Google: nuestros principios

Cómo se desarrolla y utiliza AI tendrá un impacto significativo en sociedad durante muchos años por venir. Estamos anunciando siete principios para guiar nuestro trabajo en el futuro.

blog.Google

 
 

div >

Google ha enfrentado a un examen importante sobre su uso de la IA después de su trabajo para el Departamento de defensa fue revelado en un informe por Gizmodo a principios de este año. Miles de empleados firmaron una carta abierta instando a Google para cortar lazos con el programa, denominado proyecto Maven y en la implicación continua de por lo menos una docena de empleados incluso renunciados la empresa.

Google dice planea honrar su contrato con el Pentágono, pero terminará su participación con proyecto Maven cuando que vence en 2019. Un post de blog de Google nube CEO Diane Greene describió el trabajo como simplemente “objeto baja resolución identificación mediante IA.” Sin embargo, se informó que el trabajo era, en parte, una prueba de Google ganar un lucrativo contrato con el Pentágono estimada que vale la pena $ 10 billones. IBM, Microsoft y Amazon se piensan para competir, y un representante de Google confirmó a The Verge que seguiría a las partes del contrato, si la obra en cuestión encaja estos nuevos principios.

Decisión de Google de delinear su postura ética en el desarrollo de AI viene después de años de preocupación sobre la inminente amenaza de sistemas automatizados, así como las advertencias más sensacionales sobre el desarrollo de la inteligencia general artificial — o AI con humanos-nivel inteligencia. Apenas el mes pasado, una coalición de los derechos humanos y la tecnología los grupos vinieron juntos para poner un documento titulado la declaración de Toronto que llama a los gobiernos y empresas de tecnología para AI aspectos principios básicos de igualdad y no discriminación.

Sobre los años, la crítica y el comentario en cuanto a desarrollo de AI proviene de un grupo amplio, de pesimistas en el tema como fundador de Tesla y SpaceX Elon Musk voces más razonables en la industria como Facebook científico Yann LeCun. Empresas de Silicon Valley están empezando a poner más importantes recursos hacia la investigación de seguridad de la AI, con la ayuda de las organizaciones basada en la ética como el AI abierta sin fines de lucro y otros grupos de investigación alrededor del mundo.

Sin embargo, como lo demuestran los nuevos principios éticos de Google, es difícil hacer reglas que son lo suficientemente amplias como para abarcar una amplia gama de escenarios, pero lo suficientemente flexible como para no excluir potencialmente útil trabajo. Como siempre, debate y escrutinio público son necesarias para que AI se despliega bastante y de manera socialmente beneficiosa. Google tendrá que acostumbrarse a hablar de ello.

See Campaign: https://www.theverge.com/2018/6/7/17439310/google-ai-ethics-principles-warfare-weapons-military-project-maven
Contact Information:
Nick Statt and James Vincent

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News