Unos pocos años atrás, Timothy Bickmore, un científico de la computación en la Universidad de Northeastern, desarrolló un programa de inteligencia artificial para ayudar a pacientes de bajos ingresos en el centro médico de Boston a prepararse para su regreso a casa desde el hospital. La enfermera virtual, alternativamente llamada Louise o Elizabeth, fue incorporada como una figura animada en una pantalla. Comenzó pidiendo a los pacientes si eran fans de los Red Sox, luego caminó a través de lo que deben hacer después de que fueron dados de alta. (“El médico ha prescrito pantoprazol. Este medicamento es para el estómago. Tomará una pastilla en la mañana.”) Bickmore ha creado desde entonces una serie de estos programas, un A.I. parejas consejero, un entrenador de ejercicio, un consultor de cuidados paliativos, todo dirigido a los clientes. “Es donde creemos que podemos tener más impacto,” me dijo hace poco. “Que el interino es mejor que nada”.
Suena como un clásico techno-distopía, desplazados por un equipo frío de calor humano, de alguna manera hizo peor por el guiño condescendiente al fandom de deportes local. Pero esto no era la misma vieja historia de la impulsión implacable eficiencia una herramienta deshumanizadora de desove. Hubo una sorpresa en el experimento de Bickmore: setenta y cuatro por ciento de sus temas preferidos Louise y Elizabeth que sus contrapartes de la vida real. Prestadores de salud humano gastan un promedio de siete minutos con los pacientes al momento del alta, me dijo Bickmore, pero pacientes de bajo nivel de alfabetización necesitan más como una hora. Con la enfermera virtual, sus súbditos podrían proceder a su propio ritmo, digerir la información sin la vergüenza de hacerlo muy lentamente. Como un paciente comentado, “los médicos son siempre de prisa.”
Escritura más contemporánea sobre A.I. fija sobre las preocupaciones vitales de interrupción de trabajo, privacidady sesgo algorítmica. Pero hay una conversación igual de importante que se tenía acerca de vergüenza y vulnerabilidad. A menudo respondemos más francamente a las computadoras y robots que hacemos a nuestros compañeros humanos. En encuestas en línea, por ejemplo, las personas admitir tensiones y actos ilegales o no éticos más fácilmente que por teléfono, y posibles donantes de sangre Informe comportamientos más arriesgados. Cuando un entrevistador virtual es hacer las preguntas, los niños son más indiscreta sobre acoso escolar y los adultos muestran tristeza más intensa. Parte de esta apertura surge del presunto anonimato de decirle algo a una máquina: computadoras parecen privadas debido a su mismo anonimato. Su anonimato puede sentirse como una licencia para dejar ir, aunque el ritmo diario de cortes, agujeros y otras infracciones nos recuerda los datos son identificables, indeleble y que se puede obtener.
Ética tenga en cuenta los peligros de estos hallazgos. “Si resulta que los seres humanos son confiablemente más veraces con robots que están con otros seres humanos, sólo será cuestión de tiempo antes de que robots interrogan los seres humanos,” Matthias Scheutz, un filósofo y equipo científico de la Universidad de Tufts, advertido en 2011, así como ingenieros, financiados por el Departamento de seguridad nacional estaban desarrollando un quiosco de avatar para uso en proyecciones de la frontera. El quiosco, que ya ha sido probado en los sitios de “bajo riesgo”, hace preguntas tales como “Si buscamos su bolso, ¿encontramos algo que no has declarado?” y se basa en sensores de medida voz, dilatación de la pupila y pulso para detectar el engaño.
¿Sin embargo, en trabajo dedicado, lo que podría ser malo en permitir a las personas a sentir menos vergüenza o humillación? Neeta Gautam, un médico con la atención primaria de Stanford, en Santa Clara, California, me dijo que romper estas emociones es una parte fundamental de su práctica. No puede obtener pacientes a hacer lo hay que hacer, dijo — de hacer cambios incrementales en la dieta y estilo de vida para tomar su medicamento, a menos que confían en que suficiente ser honesto acerca de sus fracasos. Gautam, dijo que ella trata de asegurarse de que su sala de examen es “un ambiente seguro para hablar de cosas como ‘No puedo pagar’ o ‘No me gusta esto’ o ‘No sé cómo cocinarlo’ o”No hay tiempo para hacerlo”. “Vergüenza puede sofocar a pacientes, haciendo que mantenga su incompetencia y conductas poco saludables escondidos. Para algunas poblaciones, incluyendo a veteranos, que a menudo ven un estigma en el tratamiento, puede evitar que busquen tratamiento en primer lugar. En estos casos, al Presidente no es sólo “mejor que nada” pero, de hecho, mejor que los seres humanos.
Aún así, algunos profesionales de la salud creen que la vulnerabilidad tiene sus usos. “Tratamiento no es sobre el simple acto de contar secretos”, Sherry Turkle, un psicoanalista en el Instituto Tecnológico de Massachusetts, escribe en su libro “Solos juntos“; más bien, se trata al paciente hablar con alguien que puede “empujar hacia atrás”. Turkle sostiene que “cuando hablamos de robots, compartimos pensamientos con máquinas que no pueden ofrecer esa resistencia. Nuestras historias caen, literalmente, oídos sordos”. Cuando hablé con Paepcke de Andreas, científico de investigación senior y Analista de datos en Stanford, él hizo un punto similar sobre la enseñanza. Los seres humanos ofrecen “un público que importa,” dijo, y que podría ser imposible “proyectar suficiente humanidad sobre un robot que desea hacer orgullosos de ustedes”. Vergüenza puede ser demasiado importante como para eliminar, reflexionó Paepcke, porque el alivio de es tan profundo que conduce a “la comprensión que aquí es una persona que no me pisotee mi vulnerabilidad” — una comprensión que puede llevar, a su vez, al crecimiento personal.
Por la falda