header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Salud automatizado ofrece libertad de vergüenza, pero es lo que necesitan los pacientes?

May 23, 2018 6:00 AM ET
 

Unos pocos años atrás, Timothy Bickmore, un científico de la computación en la Universidad de Northeastern, desarrolló un programa de inteligencia artificial para ayudar a pacientes de bajos ingresos en el centro médico de Boston a prepararse para su regreso a casa desde el hospital. La enfermera virtual, alternativamente llamada Louise o Elizabeth, fue incorporada como una figura animada en una pantalla. Comenzó pidiendo a los pacientes si eran fans de los Red Sox, luego caminó a través de lo que deben hacer después de que fueron dados de alta. (“El médico ha prescrito pantoprazol. Este medicamento es para el estómago. Tomará una pastilla en la mañana.”) Bickmore ha creado desde entonces una serie de estos programas, un A.I. parejas consejero, un entrenador de ejercicio, un consultor de cuidados paliativos, todo dirigido a los clientes. “Es donde creemos que podemos tener más impacto,” me dijo hace poco. “Que el interino es mejor que nada”.

Suena como un clásico techno-distopía, desplazados por un equipo frío de calor humano, de alguna manera hizo peor por el guiño condescendiente al fandom de deportes local. Pero esto no era la misma vieja historia de la impulsión implacable eficiencia una herramienta deshumanizadora de desove. Hubo una sorpresa en el experimento de Bickmore: setenta y cuatro por ciento de sus temas preferidos Louise y Elizabeth que sus contrapartes de la vida real. Prestadores de salud humano gastan un promedio de siete minutos con los pacientes al momento del alta, me dijo Bickmore, pero pacientes de bajo nivel de alfabetización necesitan más como una hora. Con la enfermera virtual, sus súbditos podrían proceder a su propio ritmo, digerir la información sin la vergüenza de hacerlo muy lentamente. Como un paciente comentado, “los médicos son siempre de prisa.”

Escritura más contemporánea sobre A.I. fija sobre las preocupaciones vitales de interrupción de trabajo, privacidady sesgo algorítmica. Pero hay una conversación igual de importante que se tenía acerca de vergüenza y vulnerabilidad. A menudo respondemos más francamente a las computadoras y robots que hacemos a nuestros compañeros humanos. En encuestas en línea, por ejemplo, las personas admitir tensiones y actos ilegales o no éticos más fácilmente que por teléfono, y posibles donantes de sangre Informe comportamientos más arriesgados. Cuando un entrevistador virtual es hacer las preguntas, los niños son más indiscreta sobre acoso escolar y los adultos muestran tristeza más intensa. Parte de esta apertura surge del presunto anonimato de decirle algo a una máquina: computadoras parecen privadas debido a su mismo anonimato. Su anonimato puede sentirse como una licencia para dejar ir, aunque el ritmo diario de cortes, agujeros y otras infracciones nos recuerda los datos son identificables, indeleble y que se puede obtener.

Ética tenga en cuenta los peligros de estos hallazgos. “Si resulta que los seres humanos son confiablemente más veraces con robots que están con otros seres humanos, sólo será cuestión de tiempo antes de que robots interrogan los seres humanos,” Matthias Scheutz, un filósofo y equipo científico de la Universidad de Tufts, advertido en 2011, así como ingenieros, financiados por el Departamento de seguridad nacional estaban desarrollando un quiosco de avatar para uso en proyecciones de la frontera. El quiosco, que ya ha sido probado en los sitios de “bajo riesgo”, hace preguntas tales como “Si buscamos su bolso, ¿encontramos algo que no has declarado?” y se basa en sensores de medida voz, dilatación de la pupila y pulso para detectar el engaño.

¿Sin embargo, en trabajo dedicado, lo que podría ser malo en permitir a las personas a sentir menos vergüenza o humillación? Neeta Gautam, un médico con la atención primaria de Stanford, en Santa Clara, California, me dijo que romper estas emociones es una parte fundamental de su práctica. No puede obtener pacientes a hacer lo hay que hacer, dijo — de hacer cambios incrementales en la dieta y estilo de vida para tomar su medicamento, a menos que confían en que suficiente ser honesto acerca de sus fracasos. Gautam, dijo que ella trata de asegurarse de que su sala de examen es “un ambiente seguro para hablar de cosas como ‘No puedo pagar’ o ‘No me gusta esto’ o ‘No sé cómo cocinarlo’ o”No hay tiempo para hacerlo”. “Vergüenza puede sofocar a pacientes, haciendo que mantenga su incompetencia y conductas poco saludables escondidos. Para algunas poblaciones, incluyendo a veteranos, que a menudo ven un estigma en el tratamiento, puede evitar que busquen tratamiento en primer lugar. En estos casos, al Presidente no es sólo “mejor que nada” pero, de hecho, mejor que los seres humanos.

Aún así, algunos profesionales de la salud creen que la vulnerabilidad tiene sus usos. “Tratamiento no es sobre el simple acto de contar secretos”, Sherry Turkle, un psicoanalista en el Instituto Tecnológico de Massachusetts, escribe en su libro “Solos juntos“; más bien, se trata al paciente hablar con alguien que puede “empujar hacia atrás”. Turkle sostiene que “cuando hablamos de robots, compartimos pensamientos con máquinas que no pueden ofrecer esa resistencia. Nuestras historias caen, literalmente, oídos sordos”. Cuando hablé con Paepcke de Andreas, científico de investigación senior y Analista de datos en Stanford, él hizo un punto similar sobre la enseñanza. Los seres humanos ofrecen “un público que importa,” dijo, y que podría ser imposible “proyectar suficiente humanidad sobre un robot que desea hacer orgullosos de ustedes”. Vergüenza puede ser demasiado importante como para eliminar, reflexionó Paepcke, porque el alivio de es tan profundo que conduce a “la comprensión que aquí es una persona que no me pisotee mi vulnerabilidad” — una comprensión que puede llevar, a su vez, al crecimiento personal.

Por la falda

Ing la vergüenza en su totalidad, las apps y bots pueden ofrecer sólo la versión más delgada de la atención. Varios de los terapeutas y maestros que hablé sugirieron que automatizar o uso de A.I. para ofrecer cuidado sería lo mismo que depender de un “mono de trapo”, una referencia a un experimento cruel, realizado en 1959, en el que monos bebés fueron dados una opción entre dos madres sustitutas, uno hecho de alambre soldado con autógena, la otra de paño de terry. (Los niños preferían a la madre de tela, incluso cuando sólo la madre de alambre les dio leche.) Impulsado por A.I. cuidado fue una triste versión de lo real, sostuvieron. La única razón por la que la gente podría pensar preferían era porque el cuidado normalmente recibido estaba llena de juicio sin apoyo — en otras palabras, lleno de vergüenza no se alivia.

Punto de Paepcke hace eco lo que Bickmore, informático, encontrados en la reacción de Laura, un entrenador de ejercicio A.I. que creó su laboratorio. Uno de los probadores escribió, “Laura era muy repetitiva, por lo que era realmente más motivadora al principio a hablar con ella, que más tarde. Ella iría a través de la misma rutina cada vez. Como resultado, no me sentía obligado, no me sentía como que tenía que impresionarla de ninguna manera.” La desventaja de la libertad de vergüenza, parece, es la libertad de cuidar a todos.

See Campaign: https://www.newyorker.com/tech/elements/automated-health-care-offers-freedom-from-shame-but-is-it-what-patients-need
Contact Information:
Allison J. Pugh

Tags:
, Wire, Artificial Intelligence Newswire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News