Fernandes y colaboradores; 2019 11
|
Proporcionar resultados que puedan sustentar el estudio de la investigación médica en el proceso de toma de decisiones en bioética clínica, particularmente en casos de eutanasia. |
Transversal |
Los datos procesados mediante métodos de selección de características se utilizaron para crear modelos capaces de predecir la decisión de eutanasia utilizando ML y un rastreador ocular. Los experimentos estadísticos demostraron que el modelo predictivo resultante del algoritmo perceptron multicapas (MLP) condujo a un mejor rendimiento. A partir de simulaciones con modelos MLP se extrajeron resultados interesantes (normas y reglas) para la toma de decisiones bioéticas. Algunos participantes tomaron una decisión racional, respetando el código de ética de los profesionales de enfermería y el código penal brasileño, que considera la eutanasia como homicidio. Otros consideraron el aspecto emocional, vinculando esta decisión al sufrimiento del paciente. |
El buen desempeño presentado por el modelo predictivo demuestra que el enfoque de investigación propuesto puede usarse para probar hipótesis científicas relacionadas con la atención visual y la toma de decisiones, verificando en qué medida la visión es un factor determinante en la toma de decisiones, particularmente en la bioética clínica cuando se trata de cuestiones terminalidad de la vida. |
Silva, Lehoux, Hagemeister; 2018 12
|
Evaluar si una innovación se califica como innovación responsable en salud mediante una herramienta desarrollada en tres etapas: triaje, evaluación y clasificación; y discutir los aspectos políticos del uso de la herramienta. |
Delphi (prospectivo) |
El instrumento de triaje y evaluación de la innovación responsable en salud desarrollado fue juzgado por expertos y, tras la segunda ronda de comentarios sobre el tema, se alcanzó un consenso en 16 de las 20 preguntas sobre la importancia, claridad y adecuación de la estructura del instrumento. La sostenibilidad de los sistemas de salud se ve perjudicada por la forma actual en que se conciben y colocan en el mercado las innovaciones en salud. Hubo consenso en la mayoría de los criterios, atributos y escalas del instrumento. El uso futuro del instrumento puede contribuir al desarrollo de innovaciones que aporten mayor valor social. |
El desarrollo de esta herramienta ayudará a llenar una importante laguna de conocimientos y políticas, aclarando las decisiones tomadas en una etapa inicial por las partes interesadas en la innovación, tales como inversionistas, creadores de tecnología, agencias de financiación de investigación y decisores políticos. |
Lysaght y colaboradores; 2019 13
|
Abordar y analizar el marco ético para big data en salud e investigación para demostrar cómo puede fundamentar la toma de decisiones para el desarrollo y la implementación de sistemas de apoyo asistidos por IA en salud de forma ética y responsable 5. |
Estudio de caso |
Los sistemas de apoyo a la decisión clínica (CDSS) son programas que generan información en salud. Los que usan ML e IA son complejos y es por eso que los médicos deben capacitarse para mejorar sus habilidades de toma de decisiones clínicas al utilizar este tipo de recursos. Los algoritmos de IA del CDSS pueden reforzar los prejuicios sociales, pero también pueden aportar beneficios como sistemas de salud pública más eficientes. La inclusión y el análisis de datos se da de forma continua, aportando información sobre prácticas futuras adecuadas. Alimentar al CDSS con datos de pacientes puede causar conflictos sobre el doble papel de los médicos: atención e investigación. Los valores sustantivos enumerados son la integridad profesional y equidad; y los valores procesales son la transparencia y la rendición de cuentas. El CDSS asistido por IA deben ser explicable. La decisión final la debe tomar el profesional de salud y se debe considerar que pueden existir juicios morales que el programa no es capaz de realizar. El estudio de caso aborda el uso de estos programas en una unidad de cuidados intensivos. A pesar de aportar beneficios económicos, esta herramienta podría plantear cuestiones éticas como el ahorro en salud, la desconfianza en las recomendaciones y la preocupación por la responsabilidad. |
Dado el aumento de los costos de los cuidados en salud, el desarrollo y la implementación de la asistencia basada en IA en la toma de decisiones clínicas tal vez sea inevitable. Los valores de integridad y responsabilidad profesional desempeñarán un papel más destacado en el ámbito de los cuidados brindados a los enfermos, mientras que los valores de justicia y el potencial de daño al grupo deben equilibrarse con imperativos de beneficio público a nivel social. Los imperativos del beneficio público a nivel social deben utilizarse para lograr el equilibrio. La transparencia afecta tanto a la confianza en la profesión médica como en los sistemas de salud. |
Cawthorne, Robbins-Van Wynsberghe; 2020 14
|
Crear un marco ético para aplicarlo durante el diseño, desarrollo, implementación y evaluación de drones en salud pública. |
Descriptivo |
La jerarquía de valores utilizada consiste en principios éticos, valores humanos, estándares y requisitos de diseño. La creación de la estructura consideró los cuatro principios bioéticos, además de un quinto principio de ética en IA: la explicabilidad. La benevolencia en el campo de la salud puede traducirse en valores de bienestar humano (y animal no humano), empleos y habilidades humanas y sostenibilidad ambiental. La no maleficencia abarca la privacidad, la seguridad, la protección, la tranquilidad, el empleo y las habilidades humanas, y la sostenibilidad ambiental. La autonomía incluye el libre albedrío, los valores humanos, la responsabilidad y la confianza. La justicia incluye la distribución equitativa de beneficios e indemnizaciones. La adopción de drones en la salud podría conducir a la reducción de la infraestructura de salud local, reduciendo la asistencia presencial. Sin embargo, también pueden conectar a personas en lugares remotos con servicios modernos. La explicabilidad se refiere a la facilidad con la que se pueden comprender los sistemas. El uso de un marco ético es especialmente útil para quienes tienen experiencia limitada en ética tecnológica. |
Los principios éticos son abstractos y requieren una mayor contextualización y especificación para la reflexión. La creación de este marco ético refuerza el valor de integrar la ética en la práctica y sirve como modelo para el diseño y desarrollo en dominios de drones y no drones. El marco ayudó a identificar y refinar los posibles beneficios y mitigar los riesgos. |
Antes y colaboradores; 2021 15
|
Desarrollar una nueva medida y evaluar la apertura y el alcance de las preocupaciones y los beneficios percibidos con respecto a las tecnologías sanitarias basadas en IA en una muestra de adultos en los Estados Unidos. |
Transversal |
Los participantes se mostraron moderadamente abiertos a las tecnologías de salud basadas en IA, pero hubo variaciones según el tipo de aplicación. La confianza en el sistema de salud y en la tecnología fueron los correlatos más fuertes y consistentes de apertura, preocupación y beneficio percibido. Los participantes de mayor edad estaban menos abiertos a las tecnologías; y los hombres, más abiertos que las mujeres. El empleo a tiempo completo se asoció con una mayor apertura y con una menor preocupación. Las dos tecnologías que hicieron predicciones sobre enfermedades graves —riesgo de ataque cardíaco y probabilidad de supervivencia al cáncer— fueron las mejor calificadas. |
La apertura de los participantes parece tenue, lo que sugiere que las estrategias de promoción temprana y los experimentos con nuevas tecnologías de IA podrían influir fuertemente en las opiniones sobre el tema. Puede que sea necesario abordar la confianza para impulsar la aceptación de estas innovaciones en el área de la salud. |
Batlle y colaboradores; 2021 16
|
Comprender las mejores prácticas para compartir datos de pacientes en instituciones de salud. |
Exploratorio |
Un grupo de trabajo identificó cinco amplios dominios de actividad importantes para la colaboración utilizando datos de pacientes: privacidad, consentimiento informado, estandarización de elementos de datos, contratos con proveedores y evaluación de datos. Se presentaron los métodos y la comprensión ética de los marcos legales comúnmente utilizados para estos fines, así como el diseño del flujo de datos que puede ayudar a informar cómo se crean y se revocan los permisos. Cuando se discute el anonimato y la desidentificación para proteger la privacidad, es necesaria una descripción de la cuidadosa preparación y anotación de los conjuntos de datos, señalando técnicamente las dificultades. El volumen de datos requerido para la preparación del algoritmo de IA es muy alto, por lo que la preparación de estos datos debe ocurrir de manera segura y compartible con sus propietarios (pacientes). |
Crear una relación de intercambio de datos implica complejidad ética y de tecnología de la información. El anonimato y la privacidad del paciente mantienen la confianza y protegen a las entidades que buscan compartir datos de forma segura. |
Green y colaboradores; 2021 17
|
Desarrollar herramientas integradas en sistemas digitales de salud para respaldar la toma de decisiones compartida y optimizar la preparación para el tratamiento de la enfermedad renal crónica. |
Ensayo clínico aleatorizado |
Al utilizar las herramientas, 243 (24%) de 1.032 pacientes en cuatro clínicas de nefrología se identificaron como de alto riesgo con progresión a insuficiencia renal en dos años. Los especialistas en transición renal inscribieron a 117 (48%) pacientes de alto riesgo hasta el final del primer año de investigación. Los enfermeros utilizaron la aplicación en el 100% de los pacientes para documentar 287 pasos de planificación de la terapia de reemplazo renal. Todos los especialistas en transición renal (100%) evaluaron la facilidad de uso y la utilidad del instrumento, estando de acuerdo o completamente de acuerdo con todos los ítems. |
Los enfermeros informaron que las herramientas desarrolladas facilitaron la identificación de pacientes que necesitaban apoyo y sus actividades de navegación. Y la rápida identificación de pacientes que necesitan una toma de decisiones compartida e informada y su preparación para tratamientos de reemplazo renal. |
Martinho, Kroesen, Chorus; 2021 18
|
Obtener información sobre patrones de razonamiento y opiniones morales sobre la IA en salud de personas involucradas en la práctica médica. |
Transversal |
Con base en las preguntas de los médicos sobre la ética en torno a la IA en salud, se identificaron cuatro perspectivas principales: 1. La IA es una herramienta útil: permite a los médicos hacer aquello para lo que están capacitados. 2. Las reglas y reglamentos son cruciales: las empresas privadas solo se preocupan por el dinero. 3. La ética es suficiente: las empresas privadas son dignas de confianza. 4. Herramientas de IA explicables: el aprendizaje es necesario e inevitable. Todas las perspectivas consideran que los médicos deben participar en el proceso de creación de tecnologías de IA en salud, contribuyendo a la explicabilidad. Los médicos están más preocupados por el papel de las grandes empresas en el ámbito de la salud y menos concentrados o preocupados por cuestiones como la equidad, el prejuicio y las desigualdades en salud. |
Cada perspectiva proporciona insights valiosos y, a menudo, contrastantes sobre cuestiones éticas que se deben operativizar y tener en cuenta al diseñar y desarrollar IA en salud. |
Shen y colaboradores; 2021 19
|
Analizar investigaciones de resonancia magnética (RM) altamente portátiles en entornos internacionales remotos y con recursos limitados para crear orientación ética y legal en un escenario mundial complejo. |
Transversal |
Es necesario asegurar que las comunidades locales colaboren en el trabajo de investigación y garantizar el valor social local del estudio. Los estudios de campo sobre RM deben asumir la responsabilidad de la seguridad de los participantes y de todos a su alrededor. Es importante prestar atención a las normas de privacidad y seguridad de datos (locales e internacionales). Es necesario identificar si la muestra en la que se entrenó el modelo de IA fue diversa para que las predicciones sean más precisas, teniendo en cuenta una diversidad de factores. Los resultados de las pruebas deben comunicarse a los participantes de forma aclaradora y, cuando se trata de hallazgos incidentales, una cuestión desafiante es cómo brindar apoyo clínico y derivación en estas comunidades remotas. |
Los escáneres de resonancia magnética más asequibles y portátiles ofrecen oportunidades para abordar las necesidades de investigación insatisfechas y las iniquidades en salud en entornos internacionales remotos y con recursos limitados. Las comunidades locales deben ser colaboradoras permanentes en la cocreación de conocimientos. La investigación debe producir valor local para justificar los riesgos y minimizar la posibilidad de abuso. |
Spiegel, Barker, Kistnasamy; 2021 20
|
Describir y evaluar la aplicación de la IA en el desarrollo de diagnósticos asistidos por computadora para respaldar una adjudicación de reivindicaciones más eficiente para exmineros de oro con enfermedad pulmonar ocupacional en África Austral. |
Transversal |
Los resultados se correlacionaron con principios bioéticos. Beneficencia: la IA podría proporcionar un juicio más consistente que varios profesionales con diferentes niveles de habilidad. No maleficencia: mantener la privacidad y la seguridad de los datos y evitar la infiltración de ciertas tendencias en los sistemas de toma de decisiones. Autonomía: la IA podría provocar pérdidas en la cualificación profesional, a medida que los profesionales comiencen a confiar más en la tecnología. Se deben establecer protocolos y formar profesionales para identificar falsos negativos o falsos positivos. Justicia: cuando la demanda del mercado de inversión en IA es débil y donde las instituciones públicas no han respondido a su uso, el fracaso al abordar la tecnología puede ser una forma de mantener las desigualdades. Esto destaca el uso oportuno de las innovaciones para beneficiar a quienes las necesitan. |
Se deben seguir desde el principio los esfuerzos para superar los desafíos técnicos en la aplicación de la IA para garantizar su uso ético. |
Stahl y colaboradores; 2021 21
|
Captar teóricamente y medir empíricamente los beneficios y desventajas de la IA para el progreso humano, más allá de los principios del aprendizaje automático, contrapesar los beneficios técnicos y económicos de la IA y sus aspectos legales, sociales y éticos. |
Enfoque multidimensional |
El discurso ético de la IA se discute en tres corrientes: 1. Problemas relacionados con la aplicación del ML: es difícil predecir en qué medida los datos se utilizarán para el fin determinado, ya que un perfil personal conduce a una clasificación para fines distintos al inicial. 2. Cuestiones sociales y políticas emergentes en una sociedad digital: estos sistemas requieren acceso a grandes cantidades de datos con fines de entrenamiento y validación, lo que genera desconfianza relacionada con la autonomía de las máquinas, sustitución de humanos por máquinas, injusticia en la distribución de costos y beneficios y control de datos, además de las consecuencias. 3. Cuestiones metafísicas sobre la naturaleza de la realidad y de la humanidad: se refieren a qué máquinas deberían poder decidir de forma autónoma. Las consecuencias económicas, el empleo, la justicia, la libertad, el contacto humano, la autonomía individual, la desigualdad, la integridad, la propiedad, el uso militar, la asimetría de poder, la responsabilidad y la sostenibilidad se encuadran en esta categoría. |
Actualmente, no existe consenso entre los diferentes enfoques de gobernanza y seguridad de la información. La legislación de derechos humanos puede resolver muchas cuestiones sociales y éticas. La complejidad de los contextos y escenarios son factores que pluralizan las formas de abordarlos y permiten a los estudiosos o profesionales mantener una visión general. Atención al uso actual de IA y ML y, hasta cierto punto, a los sistemas sociotécnicos más amplios. |