El uso de la inteligencia artificial para predecir el comportamiento puede conducir a errores políticos devastadores. Para ayudar a identificar las palancas más efectivas para el cambio, los programas de salud y desarrollo deben aprender a aplicar modelos causales que expliquen mejor por qué las personas se comportan de cierta forma.
Gran parte de la inteligencia artificial (IA) de uso común se dedica a predecir el comportamiento de las personas; en otras palabras, intenta anticipar la próxima compra que usted realice, el siguiente clic que dé, el nuevo trabajo que consiga. Por otro lado, el uso de estas técnicas puede revelar problemas cuando se utilizan para analizar datos en programas de salud y desarrollo. Si no conocemos las causas de fondo del comportamiento, es fácil que tomemos malas decisiones y apoyemos políticas ineficaces y perjudiciales.
Por ejemplo, la IA ha posibilitado que los sistemas de salud pronostiquen cuáles pacientes tienen mayores probabilidades de tener necesidades médicas complejas. En Estados Unidos se está empleando un software de predicción de riesgos en unos 200 millones de personas para anticipar quienes se beneficiarían hoy en día de una atención médica adicional, con base en lo que es probable que le cuesten al sistema de salud en el futuro. Asimismo, hace uso del aprendizaje automático predictivo, una clase de algoritmos auto-adaptativos que mejoran su precisión a medida que se les proporcionan nuevos datos. No obstante, tal y como demuestran el investigador de salud Ziad Obermeyer y sus colegas en un artículo publicado hace poco en la revista Science, esta herramienta tuvo una consecuencia no deseada: los pacientes negros con más enfermedades crónicas que los blancos no fueron identificados como pacientes que requieren cuidados adicionales.
¿Qué falló? El algoritmo utilizaba los datos de reclamos de las aseguradoras para predecir las futuras necesidades médicas de los pacientes, en función de los gastos en los que habían incurrido. Ahora bien, los diseñadores del algoritmo no habían tomado en cuenta que, aún en condiciones de salud similares, el gasto en atención médica para los negros en Estados Unidos suele ser menor que el de los blancos por razones que nada tienen que ver la enfermedad: las barreras de acceso a los servicios de salud, la atención médica inadecuada o la falta de seguro médico, por mencionar algunas. El uso del costo de la atención médica como indicador de enfermedad propició que el algoritmo predictivo hiciera recomendaciones correctas para los pacientes blancos —dado que interpretó un menor gasto en atención médica como consecuencia de menos problemas de salud—, pero perpetuaba el sesgo racial en la atención a los pacientes negros. Los investigadores notificaron al fabricante, el cual se dio a la tarea de realizar pruebas con sus propios datos, confirmó el problema y colaboró con los investigadores para eliminar el sesgo del algoritmo.
Esta historia ilustra uno de los peligros de ciertos tipos de IA. Por muy sofisticados que sean, los algoritmos predictivos y sus usuarios pueden caer en la trampa de equiparar la correlación con la causalidad; es decir, pensar que como el evento X precede al evento Y, entonces X debe ser la causa de Y. Un modelo predictivo es útil para establecer la correlación entre un evento y un resultado. Sería como decir: “Cuando observamos X, podemos predecir que ocurrirá Y”. Sin embargo, esto no es lo mismo que demostrar que Y se produce a causa de X. En el caso del algoritmo de la atención médica, las mayores tasas de enfermedad (X) se correlacionaron de forma acertada con los mayores costos de atención médica (Y) para los pacientes blancos. X es la causa de Y y, por lo tanto, es correcto utilizar los costos para predecir futuras enfermedades y necesidades de atención médica. En cambio, en el caso de los pacientes negros, las tasas más altas de enfermedad por lo general no conducen a costos más altos, y el algoritmo no predice con exactitud sus necesidades futuras de atención médica. Aunque existía una correlación, no había causalidad.
Esto es importante, ya que el mundo recurre cada vez más a la IA para ayudar a resolver los apremiantes problemas de salud y desarrollo. Depositar toda nuestra confianza en los modelos predictivos de la IA en ámbitos tan diversos como la salud, justicia y agricultura conlleva el riesgo de sufrir consecuencias devastadoras cuando las correlaciones se confunden con la causalidad. Por este motivo, es imperativo que los responsables de la toma de decisiones consideren también otro enfoque de la IA. Nos referimos a la IA causal, la cual puede ayudar a identificar las relaciones precisas de causa y efecto. Además de identificar las causas de fondo de los resultados, otra ventaja de la IA causal es que permite modelar las intervenciones que pueden cambiar esos resultados, al emplear algoritmos de IA causal para plantear preguntas hipotéticas. Por ejemplo, si se aplica un programa de capacitación específico para mejorar la competencia de los profesores, ¿en qué medida deberíamos esperar que mejoren los resultados de los alumnos en los exámenes de matemáticas? La simulación de escenarios para evaluar y comparar el efecto potencial de una intervención (o grupo de intervenciones) sobre un resultado evita el gasto de tiempo y dinero que exigen las pruebas extensas.
Es cierto que los algoritmos de IA predictiva desempeñan un papel importante si se implementan de manera correcta. Esto se hace evidente en la agricultura de precisión, la cual utiliza la IA predictiva para procesar los datos de las imágenes por satélite y los sensores para ayudar a los agricultores a predecir el rendimiento de los cultivos, detectar enfermedades y malas hierbas, y reconocer las diferentes especies de plantas. Aun así, ser capaz de predecir un resultado no es lo mismo que entender lo que en realidad lo causa. Predecir que el rendimiento de la cosecha de un agricultor será menor este año es una cosa; entender el motivo permite que se tomen medidas para aumentar la cosecha.
Otro reto que plantea el uso exclusivo de modelos predictivos es el desconocimiento sobre por qué para empezar hacen determinadas predicciones. Este es un problema del aprendizaje profundo, el tipo de IA predictiva que se utiliza en la agricultura de precisión. El aprendizaje profundo se inspira en la organización de las células del cerebro humano (en “capas”) y en cómo se comunican entre sí (toman las señales de entrada de las células de una capa, transforman las señales y emiten las señales transformadas a las células de otra capa). A diferencia de los métodos habituales de predicción de resultados —como la regresión, una técnica estadística tradicional que asigna las relaciones entre las variables al resultado previsto con una única fórmula matemática—, el aprendizaje profundo puede asignar variables a resultados con relaciones mucho más complejas entre ellas. Al combinar múltiples capas entre las variables de entrada y los resultados, los algoritmos de aprendizaje profundo pueden aprender relaciones de entrada-salida mucho más complejas que una única fórmula matemática y utilizarlas para predecir resultados. El inconveniente es que los vínculos e intermediarios entre las variables están “dentro de una caja negra”, lo que significa que los usuarios —e incluso los creadores— de los algoritmos no pueden discernir con facilidad cómo se relacionan las variables con el resultado y entre sí. Debido a esto, a menudo es imposible saber qué características de entrada han utilizado los modelos de aprendizaje profundo para hacer sus predicciones.
Esta falta de transparencia es inaceptable cuando se trata de la trayectoria de vida de las personas, como ocurre en el sistema de justicia penal estadounidense. En 2016, 2.3 millones de adultos en Estados Unidos, o uno de cada 111, estaban en prisión. Esto implicó un gran costo para los gobiernos federal y estatal, por lo que los tribunales empezaron a usar “puntuaciones de reincidencia” en un intento de reducir los costos de encarcelamiento mediante la reducción del número de reclusos sin aumentar la delincuencia. La puntuación de reincidencia es un número único al que se llega mediante un algoritmo predictivo que estima la probabilidad de que una persona que ha sido declarada culpable por un delito vuelva a reincidir en el futuro. En teoría, esta puntuación le permite a un juez centrarse en encarcelar a quienes tienen mayores probabilidades de cometer otros delitos, e incluso podría ayudar a eliminar posibles sesgos en las sentencias. El problema es que las puntuaciones de reincidencia son en esencia defectuosas porque se fundamentan en herramientas de evaluación del riesgo que recopilan correlaciones estadísticas, en lugar de causalidades. Si bien existe una correlación entre los bajos ingresos económicos y la delincuencia, esto no significa que la causen. De cualquier modo, es posible que a las personas con escasos recursos automáticamente se les asigne una puntuación alta de reincidencia y, como resultado, tengan mayores probabilidades de ser sentenciadas a prisión. Reformar el sistema de justicia penal requiere centrarse en la comprensión de las causas de la delincuencia, no solo en sus correlaciones.
Una mirada más cercana a la IA causal mostrará cómo se puede abrir la caja negra desde la cual operan los modelos predictivos de la IA. La IA causal puede ir más allá de la correlación para destacar las relaciones precisas entre causas y efectos.
Ensayos controlados aleatorios
La importancia de comprobar la causalidad no es nueva en el sector salud, ni en desarrollo. Una forma sencilla de corroborarla es llevar a cabo una intervención en personas asignadas de manera aleatoria a un grupo de población, conocido como grupo de tratamiento, y no llevar a cabo ninguna intervención en otro grupo idéntico, conocido como grupo de control. Al comparar los resultados entre ambos grupos, es posible aislar el efecto de la intervención. En los estudios clínicos se le conoce como ensayo controlado aleatorio mientras que en los estudios de mercado se le denomina test A/B.
Los expertos en la economía del desarrollo Michael Kremer, Abhijit Banerjee y Esther Duflo fueron galardonados con el Premio Nobel de Economía en 2019 por encabezar la implementación de ensayos controlados aleatorios para identificar las causas de fondo de los problemas de desarrollo y diseñar soluciones. Dichos ensayos le han dado un vuelco a la sabiduría popular sobre la causalidad. Por ejemplo, numerosos estudios de observación habían identificado asociaciones entre la deficiencia de vitamina D y un mayor riesgo de padecer diabetes, hipertensión, enfermedades cardiovasculares y cáncer. Por otra parte, los ensayos controlados aleatorios demostraron que los suplementos de vitamina D no reducen los riesgos de estas afecciones; dicho de otro modo, no han encontrado una relación causal entre los suplementos de vitamina D y los resultados de salud.
En cierta medida, los ensayos controlados aleatorios tienen limitaciones. Se necesitan grandes grupos de individuos para garantizar que los resultados no estén sesgados o se vean afectados por características coincidentes y atípicas como la edad, el sexo, el estado de salud o el nivel educativo. Como resultado, el costo de estos ensayos es exorbitante (rondan los millones de dólares) y requieren demasiado tiempo (pueden tardar años en realizarse). Para colmo, los ensayos controlados aleatorios solo pueden probar el efecto de una o unas cuantas intervenciones agrupadas a la vez, a pesar de que los resultados en los contextos de la salud y lo social son complejos, con varios factores subyacentes. Por último, solo pueden predecir si una intervención causará un efecto en un miembro representativo del grupo de tratamiento, no en un individuo específico.
Aquí es donde entra en juego la IA causal, puesto que ofrece nuevas oportunidades para probar la causalidad en individuos y grupos de población de forma más rápida y eficiente, aunada a la capacidad de desentrañar la complejidad subyacente. Asimismo, le permite a los investigadores y diseñadores de programas simular una intervención e inferir la causalidad con base en los datos ya disponibles.
Dos enfoques para descubrir la causalidad
Existen dos enfoques de la IA causal que se fundamentan en principios ampliamente conocidos: el marco de resultados potenciales y los modelos de gráficos causales. Ambos enfoques permiten probar los efectos de una posible intervención utilizando datos del mundo real. Lo que los convierte en IA son los potentes algoritmos subyacentes empleados para revelar los patrones causales en grandes conjuntos de datos, aunque difieren en el número de causas potenciales que pueden probar.
Para entender ambos métodos y su funcionamiento —así como sus diferencias— consideremos el siguiente caso hipotético: Un grupo de investigadores quiere descubrir si una campaña publicitaria antitabaco convence a la gente a dejar de fumar, pero no existe un grupo de control porque los anuncios se difundieron a nivel nacional. Solo disponen de un conjunto de datos que muestran si los individuos vieron los anuncios y si dejaron de fumar, además de información sobre sus datos demográficos y otros comportamientos de salud. Incluso sin un grupo de control, la IA causal ofrece formas de inferir la causalidad.
El marco de resultados potenciales, propuesto por los expertos en estadística Paul Rosenbaum y Donald Rubin en 1983, compara el resultado (dejar de fumar) de un individuo que ha estado en contacto con la causa de interés (el anuncio antitabaco) con un “resultado potencial” del mismo individuo, el cual se infiere bajo la premisa de que no hubiera tenido ese contacto. El problema es que no se tendrían datos sobre los resultados de una persona como si no hubiera sabido de la campaña, cuando de hecho sí la vio. Así que, por cada individuo que tuvo contacto con el anuncio, los algoritmos de IA encuentran un individuo en el conjunto de datos que no estuvo expuesto al anuncio y que sea idéntico en otros aspectos significativos (tales como edad, raza y educación). En otras palabras, se crea un grupo de control artificial para imitar un ensayo controlado aleatorio. La limitación es que, aunque puede resolver el problema de no tener un grupo de control, el marco de resultados potenciales puede probar el efecto de una sola intervención preestablecida; en este caso, ¿la campaña publicitaria condujo a la decisión de esa persona de dejar de fumar?
Por el contrario, los modelos de gráficos causales pueden hacer más que probar un solo par de variables para su relación de causa y efecto. Pueden utilizarse como herramientas de exploración para trazar todas las vías causales diferentes hacia un resultado de interés y mostrar cómo se relacionan las diferentes variables entre sí. La implementación de un gráfico causal al caso hipotético de la campaña antitabaco podría mostrar que haber tenido contacto con el anuncio en una farmacia hizo que algunas personas dejaran de fumar, mientras que otras compraron parches de nicotina, lo cual a su vez las indujo a dejar de fumar.
Existen varios modelos de gráficos causales. Un método utilizado con frecuencia es el modelo de ecuaciones estructurales, en el cual los investigadores especifican las variables que pueden interactuar y cómo podrían hacerlo, de modo tal que el modelo analiza los datos para revelar si es cierto que lo hacen. A pesar de que este modelo puede probar muchas de esas relaciones en los datos, es necesario especificar toda la red de interacción entre las distintas variables utilizando los conocimientos existentes. La limitación de este modelo es que solo pone a prueba los vínculos entre las variables hipotetizadas: Si las variables que de hecho causan el efecto no están incluidas entre las especificadas, no se evaluarán en relación con las otras opciones.
Otro método de gráficos causales es la red causal bayesiana, un término acuñado en la década de 1980 por el informático y filósofo Judea Pearl y que lleva el nombre de Thomas Bayes, un estadístico inglés del siglo XVIII. Este método estima las relaciones entre todas las variables de un conjunto de datos. El resultado es un mapa visual intuitivo que muestra qué variables se influyen en forma recíproca, así como el grado de su influencia. La ventaja de este enfoque es que, a diferencia de un modelo de ecuaciones estructurales, no es necesario especificar estas interacciones antes de la prueba, lo que lo convierte en un verdadero método de descubrimiento.
Si bien las redes causales bayesianas requieren una gran cantidad de datos para capturar el universo de posibles variables, el potencial de este enfoque es emocionante por varias razones. Permite descubrir, a partir de los datos, múltiples relaciones causales al mismo tiempo. Si retomamos el caso hipotético de la campaña publicitaria contra el tabaquismo, una red bayesiana causal podría mostrar cómo la publicidad y la disponibilidad de diferentes ayudas para dejar de fumar afectaron al comportamiento de la gente o, por el contrario, podría revelar cómo las aspiraciones personales desempeñaron un papel en dejar de fumar. Cabe destacar que, a diferencia de la caja negra de la IA predictiva, en el enfoque de la IA causal, las relaciones entre las variables (la exposición a los anuncios, la disponibilidad de parches de nicotina) y el resultado (dejar de fumar) se hacen visibles para los investigadores, los ejecutores del programa y los responsables políticos.
Los modelos gráficos causales también permiten simular muchas intervenciones posibles de forma simultánea. Por ejemplo, ¿qué pasaría si diferentes anuncios antitabaco se dirigieran a diferentes grupos de edad o si se combinara una campaña general con la divulgación por parte de educadores de pares? También permiten incorporar los conocimientos de los expertos para contrarrestar las posibles limitaciones de un enfoque basado solo en datos. De esta manera, los expertos pueden contribuir a determinar qué variables deben entrar en el modelo, poner condiciones en el modelo para mejorar su precisión y ayudar a entender los resultados que son contradictorios.
Implementación efectiva
El campo de la IA causal está evolucionando con rapidez. A medida que su potencial se hace más evidente, los investigadores la ponen en práctica en campos tan diversos como el cambio climático y la salud, de manera que se demuestra su amplio alcance.
Cambio climático | Las técnicas de IA causal se han puesto en marcha en el ámbito del cambio climático para entender si el ser humano es una de sus causas y cómo contribuye a él, y qué impulsa las creencias de la gente al respecto. Para investigarlo, los científicos británicos utilizaron una técnica de IA causal denominada atribución de eventos extremos en el marco de los resultados potenciales para determinar si las emisiones de gases de efecto invernadero producidas por las personas fueron una causa subyacente de la mortífera ola de calor que asoló a Europa en 2003, y la cual fue responsable de más de 70,000 muertes, de acuerdo con algunos cálculos. Mediante el uso de datos históricos, datos solares, información sobre erupciones volcánicas y datos atmosféricos sobre gases de efecto invernadero, aerosoles y ozono, los investigadores simularon las temperaturas de verano en todo el continente europeo en 2003, con y sin el impacto de los humanos. Comprobaron que la ola de calor era mucho más probable cuando el modelo incluía actividades como el transporte aéreo o la producción de electricidad que cuando se excluían esos efectos. Este estudio, publicado en 2004, fue uno de los primeros que vincularon un fenómeno meteorológico extremo con la actividad humana, y sirvió como un argumento efectivo para reducir los gases de efecto invernadero generados por dicha actividad. La investigación ha sido citada por el Grupo Intergubernamental de Expertos sobre el Cambio Climático de las Naciones Unidas (IPCC por sus siglas en inglés).
La IA causal también ha identificado los factores que llevan a las personas a radicalizar sus creencias sobre el cambio climático. Los investigadores encuestaron a participantes de Estados Unidos y Australia, y utilizaron redes bayesianas para modelar cómo distintas personas respondían a una serie de mensajes sobre el cambio climático. Descubrieron que, cuando se les presentaba información consensuada sobre el cambio climático en una encuesta en línea, la respuesta de los estadounidenses que mostraban una profunda desconfianza hacia los científicos era adaptar sus creencias en la dirección opuesta a la información que se les brindaba. Este marco causal proporcionó una nueva forma de estimar las relaciones interconectadas entre las visiones del mundo, las creencias científicas y la confianza en los científicos. Este tipo de información es importante para configurar las percepciones del público sobre la necesidad de actuar para combatir el cambio climático. Estos resultados proporcionan un marco para diseñar mensajes de intervención que tengan en cuenta cómo pueden reaccionar los participantes a la información, en función de sus creencias y antecedentes.
Diarrea infantil | La IA causal ofrece oportunidades para abordar problemas de salud generalizados y complejos cuando otros enfoques no han tenido éxito. La diarrea infantil es un ejemplo de ello. A nivel mundial, esta enfermedad es la segunda causa de muerte en los niños menores de 5 años. Existen varios factores asociados a la diarrea, pero es muy difícil descifrar las vías causales, tanto biológicas como estructurales, de la enfermedad diarreica. Esto dificulta el diseño de intervenciones eficaces.
Un estudio realizado en Pakistán utilizó datos de una encuesta nacional realizada a más de 110,000 personas de más de 15,000 hogares. La encuesta incluía variables domésticas, sociales, ambientales y económicas. Al utilizar la regresión multivariante, una técnica estadística tradicional, los investigadores encontraron 12 variables domésticas que estaban estrechamente asociadas a la diarrea. Aun así, estas no eran fáciles de interpretar; en concreto, una de las variables era el número de habitaciones del hogar. En cambio, el análisis del mismo conjunto de datos con una red bayesiana causal produjo un mapa de red que revelaba tres variables que influían con claridad en las enfermedades diarreicas en niños: el uso de letrinas de fosa seca en lugar de inodoros conectados a los desagües; la dependencia de una fuente de agua distinta al agua de la llave, del río o del arroyo; y la falta de recolección de basura. Si se incorporan a la sociedad o a la política nacional, estos conocimientos podrían conducir a intervenciones eficaces para reducir las enfermedades diarreicas infantiles.
Tasas de mortalidad materna y neonatal | Las tasas de mortalidad siguen siendo altas en muchos países de bajos ingresos para las madres y sus recién nacidos. El hecho de que las mujeres den a luz a sus bebés en centros de salud es indispensable para la sobrevivencia y el bienestar, tanto de la madre como del bebé. Gracias a un plan nacional de incentivos que paga a las familias por dar a luz en centros de salud (300 rupias indias [unos 4 dólares] por el parto en el hospital y otras 300, si la madre también ha recurrido a la atención prenatal), el gobierno de la India ha podido mejorar a pasos acelerados la tasa de partos en centros de salud. Sin embargo, en varios estados indios esta tendencia se ha estancado en torno al 80 %.
En Surgo Foundation tratamos de entender por qué las mujeres evitaban el parto en un centro de salud y qué tipo de intervenciones adicionales eran necesarias para que lo eligieran. Nuestro trabajo ha requerido el uso de diversas técnicas, incluida la IA causal, para identificar por qué algunas familias siguen decidiendo dar a luz en casa. En el estado de Uttar Pradesh, con una población de más de 230 millones de personas, realizamos varias encuestas cuantitativas a gran escala para medir un gran número de posibles impulsores del parto en centros de salud. A continuación, utilizamos una red bayesiana causal para descubrir las variables que impulsan este comportamiento e identificar cuáles eran los objetivos más prometedores para una intervención de salud pública.
Un amplio conjunto de variables estaba correlacionado con el parto en un centro de salud, incluso la IA causal identificó las causas directas. Para nuestra sorpresa, y en contra de la creencia generalizada, la proximidad de la madre a un centro de salud no era una de ellas, sino el acceso al transporte. Esto sugería que el gobierno debía resolver los problemas de transporte en lugar de construir más centros de salud cerca de las familias. También nos sorprendió descubrir que la creencia sobre si los partos en el hospital eran más seguros que en casa eran mucho más importante que las creencias sobre la limpieza del hospital, las competencias del personal y los prejuicios del personal. Tener un plan de parto también aumentaba la probabilidad de que se eligiera un centro de salud; lo mismo ocurría con el conocimiento de los incentivos económicos por parte de la madre, lo que validaba el impacto del plan de incentivos del gobierno. En la actualidad, los resultados de este estudio se están utilizando para modelar escenarios hipotéticos y poner a prueba una intervención en la que los trabajadores de la salud de primera línea ayudan a las madres de Uttar Pradesh a elaborar planes detallados en preparación para su parto, en particular, saber dónde darán a luz, cómo llegarán al centro y cómo pagarán los costos adicionales.
Siete recomendaciones para llevar a cabo a gran escala
La IA está siendo adoptada por empresas y gobiernos deseosos de mejorar los procesos, resolver problemas y crear capacidades. De igual manera, es importante que las personas que trabajan en temas de salud y desarrollo estudien y amplíen el uso de la IA causal, puesto que ofrece un camino a seguir con claras ventajas sobre la IA predictiva. Los modelos predictivos pueden proporcionar información relevante y a menudo precisa, como identificar si es probable que el resultado de la lectura de una mamografía sea un caso de cáncer de mama. Por otro lado, la IA causal puede ayudar a identificar la red de causas subyacentes de un comportamiento o evento y proporcionar los conocimientos críticos que los modelos predictivos no pueden producir, lo que puede derivar en intervenciones más eficaces que impulsen resultados favorables. Además, la IA causal no opera dentro de una caja negra, lo que permite a los investigadores comprobar el razonamiento del modelo y reducir el riesgo de sesgos como los descritos con anterioridad.
La convergencia de tres factores indica que ha llegado el momento de la IA causal. En primer lugar, los avances en el campo de la IA destacan los numerosos escenarios en los cuales se pueden poner en práctica los enfoques causales y, a medida que los modelos se perfeccionan, amplían e implementan en nuevas situaciones, aprendemos más sobre su valor y sus limitaciones. En segundo lugar, los conjuntos de datos a gran escala están disponibles con mayor facilidad. Al igual que una televisión de ultra alta definición 4K que contiene más píxeles por pulgada cuadrada de pantalla que una de antaño con definición estándar, un mayor número de datos hace que las predicciones sean más claras y precisas, y aumenta la confianza en los conocimientos obtenidos de las redes causales. Por último, los sectores de salud y desarrollo hacen cada vez más hincapié en la política de precisión, es decir, en la elaboración de intervenciones que tengan mejores resultados para desplegar los recursos limitados donde puedan tener el mayor efecto. La IA causal se encuentra en la posición ideal para afrontar este reto.
Para que estos enfoques tengan éxito se requerirá cierto trabajo. Aquí presentamos siete recomendaciones que pueden facilitar la adopción y el uso de la IA causal.
Utilizar mejor los datos y mejorar su calidad. En la última década se ha invertido en varios esfuerzos de recopilación de datos a gran escala. Pese a ello, estos conjuntos de datos suelen estar infrautilizados y podrían explotarse más para extraer más información. A pesar de que es evidente el crecimiento de los datos, siguen existiendo otros retos. Los conjuntos de datos suelen estar fragmentados y son de calidad variable. Vincular diferentes conjuntos de datos también es un desafío, por ejemplo, cuando la información de un conjunto de datos se registra a nivel individual, y en otro a nivel regional o nacional. Diseñar indicadores comunes que se utilicen en todos los esfuerzos de recopilación de datos de un país ayudaría a sacarle más provecho a los conjuntos de datos, una vez que estén vinculados.
Recopilar datos más completos. Para implementar con éxito la IA causal es necesario comprender todas las variables que pueden impulsar los comportamientos; por un lado, los factores estructurales como las políticas y las leyes, y por otro, los factores individuales, como las creencias, las motivaciones, los prejuicios y las influencias. Si la recopilación de datos se realiza con demasiadas suposiciones previas sobre lo que es importante recopilar, las variables causales que en efecto subyacen en la conducta o los eventos pueden pasar desapercibidas y, en consecuencia, llevar a establecer vínculos causales erróneos.
Diseñar herramientas de código abierto escalables y de alto rendimiento para implementar algoritmos de IA causal. Las plataformas de algoritmos patentadas son costosas, por lo que suelen ser inaccesibles para los sectores de salud y desarrollo. El código abierto hace que el software sea gratuito, más accesible y de mejor calidad a largo plazo, ya que un mayor número de personas puede examinar los códigos fuente y aportar sus comentarios. Existen algunos algoritmos de código abierto (como bnlearn), pero su precisión y velocidad requieren mejoras. Los profesionales que no son expertos en IA causal necesitan saber qué pasos deben seguir para poner en práctica este enfoque en su área. Surgo Foundation está desarrollando herramientas para minimizar las barreras de entrada y ayudar a las organizaciones que apenas comienzan a utilizar la IA causal para que eviten las trampas del proceso. Un ejemplo es una herramienta de código abierto que evalúa si un determinado conjunto de datos es compatible con las redes bayesianas, y cuáles algoritmos son los más adecuados para utilizarlos. Surgo también está desarrollando una guía de flujo de trabajo para ayudar a la IA causal a dar el salto de la investigación académica al uso práctico en el campo.
Combinar la inteligencia artificial con la humana. Un enfoque que solo está basado en datos no puede resolver los problemas de desarrollo por su cuenta. Se deben incluir los conocimientos de los expertos en todo el proceso para asegurarse que los investigadores y los desarrolladores de programas interpreten las redes causales de forma correcta. Los expertos pueden mejorar el rendimiento de la IA causal al añadir restricciones que reflejen el conocimiento práctico de cómo funcionan los sistemas e identificar si faltan variables de confusión conocidas en los datos. Según aumente el uso de la IA causal, los expertos en ética y política tendrán que desempeñar un papel importante para garantizar que el enfoque evite las trampas de la parcialidad o la inexactitud que a veces han estado presentes en los modelos de IA predictiva.
Mejorar las formas de evaluar el rendimiento de los algoritmos. Los expertos en informática están investigando formas de mejorar la precisión y consistencia general de los algoritmos de IA causal. Una medida generalizada para evaluar la precisión de los modelos causales es comparar los resultados con relaciones causales conocidas. En este punto es oportuno preguntarse, ¿qué debería hacer un investigador si no existen relaciones causales conocidas para validar un modelo? Al fin y al cabo, descubrir esas relaciones suele ser el objetivo inicial para realizar IA causal. Por otro parte, ¿qué ocurre si los resultados de un modelo de IA causal entran en conflicto con el conocimiento experto existente? Una solución puede ser generar conjuntos de datos artificiales con características similares a un conjunto de datos reales, pero con relaciones causales predeterminadas entre las variables. Evaluar el desempeño de un modelo de IA causal en un conjunto de datos artificiales puede ayudar a los investigadores a inferir el desempeño esperado en un conjunto de datos reales con características similares.
Demostrar el valor de la IA causal en el sector de desarrollo. Los ejemplos que ya hemos esbozado son contundentes, aunque escasos. Una mayor concienciación sobre el trabajo que se está realizando ayudará a estimular la adopción de enfoques causales. Surgo Foundation utiliza la IA causal para entender cómo optimizar el rendimiento de los trabajadores de la salud de primera línea, cómo decidir qué intervenciones debemos ampliar para mejorar el aprendizaje de los estudiantes y cómo mejorar la aceptación de los métodos modernos de planificación familiar. En tanto que la fundación siga avanzando, queremos poner en práctica la IA causal en áreas como la agricultura y el cambio climático.
Sensibilizar e informar a las principales partes interesadas. La IA causal aun es un concepto muy novedoso para quienes no están en este campo. Se requiere trabajo y esfuerzo para explicarle su potencial a los responsables políticos, financiadores, gestores de programas y expertos en el seguimiento y evaluación de los numerosos sectores en los que podría implementarse la IA causal, con el fin de que entiendan estos enfoques, al menos conceptualmente.
El siguiente paso lógico
Para dar sentido al mundo, los seres humanos tienen en cuenta y analizan patrones que se repiten. Hemos recorrido un largo camino desde la creación de mitologías para explicar el clima hasta la utilización de una rigurosa recopilación de datos y la elaboración de modelos matemáticos para predecir las próximas lluvias o la trayectoria de los huracanes. No dejamos de toparnos de frente con los límites de lo que somos capaces de observar y de los métodos disponibles para analizar nuestros datos.
La IA causal es el siguiente paso lógico, que ha sido posible gracias a las recientes transformaciones tecnológicas y a la creciente omnipresencia de los datos. Su ventaja con respecto a otras disciplinas de las ciencias sociales —y, de hecho, con respecto a la IA predictiva— es que puede ayudar a identificar los factores causales precisos que conducen a determinados comportamientos o resultados, y puede poner a prueba de forma eficaz diferentes enfoques para cambiar esos comportamientos o resultados. Esta ventaja les permite a los investigadores y profesionales centrarse en la mejor combinación de intervenciones para abordar algunos de los problemas más críticos de la actualidad, desde el cambio climático hasta la atención médica. Mientras mejores sean las inferencias causales, más ayudarán a los programas a obtener mejores resultados aún con menos recursos y tiempo. Además, al integrar la IA causal con la experiencia humana, los programas pueden evitar los errores que surgen cuando las personas —o las máquinas o el software que crean— ignoran el contexto determinante o caen en la trampa de confundir correlación con causalidad.
En última instancia, conocer el “por qué” de los problemas complejos nos ayuda a entender cómo funciona en realidad el mundo y, a su vez, a identificar las acciones correctas para lograr los resultados deseados. Puede que descubramos que un gramo de IA causal vale más que un kilo de predicción.
Autores originales:
- Sema K. Sgaier es cofundadora y directora ejecutiva de Surgo Foundation, profesora asistente adjunta en la Escuela de Salud Pública T. H. Chan de Harvard y profesora asistente afiliada de salud global en la Universidad de Washington.
- Vincent Huang es científico investigador sénior en la Fundación Surgo.
- Grace Charles es científica investigadora en la Fundación Surgo.
- Traducción del artículo The Case for Causal AI por Ángela Mariscal.
|
Este artículo es contenido original de la revista de Stanford Social Innovation Review en Español, publicado en la edición #5.
|