Las aplicaciones impulsadas por inteligencia artificial (IA) diseñadas con conciencia, pueden generar resultados más sólidos y equitativos para las organizaciones sin fines de lucro.
La Inteligencia Artificial evoluciona rápidamente y, a través de muchos sectores y en todo el mundo, está reformando cómo las personas y las instituciones piensan y se comportan. En los Estados Unidos, compañías como Netflix y Amazon llevan años aprovechando la IA para personalizar recomendaciones y brindar asistencia virtual a sus clientes. Instituciones de investigación y laboratorios de IA como DeepMind la usan para acelerar la investigación médica y combatir el cambio climático.
Sin embargo, las organizaciones sin fines de lucro han estado menos involucradas en este momento de innovación tecnológica. Hasta cierto punto, esto es normal. El sector sin fines de lucro enfrenta muchos retos que no son problema para otros sectores; por ejemplo, la falta de inversión en investigación y desarrollo, y una carencia de personal con experiencia en IA. Pero también necesita cambiar. El impacto de la IA en la sociedad, en cómo la gente trabaja y vive, va a incrementarse con el tiempo, y el sector social no puede permitirse la falta de participación. Sin duda, las organizaciones sin fines de lucro tienen un rol importante en su desarrollo. Cuando son diseñadas e implementadas con la equidad en mente, las herramientas de IA pueden ayudar a cerrar las lagunas de datos, reducir sesgos y hacer más efectivas a estas organizaciones. Los financiadores, líderes de las organizaciones sin fines de lucro y expertos en IA deben moverse de prisa y alineados entre sí para fomentar una IA equitativa en el sector social.
Usar la IA para apoyar la equidad
Claro, aunque la IA ofrece muchas oportunidades emocionantes, también es conocido su potencial para causar un daño severo. Los desarrolladores entrenan a los algoritmos de IA usando datos extraídos de la sociedad, lo que implica que los sesgos están ahí desde el inicio. Por ejemplo, los proveedores de servicios financieros a menudo usan la IA para tomar decisiones crediticias, pero la industria financiera en los Estados Unidos tiene una larga historia de discriminación sistemática en contra de mujeres y comunidades de color, incluyendo políticas de aseguramiento, tasaciones injustas y discriminación de vecindarios según la etnia de sus habitantes. Como los algoritmos usados para tomar decisiones de préstamos están entrenados con datos históricos que reflejan la desventaja intencional de ciertos códigos postales, profesiones y otras prácticas asociadas con raza y género, pueden perpetuar las prácticas crediticias injustas y las desigualdades financieras si no se atienden. Incluso organizaciones sin fines de lucro con buenas intenciones podrían fácilmente diseñar aplicaciones de IA con fallas, que tendrían consecuencias imprevistas y dañinas. Por ejemplo, una organización que provee fondos iniciales a emprendedores sociales podría dar preferencia, por error, a ciertas poblaciones, si entrenara a una IA con datos financieros sesgados. Además, terminaría haciendo un trabajo opuesto a su misión de fomentar una riqueza equitativa.
También existe un miedo generalizado de que mejoras rápidas en la habilidad de la IA para realizar tareas administrativas, analíticas y creativas, podría volver obsoletas a muchas profesiones e incluso a industrias enteras. Buzzfeed, la compañía de medios digitales, comenzó a utilizar recientemente IA para generar contenido para su sitio. De manera similar, no sería difícil imaginar un escenario en el que una organización sin fines de lucro con un presupuesto limitado decidiera reajustar a su equipo de marketing para, en cambio, usar ChatGPT, un modelo de lenguaje impulsado por IA. Por otro lado, la falta de regulaciones y de incentivos financieros para que las organizaciones consideren los aspectos de equidad en la IA les quita lo prioritario. En años recientes, compañías líderes en el ramo tecnológico como Google y Microsoft, por ejemplo, han recortado al personal encargado de la ética en la IA.
Las siguientes son preocupaciones válidas que las organizaciones deben esforzarse por solucionar. Sin embargo, cuando las aplicaciones impulsadas por IA se desarrollan a partir de la reflexión y con equidad en mente, tienen un gran potencial para impulsar resultados sólidos y más equitativos para las organizaciones sin fines de lucro, en particular en estas tres áreas.
1. Cerrar la brecha.
La amplia brecha de datos entre el sector privado y el social amenaza con reducir la efectividad de las organizaciones sin fines de lucro que proveen servicios sociales críticos en los Estados Unidos y deja a quienes sirven sin el apoyo necesario. Como escribió Kriss Deiglmeir en un ensayo reciente publicado en el Stanford Social Innovation Review: “Los datos son un tipo de poder. Y la triste realidad es que ese poder lo tiene, cada vez más, el sector comercial, y no las organizaciones que buscan crear un mundo más justo, sostenible y próspero”. La inteligencia artificial puede romper con esta tendencia al democratizar el proceso de generar y movilizar datos y evidencia, facilitando que las organizaciones (incluso aquellas con presupuestos y experiencia interna limitada) tengan más acceso a la investigación y el desarrollo, la evaluación, y el análisis de datos.
Consideremos a Quill.org, una organización sin fines de lucro que proporciona a los estudiantes herramientas gratis que los ayudan a construir habilidades de lectura de comprensión, escritura y lenguaje. Quill.org utiliza un chatbot impulsado por IA que invita a los estudiantes a responder preguntas abiertas basadas en un fragmento de texto. Después revisa las respuestas y brinda sugerencias para mejorar, como escribir con claridad y usar evidencia para sustentar opiniones. Esta tecnología pone a disposición de estudiantes y escuelas un apoyo de alta calidad para mejorar el pensamiento crítico y la escritura, y al qué quizá no podrían acceder de otra forma. Como recientemente compartió Peter Gault, fundador y director ejecutivo de Quill.org, “en los Estados Unidos, hay 27 millones de estudiantes de bajos recursos que batallan con escritura básica y están en desventaja en la escuela y en la fuerza laboral… Al usar la IA para proporcionar a los estudiantes una retroalimentación inmediata sobre su escritura, podemos ayudar a los docentes a dar apoyo a millones de estudiantes en su camino a convertirse en mejores escritores, pensadores críticos y miembros activos de nuestra democracia”.
2. Reducir sesgos.
Hay una abundancia de historias que ilustran cómo la IA puede perpetuar sesgos. Por ejemplo, los departamentos de policía que utilizan algoritmos que señalan a los acusados de raza negra con un mayor riesgo de cometer futuros delitos en comparación con sus contrapartes blancas. También de empresas que usan algoritmos de contratación que perjudican a candidatas femeninas. Pero la IA también tiene el potencial de ayudar a reducir sesgos al respaldar la toma de decisiones equitativas. Los algoritmos diseñados con conciencia pueden descartar variables no relacionadas a los resultados (como raza, género y edad), que con demasiada frecuencia influyen en la toma de decisiones humanas, lo que ayudaría al personal de las organizaciones sin fines de lucro a identificar patrones y tomar decisiones basadas en evidencia, en lugar de depender de sesgos y puntos ciegos humanos.
Un ejemplo de una organización utilizando la IA para apoyar una toma de decisiones basada en evidencias es First Place for Youth (Primer lugar para la juventud), una organización que apoya a los jóvenes a realizar una transición exitosa hacia la autosuficiencia y la responsabilidad en la edad adulta. First Place for Youth construyó un motor de recomendaciones que utiliza la analítica de precisión (una tecnología que predice tendencias y patrones de comportamiento al descubrir relaciones de causa y efecto en los datos) para analizar la administración del programa y los datos de evaluación de casos, y así aprender de las diferencias en los resultados entre la juventud. Esto ayuda al personal a comprender mejor lo que ha funcionado para poblaciones específicas en el pasado y qué apoyos personalizados son los que con mayor probabilidad serán exitosos. Al ser diseñado con un lente de equidad, el algoritmo de IA puede clarificar si diferentes grupos demográficos tienen el mismo acceso a los componentes del programa. Además, para evitar que se replique algún sesgo existente, no empareja casos basados en factores socioculturales, como la raza, que no deben ser factor para determinar si un niño o niña se selecciona para las diversas opciones del programa.
3. Aumentar la eficiencia.
Existen muchas historias sobre las aplicaciones de IA cometiendo errores que van de lo cómico a lo trágico. Entre ellas, el chatbot de Bing compartiendo fantasías oscuras y profesando su amor a un columnista del New York Times, una parodia de Seinfeld generada con IA que fue expulsada de Twitch por hacer chistes transfóbicos, y un chatbot de Microsoft que fue desactivado por hacer comentarios racistas. Sin embargo, las aplicaciones impulsadas por IA como los motores de recomendaciones, la analítica de precisión y el procesamiento natural del lenguaje pueden ayudar a las organizaciones a aumentar su rendimiento al tiempo que reducen los errores humanos. Pasar tareas repetitivas y tediosas a una IA puede permitir al personal de una organización sin fines de lucro, ya limitado de recursos, enfocar una mayor parte de su tiempo al trabajo estratégico e interpersonal que las computadoras no pueden realizar.
Crisis Text Line, una organización sin fines de lucro que provee apoyo gratuito, a través de mensajes de texto, en temas de salud mental e intervenciones en crisis, utiliza la IA para apoyar la eficiencia y el alcance conservando la alta calidad de servicios personales. Específicamente, la organización entrena a la IA con textos anteriores para reconocer palabras clave y combinaciones de palabras de alto riesgo, lo que permite clasificar más eficientemente a los usuarios según su severidad. Crisis Text Line también utiliza IA como parte de su entrenamiento de voluntarios para construir fuertes habilidades de respuesta ante una crisis. Su algoritmo de procesamiento natural de lenguaje, entrenado con una serie de casos ficticios pero realistas, permite al algoritmo imitar conversaciones reales entre voluntarios y clientes en temas como ansiedad y daño autoinfligido. La tecnología ayuda a Crisis Text Line a entrenar su red de voluntarios con eficiencia y flexibilidad, en parte porque pueden completar su entrenamiento a su conveniencia. Más importante aún, permite al personal y voluntarios enfocar más de su tiempo en asegurar que los clientes reciban asistencia en vivo de alta calidad.
Apoyar el desarrollo de IA en organizaciones sin fines de lucro
Aunque los ejemplos anteriores ofrecen un panorama emocionante de lo que es posible, desafortunadamente, representan la excepción y no la norma. El sector social debe hacer más para aprovechar el momento; debe demostrar lo que es posible y construir las herramientas e infraestructura necesaria para promover una IA equitativa.
Nuestra organización, Project Evident, ayuda a las organizaciones a sacar provecho del poder de los datos y la evidencia para tener un mayor impacto, y trabaja para construir un ecosistema de evidencia más fuerte y equitativo. Como parte de una iniciativa reciente de dieciocho meses enfocada en la IA, convocamos a un grupo de organizaciones sin fines de lucro deseosas de usar IA para fortalecer los resultados de sus programas, y desarrollamos casos de estudio que ilustran cómo se ven en la práctica sus procesos de prueba y adopción de la inteligencia artificial. Y para orientar el desarrollo de herramientas efectivas y equitativas de IA, actualmente nos aliamos con el Stanford Institute for Human-Centered AI (Instituto de IA centrada en los humanos, de Stanford) para realizar una encuesta nacional y comprender mejor el uso y las necesidades de aprendizaje de la IA entre las organizaciones sin fines de lucro y financiadores. Estos proyectos echaron luz sobre diversas maneras en que el sector social puede fortalecer el ecosistema de una IA equitativa.
1. Aumentar la inversión en herramientas de IA.
Muchas organizaciones sin fines de lucro y distritos escolares están ansiosas por comprender cómo la IA podría apoyar su trabajo, pero carecen de medios para hacerlo. “Cuando echas un vistazo a las estructuras de financiamiento de las organizaciones sin fines de lucro, por lo general no permiten que este tipo de trabajo suceda”, dijo Jean-Claude Brizard, líder de Digital Promise, una organización sin fines de lucro enfocada en la educación, y participante de nuestro grupo. “Muchas organizaciones no tienen tiempo ni recursos”. Una solución directa es que los financiadores ofrezcan subsidios tanto a “nativos” de IA (organizaciones que ya despliegan IA para crear resultados equitativos) y “exploradores” de IA (organizaciones interesadas en probar la IA, pero que carecen del capital y apoyo necesario).
Las fundaciones también deben invertir en su propio aprendizaje y explorar si la IA puede hacer los procesos de creación de subsidios más eficientes o cómo puede mejorar las estrategias de financiamiento. Una fundación en nuestra red, por ejemplo, utiliza la IA para leer y analizar reportes de subsidios anteriores para detectar patrones en torno a elementos de estrategias de financiación efectiva. El financiador trabajó con un equipo de evaluadores y científicos de datos para entrenar modelos de lenguaje de gran tamaño, con validación humana en el proceso, para transformar datos cualitativos de textos de miles de propuestas y reportes en datos estructurados y longitudinales. El equipo después combinó estos datos con otros de una evaluación primaria (que incluía encuestas, entrevistas y grupos de enfoque), luego los limpió, procesó, enmarcó, estructuró y etiquetó según la teoría de cambio de la iniciativa.
Finalmente, utilizando algoritmos de machine learning con una guía y revisión humana de personas expertas en la materia, el equipo realizó un modelo descriptivo, predictivo y causal. Los resultados proporcionan al personal de la fundación información lista para usarse en la escritura de reportes, reportes interactivos, visualizaciones y paneles de información, fortaleciendo su habilidad para comprender qué ha funcionado y qué no. Esto ayuda a asegurar que las nuevas estrategias para crear subsidios se construyan con base en conocimiento previo y permite a la fundación compartir de mejor manera lo que ha aprendido con los beneficiarios y con el sector. También crean eficiencias que permiten a los funcionarios del programa invertir más tiempo en la construcción de relaciones fuertes con los beneficiarios actuales y futuros, y las comunidades; el tipo de trabajo que solo un humano puede hacer.
2. Colaborar en esfuerzos que abordan la IA y la equidad.
Otro asunto es que las organizaciones tienen pocos incentivos financieros o regulatorios para considerar las implicaciones éticas y de equidad en el desarrollo de IA. El sector con fines de lucro diseña la mayoría de sus herramientas y procesos de IA con rentabilidad y escalabilidad en mente.
Investigadores, actores políticos, proveedores de asistencia técnica, financiadores, profesionales del sector sin fines de lucro y miembros de la comunidad, necesitan trabajar alineados para fomentar prácticas y políticas prudentes en torno a la IA equitativa. Este trabajo podría incluir presionar legislaciones y regulaciones, el desarrollo de marcos de trabajo y estándares en el área, involucrarse con las comunidades para desarrollar herramientas que atiendan sus necesidades o compartir información y mejores prácticas de pruebas y monitoreo de sesgos en algoritmos de IA.
Varios esfuerzos están actualmente en marcha que podrían ayudar a proveer al sector social con mejor apoyo y orientación. Chuck Schumer, líder mayoritario del senado estadounidense, anunció en junio que organizaría una serie de foros de IA para ayudar al congreso a desarrollar una legislación integral y bipartidista de inteligencia artificial. El primer foro en septiembre incluyó a expertos en tecnología y activistas por los derechos civiles y laborales. Otro esfuerzo es el Distributed AI Research Institute (Instituto de investigaciones de IA distribuida), que investiga cómo la IA puede afectar desproporcionadamente a grupos marginados, y diseña marcos de trabajo para el desarrollo y la práctica de la IA que enfocan la voz comunitaria y buscan fomentar la equidad. Estos son dos ejemplos prometedores de esfuerzos progresistas e intersectoriales que buscan abordar la equidad y la IA.
3. Tener claros los fundamentos
Las organizaciones deben tener listos algunos componentes antes de probar la IA en busca de resultados equitativos: un propósito estratégico claro, sistemas tecnológicos adecuados, la capacidad para diseñar en pro de la justicia y la equidad, y una fuerte cultura de aprendizaje. Estas no son habilidades nuevas ni específicas de la IA, pero en el sector social a menudo son pasadas por alto y no reciben el suficiente apoyo financiero.
Project Evident trabaja frecuentemente con organizaciones para desarrollar planes estratégicos de evidencia, que son guías para una continua construcción de evidencias y mejoramiento de programas. Cuando una organización sin fines de lucro busca conducir una evaluación, ya sea porque así lo requieren los miembros del consejo o financiadores, o porque sus líderes piensan que es “lo correcto”, a menudo sugerimos dar un paso atrás y preguntarse: ¿qué están intentando aprender?, ¿qué resultados buscan obtener? Tener una claridad en el programa es importante para desarrollar una estrategia de evidencia, y lo mismo aplica cuando se construyen motores de recomendaciones u otras herramientas impulsadas por IA. De hecho, un algoritmo de IA es, simplemente, una traducción de un modelo lógico que establece las entradas esperadas de un programa y los resultados previstos. Los líderes de las organizaciones sin fines de lucro deben asegurarse de tener en orden los fundamentos adecuados antes de involucrarse con la IA. Y otros en el sector social deben apoyarlos con el financiamiento y las herramientas necesarias para construir las competencias fundamentales. Gemma Services, una agencia de servicio social basada en Filadelfia, es un ejemplo de una organización que logró con éxito atraer financiamiento para desarrollar una herramienta de IA. La agencia le demostró a un financiador local (la Fundación Scattergood) y a la ciudad de Filadelfia cómo la potencial aplicación de IA no solo traería beneficios al equipo de Gemma Services, sino que también generaría valiosos aprendizajes para los financiadores y actores políticos interesados en la salud mental a lo largo de la región de Filadelfia.
El potencial de la IA en el sector social es inmenso. Las aplicaciones de IA diseñadas con conciencia pueden cerrar las lagunas de datos, reducir sesgos y hacer más efectivas a las organizaciones sin fines de lucro. Pero para aprovechar completamente el potencial de la IA, debemos construir una infraestructura robusta en el sector social que proporcione los recursos necesarios, priorice las preocupaciones de equidad e invierta en las competencias organizacionales fundamentales. Con más recursos, mejor alineación y mayor intencionalidad, podemos ayudar al sector social a aprovechar el poder de la IA para tener resultados más fuertes y equitativos para todas las personas.
Este artículo es parte de nuestra serie "En búsqueda de la equidad": 7 historias de nuestras 7 ediciones globales retratan cómo se ve la equidad alrededor del mundo.
Lee este artículo en chino
Lee este artículo en inglés (idioma original)
Lee este artículo en árabe
Lee este artículo en portugués
Autores originales:
- Kelly Fitzsimmons es la fundadora y directora general de Project Evident, una organización dedicada a construir un ecosistema de evidencias más equitativo. Una innovadora social comprometida, Fitzsimmons trabajó previamente como vicepresidenta/jefa de programa y responsable de estrategia en la Fundación Edna McConnell Clark. Además, cofundó Leadwell Partners y New Profit Inc. Actualmente, es embajadora de la comunidad Leap y miembro del comité consultivo de Invest in What Works Federal Standard of Excellence, de Results for America.
|
Recomendado para ti
El caso de la inteligencia artificial causal |
El uso de la inteligencia artificial para predecir el comportamiento puede conducir a errores políticos devastadores. Para ayudar a identificar las palancas más efectivas para el cambio, los programas de salud y desarrollo deben aprender a aplicar modelos causales que expliquen mejor por qué las personas se comportan de cierta forma. |
Cuando los buenos algoritmos se vuelven sexistas
|
Siete acciones que líderes del cambio social y personas que desarrollan sistemas de aprendizaje automático pueden adoptar para construir una inteligencia artificial con perspectiva de género para un mundo más justo. |