Según la filósofa Shannon Vallor en The AI Mirror, la inteligencia artificial no representa el fin de la humanidad, y no tendría porque serlo, siempre y cuando decidamos cambiar la forma en que la diseñamos y utilizamos.
¿Qué es lo que sucede con una persona, o una especie inteligente, cuando se deja de contar su propia historia?, se pregunta la filósofa Shannon Vallor al comienzo de su nuevo libro. The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking (El espejo de la IA: cómo recuperar nuestra humanidad en la era del pensamiento mecánico). ¿Qué perdemos cuando el autoconocimiento y la autodeterminación ceden ante el poder predictivo de un algoritmo opaco?
Las tecnologías emergentes y de rápido desarrollo siempre han despertado un pánico existencial en torno al futuro de la humanidad. A principios del siglo XIX, Frankenstein, de Mary Shelley, describía el impresionante potencial de la electricidad para dar vida.
En el siglo XX, los géneros de ciencia ficción y fantasía ilustraban futuros imaginarios relacionados con las tecnologías nucleares y los encuentros con extraterrestres. De manera similar, la ansiedad frente a la inteligencia artificial (IA), afirma Vallor, no surge de una amenaza real y externa, sino de una amenaza que proviene de los propios seres humanos y sus decisiones. “La IA no nos amenaza como una futura sucesora de los seres humanos”, escribe. “No es un enemigo externo que invade nuestro territorio. Nos amenaza desde dentro de nuestra propia humanidad”.
De hecho, Vallor sostiene que no es la tecnología en sí la que resulta peligrosa, sino quienes la diseñan. La IA tiene como base “los valores de las sociedades posindustriales ricas que la crean”, por lo que “es un espejo en el que nos vemos, no como deberíamos ser ni como podríamos ser, sino como realmente somos y hemos sido durante mucho tiempo”, explica.
Los algoritmos de la tecnología automatizada están compuestos por patrones de prejuicios y sesgos humanos que han dado lugar a conocidos fracasos públicos de la inteligencia artificial.
Un ejemplo claro es la herramienta interna de reclutamiento de Amazon, diseñada para eliminar el sesgo humano mediante aprendizaje automático. En 2018, la compañía tuvo que desecharla al descubrir que penalizaba sistemáticamente a las mujeres en sus evaluaciones. Otro caso es el estudio realizado por ProPublica en 2016, el cual reveló que una herramienta algorítmica usada por los tribunales para decisiones de fianza y sentencia predecía reincidencia de forma errónea en casi el doble de casos cuando se trataba de personas de color, en comparación con personas blancas.
La afirmación más contundente de Vallor es que la mayor amenaza de la IA para la humanidad radica en su capacidad para hacer que olvidemos lo que nos hace humanos —nuestra facultad de actuar, crear y cuidar—, ya que está “construida íntegramente a partir de la amalgama de datos históricos de la humanidad y se basa en algoritmos optimizados que están matemáticamente garantizados para reproducir los patrones insostenibles del pasado”.
Para ilustrar su argumento, Vallor recurre al mito de Narciso: un joven apuesto que quedó cautivado por la belleza de su propio reflejo en el agua de un estanque. Tan enamorado estaba de esa imagen, que fue incapaz de apartarse de ella y acabó muriendo de hambre mientras esperaba que esa persona saliera del agua.
“Nuestra dependencia de estos espejos para conocernos a nosotros mismos corre el riesgo de dejarnos cautivos, como Narciso, incapaces de avanzar y dejar atrás lo que nos muestra el espejo”, escribe Vallor. “Justo en un momento en que el cambio climático acelerado, el colapso de la biodiversidad y la inestabilidad política mundial nos exigen imaginar nuevas y más inteligentes formas de convivencia, la inteligencia artificial nos mantiene paralizados, fascinados por las infinitas variaciones de un pasado reflejado, que solo la magia del marketing logra disfrazar de futuro”.
Vallor afirma que nuestra fascinación colectiva y el optimismo generalizado en torno a la IA, de la misma forma que a Narciso lo encantó su reflejo, nos han llevado a ignorar las realidades y limitaciones de lo que observamos. Y, nuevamente como Narciso, no somos capaces de reconocer el reflejo que observamos en el espejo de la IA, que solo nos ofrece una visión distorsionada de nuestra humanidad. Al permitir que los sistemas de IA definan lo que es una expresión ideal de nosotros mismos, estamos “renunciando a toda esperanza de convertirnos en algo más de lo que ya somos”, argumenta Vallor, “[porque] estas herramientas se utilizan cada vez más para decirnos quiénes somos, qué podemos hacer y en quiénes nos convertiremos”.
El uso que Vallor hace de la metáfora del espejo va más allá de una simple descripción de la naturaleza de los sistemas de IA y su relación con los seres humanos como un reflejo. Los espejos analógicos, señala, producen un reflejo de nosotros mismos únicamente cuando nos miramos en ellos; en cambio, los espejos digitales, como la IA, nunca dejan de mostrar algo parecido a un reflejo incluso cuando estamos ausentes. De esta forma se crea la ilusión de que ofrecen sensibilidad y esto tiene el potencial de engañar y hacernos creer que la máquina es como nosotros o incluso más inteligente.
“El fenómeno del espejo de la IA se manifiesta en [...] modelos de aprendizaje automáticos que son alimentados por datos y diseñados para recopilar, asimilar y proyectar una imagen de aquello que más se aproxima a nuestro ser: las palabras, los movimientos, las creencias, los juicios, las preferencias y los prejuicios humanos, nuestras virtudes y nuestros vicios”, afirma. “Son estas herramientas las que se utilizan cada vez más para decirnos quiénes somos, qué podemos hacer y en quiénes nos convertiremos”.
Por lo tanto, los sistemas de IA se presentan como alternativas más óptimas, eficientes, precisas y satisfactorias, que los propios seres humanos, no solo en el ámbito laboral, sino también en las relaciones interpersonales. Según Vallor, la creencia sobre la superioridad de la IA representa una sentencia de muerte para la humanidad. “Es la erosión gradual de la confianza moral y política de los seres humanos en nosotros mismos y en los demás”, escribe.
“En los próximos años, escucharemos la misma canción una y otra vez: que los seres humanos somos más lentos, más débiles, menos fiables, más parciales, menos racionales, menos capaces y, en última instancia, menos valiosos que nuestro reflejo de IA”.
Para Vallor, la fuente del problema es también parte de la solución. “Nosotros somos la fuente del peligro que la IA representa para nosotros mismos, y eso es algo bueno, porque significa que tenemos el poder de resistir y el poder de sanar”. El hecho mismo de que los seres humanos tengamos control sobre la tecnología es, precisamente, lo que Vallor nos insta a recordar si queremos reimaginar el propósito y los usos de la IA de cara al futuro.
Sin embargo, mientras la IA siga siendo un espejo que refleja el pasado de la humanidad, no nos servirá para encontrar soluciones a nuestros problemas más urgentes. “Nos enfrentamos a crisis planetarias y civilizatorias sin precedentes para la humanidad”, afirma. “¿Intentarías escalar una montaña peligrosa y desconocida guiándote por un espejo que solo muestra lo que dejas atrás?”
Sin embargo, Vallor no adopta una visión apocalíptica de la inteligencia artificial, porque, una vez más, los humanos hemos creado la IA y, por lo tanto, tenemos el poder de cambiarla. Reorientar nuestra relación con la IA exige un cambio en los valores y, específicamente, un “cambio en lo que la tecnología significa para nosotros, en lo que pensamos y se nos enseña que es su propósito,” afirma. Debemos destruir la jerarquía entre la IA y los humanos que nosotros mismos hemos creado.
Vallor nos recuerda, en primer lugar, que a nivel personal, la tecnología no es algo artificial, sino inherente a la creación humana. Aquí recurre al concepto del filósofo español José Ortega y Gasset, es decir, “la tarea de crearnos a nosotros mismos”, en la que las tecnologías son algunas de las influencias que afectan materialmente la forma en que damos forma a nuestras vidas.
La ética de la construcción de uno mismo se relaciona, en este sentido, con el esfuerzo ético que también se requiere a nivel social.
“Debemos recuperar la inteligencia artificial y, en general, la cultura tecnológica para orientarlas hacia una visión moral sostenible”, afirma.
“Necesitamos un proyecto heroico común; un movimiento de autofabricación colectiva, guiado por una sabiduría práctica y creativa, que nos permita explorar juntos nuevas y mejores posibilidades tecnomorales.
Vallor comienza esta sección con una aclaración: su libro no trata sobre cómo gobernar ni regular la inteligencia artificial. Reconoce que sus propuestas son más bien ideas que soluciones fundamentadas en datos. Su primer paso para transformar “lo que la tecnología significa para nosotros” es un llamado idealista a “modificar los incentivos económicos del ecosistema actual de la IA, que solo buscan beneficios a corto plazo y resultan directamente incompatibles con un futuro humano sostenible”.
Pero en lugar de culpar al capitalismo como el motor principal de la industria de la IA, Vallor dirige su atención a lo que considera una falsa dicotomía entre regulación e innovación. Políticos y empresarios por igual promueven esta dicotomía para obstaculizar la regulación gubernamental necesaria de la industria, especialmente en lo que respecta a sus externalidades negativas, como las emisiones de carbono.
Sin embargo, Vallor sostiene que “el problema no es que no sepamos cómo gobernar tecnologías peligrosas. Sí lo sabemos. El problema es que renunciamos a la voluntad política de hacerlo, en gran parte porque aceptamos una historia que nos decía que la regulación es enemiga de la innovación. Sabemos que eso es falso, porque la historia nos lo demuestra”, afirma, señalando como ejemplo la regulación de las industrias automotriz, aeronáutica y aeroespacial en el siglo XX. Por ejemplo, la existencia de prácticas de ingeniería en seguridad, licencias de conducir y leyes de tránsito no ha detenido la innovación en la industria automotriz; cada vez más fabricantes están adoptando vehículos híbridos y totalmente eléctricos para alinearse con nuestras necesidades climáticas y de sostenibilidad.
Vallor sostiene que, para que la IA tenga un uso verdaderamente positivo, debemos considerar su potencial como herramienta de cuidado. Por ejemplo, podría emplearse para identificar y corregir injusticias en el sistema de salud, investigar casos de corrupción institucional o crear y sostener redes de apoyo mutuo.
Vallor sostiene que, si logramos que la IA trascienda su rol como un reflejo de la eficiencia y se transforme en un auténtico “acto de generosidad”, entonces podrá convertirse en una fuerza de cuidado: “para ofrecer lo necesario a quienes luchan por sobrevivir; para proteger, sanar y restaurar; para educar con propósito; para alimentar, acompañar y reconfortar”.
El difícil trabajo de la autoreflexión y análisis es la base de la acción colectiva necesaria para cambiar políticas y normas sociales. Aunque es un gran reto, no está fuera del alcance de lo que muchas comunidades ya están haciendo. Por ejemplo, algunas comunidades indígenas están usando la inteligencia artificial para recuperar sus lenguas nativas y establecer formas de gobernanza que garanticen el control sobre su propia información y quién puede utilizarla.
Algunas comunidades están empleando la inteligencia artificial para proteger la biodiversidad, mientras que otras están desarrollando y administrando sus propios repositorios de datos con el fin de combatir las desigualdades en el sistema de salud.
Aunque carece de recomendaciones concretas o instrucciones paso a paso para evitar los terrores provocados por la IA, The AI Mirror logra romper el espejo en sí; sus ilusiones, sus mitos de supremacía y divinidad. Vallor insta a los lectores a recordar que la IA es una herramienta que nosotros mismos hemos creado, y que depende de nosotros decidir usarla al servicio de los demás, como parte de nuestra responsabilidad colectiva entre nosotros y con el planeta.
Autores originales:
- Jasmine McNealy es profesora en la Facultad de Periodismo y Comunicaciones de la Universidad de Florida.
|
Este artículo es contenido original de la revista de Stanford Social Innovation Review, publicado en la edición otoño 2024.
Traducción del artículo The problem With AI Is Us por Jorge Treviño, con apoyo de DeepL.
|
Recomendado para ti
El caso de la Inteligencia Artificial causal
|
El uso de la inteligencia artificial para predecir el comportamiento puede conducir a errores políticos devastadores. Para ayudar a identificar las palancas más efectivas para el cambio, los programas de salud y desarrollo deben aprender a aplicar modelos causales que expliquen mejor por qué las personas se comportan de cierta forma. |
Fomentar la IA equitativa en el sector social
|
Las aplicaciones impulsadas por inteligencia artificial (IA) diseñadas con conciencia, pueden generar resultados más sólidos y equitativos para las organizaciones sin fines de lucro. |