EL APOCALIPSIS ALGORÍTMICO YA ESTÁ AQUÍ
Y NOS ESTÁ DESTROZANDO LA VIDA
Claire Merchlinsky, para Business Insider – España, Ed Zitron, Traducido por: Cristina Gálvez
Flipboard, Tecnología, 22/08/2024
Imagina que eres un gestor de fondos de alto riesgo intentando ganar dinero. Para aumentar beneficios, decides instalar la última tecnología que permite a un ordenador interpretar los flujos del mercado y realizar miles de órdenes en milisegundos. El programa ayuda a impulsar tu fondo durante un tiempo, pero el entusiasmo inicial se convierte en miedo al ver que se vuelve loco y compra cientos de millones de acciones en menos de una hora.
Tu empresa se apresura a detener las operaciones, pero no puede, y de repente pierdes muchísimo dinero, todo por culpa de un algoritmo mal instalado.
Suena distópico, ¿verdad? Sin embargo, no es una hipótesis sobre la creciente amenaza de la inteligencia artificial; ocurrió realmente hace más de una década, cuando un error de programación provocó pérdidas de 440 millones de dólares a Knight Capital, lo que finalmente hizo que la empresa se viera obligada a una venta a un precio ridículo.
No hay razón para temer que la inteligencia artificial tome decisiones por ti en el futuro: los ordenadores ya controlan tu vida. La automatización empezó siendo algo positivo, mejorando la productividad, pero en un determinado momento se cedió el control de decisiones importantes a los ordenadores, afectando principalmente a las minorías y clase trabajadora. Los algoritmos que sustentan nuestra vida digital toman cada vez más decisiones cuestionables que enriquecen a los poderosos y arruinan la vida de la gente corriente. |
La “inteligencia artificial” no es “el futuro”: es solo un término de marketing para una versión ligeramente actualizada de la automatización que lleva años gobernando nuestras vidas. Las empresas han ido cambiando el nombre para disfrazar su tecnología (automatización, algoritmos, aprendizaje automático y ahora IA), pero todos estos sistemas hacen lo mismo: entregar la toma de decisiones a los ordenadores para que ejecuten tareas a velocidades mucho más rápidas de lo que podría hacerlo un ser humano.
Aunque cada vez se teme más que la nueva IA infecte nuestra vida cotidiana, deje sin trabajo a millones de personas y, en general, trastorne la sociedad, la mayoría de la gente no se da cuenta de hasta qué punto la toma de decisiones informatizada afecta a todo lo que nos rodea. Estos sistemas se basan en conjuntos de datos y en las reglas que les enseñan los seres humanos, pero tanto si se trata de ganar dinero en los mercados como de informar de las noticias, cada vez estamos más en manos de sistemas digitales que no rinden cuentas.
En muchos casos, estos algoritmos han resultado útiles para la sociedad. Han ayudado a eliminar tareas cotidianas y aumentar la productividad. Pero los algoritmos implicados en nuestras actividades digitales favorecen cada vez más a los poderosos en detrimento de la gente corriente. No hay por qué tener miedo de un futuro donde la inteligencia artificial tome decisiones: los ordenadores ya lo hacen constantemente desde hace algún tiempo.
Los primeros tiempos de internet fueron una experiencia relativamente humana: una colección dispar de webs a las que solo se podía acceder si conocías la dirección o veías su enlace en otra web. Esto cambió en junio de 1993, cuando el investigador Matthew Gray creó uno de los primeros “robots web”, un algoritmo primitivo diseñado para “medir el tamaño de la web”. El invento de Gray ayudó a crear motores de búsqueda e inspiró a una generación de sucesores: Jump Station, Excite, Yahoo, etc.
En 1998, los estudiantes de Stanford Sergey Brin y Larry Page dieron el siguiente salto en la automatización de internet al publicar un artículo académico sobre un “motor de búsqueda web de hipertexto a gran escala” llamado Google. El artículo explicaba cómo su algoritmo “PageRank” valoraba la importancia de un resultado web en función de la consulta del usuario y mostraba el más relevante en función del número de páginas enlazadas a él, lo que tenía mucho sentido en una red de internet mucho más pequeña.
En algún momento, sin embargo, la industria tecnológica pasó de automatizar provechosamente los trabajos que ralentizaban nuestras vidas a distorsionar la sociedad entregando decisiones cruciales a los ordenadores
Casi tres décadas después de la fundación de Google, internet no ha hecho más que automatizarse. Las recomendaciones de Spotify y Netflix nos ayudan a encontrar nuevo contenido, los roboadvisors pueden hacer crecer nuestros ahorros a bajo coste y las aplicaciones industriales, como la robótica utilizada para fabricar muchos vehículos modernos, han hecho que nuestra economía sea más eficiente.
En algún momento, sin embargo, la industria tecnológica pasó de automatizar provechosamente los trabajos que ralentizaban nuestras vidas a distorsionar la sociedad entregando decisiones cruciales a los ordenadores.
En muchos sentidos, el documento original de Google parece una oscura advertencia. Sostiene que los motores de búsqueda financiados con publicidad estarían “intrínsecamente sesgados” hacia esos anunciantes. No es de extrañar, pues, que los investigadores hayan descubierto que, al dar prioridad a los ingresos publicitarios sobre los resultados útiles, el algoritmo de Google está empeorando, degradando una fuente crucial de información para más de 5.000 millones de personas. Y no se trata solo de los motores de búsqueda.
Los algoritmos centrados en los ingresos que hay detrás de redes como Facebook, Instagram, TikTok y Twitter han aprendido a alimentar a los usuarios con un flujo constante de contenidos molestos o irritantes para fomentar el engagement. A medida que disminuye el control humano, se acumulan las consecuencias en el mundo real: el algoritmo de Instagram se ha relacionado con una crisis de salud mental entre las adolescentes.
Twitter admitió que su tecnología tendía a amplificar los tuits de políticos, influencers y fuentes de noticias de tendencia conservadora, y esto no ha hecho más que empeorar desde que Elon Musk compró la red social. Cambridge Analytica utilizó un algoritmo para rastrear los datos de Facebook e hiperdirigirse a millones de personas en el periodo previo a la votación del Reino Unido a favor de abandonar la Unión Europea y las elecciones presidenciales estadounidenses de 2016.
Los algoritmos que supuestamente deberían facilitar el trabajo o aumentar la productividad de los empleados han contribuido a inclinar la economía en contra de la clase trabajadora y las personas negras. Empresas como Amazon están tomando decisiones de contratación y despido basadas en los caprichos de una calculadora.
Y los clientes también están recibiendo el extremo corto del palo de la IA: una investigación realizada en 2019 por Associated Press y The Markup descubrió que los algoritmos utilizados en la toma de decisiones sobre préstamos estaban muy sesgados contra las personas negras, siendo los prestamistas un 80 % más propensos a rechazar a solicitantes negros que a solicitantes blancos con perfiles similares.
Y estos problemas se trasladan al sector público, envenenando los servicios gubernamentales con sesgos algorítmicos. El Gobierno del Reino Unido se enfrentó a un escándalo nacional en 2020 cuando los administradores sustituyeron casi el 40 % de los exámenes de nivel A de los estudiantes (una prueba crucial que puede determinar la capacidad de un estudiante para ir a la universidad) por calificaciones elegidas algorítmicamente.
Los resultados subestimaron significativamente a los estudiantes de las escuelas públicas, favoreciendo, en cambio, a quienes estudiaron en colegios privados en zonas acomodadas. Un algoritmo de “autoaprendizaje” utilizado por las autoridades fiscales neerlandesas penalizó falsamente a decenas de miles de personas por defraudar supuestamente al sistema de guarderías del país, empujando a la gente a la pobreza y llevando a miles de niños a centros de acogida.
En Estados Unidos, ProPublica descubrió en una investigación de 2016 que un algoritmo utilizado en múltiples sistemas judiciales estatales para juzgar la probabilidad de que alguien cometiera un delito en el futuro tenía un sesgo en contra de los estadounidenses de raza negra, lo que llevó a que los jueces dictaran sentencias más duras.
Tanto en el sector público como en el privado, hemos entregado las llaves a una telaraña de algoritmos construidos con escasa información pública para la toma de decisiones. La Comisión Federal de Comercio (FTC) de Estados Unidos está intentando regular el uso que hacen las empresas de los algoritmos, pero aún no lo ha hecho de forma significativa. Y en términos más generales, parece que los Gobiernos se han resignado a permitir que las máquinas gobiernen nuestras vidas.
Al igual que sucede con la fábula de la rana y la olla de agua hirviendo, el lento avance de los algoritmos ha pasado desapercibido para el público en general. Es fácil pasar por alto un pequeño ajuste en el algoritmo de Instagram o incluso celebrar el software de impuestos que simplifica tu declaración.
Pero ahora, gracias a la nueva ola de “inteligencia artificial”, la gente empieza a darse cuenta de que la olla está hirviendo. El entusiasmo alimentado por los inversores significa que casi todas las grandes empresas están considerando o integrando activamente la IA generativa (la mayoría de las cuales es mediocre en el mejor de los casos) en sus servicios. Mientras persista este hype en torno a la IA, nos precipitamos hacia la muerte del internet útil.
Tanto en el sector público como en el privado, hemos entregado las llaves a una telaraña de algoritmos construidos con escasa información pública para la toma de decisiones |
Los grandes modelos lingüísticos, como los que hay detrás de ChatGPT y Gemini de Google, están diseñados para rastrear la información disponible públicamente en Internet y en varios motores de búsqueda. Esto plantea un problema, ya que la web está cada vez más llena de páginas genéricas diseñadas para jugar con el SEO en lugar de proporcionar información útil. Muchas webs están generadas por la propia IA, creando un sinfín de información mediocre y poco fiable.
Piensa, por ejemplo, en Quora, la web de preguntas y respuestas que antes era muy apreciada por la calidad de las respuestas generadas por los usuarios. Ahora, Quora ofrece respuestas generadas por ChatGPT de OpenAI, que alimenta los resultados generativos de Google y acaba diciendo tonterías a los usuarios como que los huevos se pueden derretir.
Y a medida que los ejecutivos sustituyan a los editores humanos por IA (como hizo Microsoft con MSN.com, lo que dio lugar a que más de 1.000 millones de personas al mes recibieran información errónea), entraremos en un ciclo en el que los modelos generativos se entrenarán con los restos de un Internet envenenado por el contenido generativo. Incluso el ámbito supuestamente humano de las redes sociales se ha inundado de spam de IA, convirtiendo X, Facebook, Reddit e Instagram en una batalla constante contra la desinformación y las estafas.
Aunque la IA generativa no es más que la extensión más reciente del algoritmo, plantea una amenaza única. Antes, las personas controlaban las entradas y establecían las reglas del juego, mientras que los ordenadores producían los resultados. Ahora permitimos que estos modelos establezcan las reglas del juego por nosotros, generando tanto las entradas como las salidas.
Ya estamos empezando a ver algunos de los efectos nocivos: en 2023, la Asociación Nacional de Trastornos de la Conducta Alimentaria de Estados Unidos sustituyó a su personal humano por un chatbots de inteligencia artificial, pero tuvo que retirarlo poco después cuando empezó a dar consejos perjudiciales para perder peso.
Los ricos y poderosos podrán optar por no participar en este futuro dirigido por algoritmos o moldearlo a su imagen conectándose directamente con los seres humanos que hay detrás de las empresas envueltas en estos procesos algorítmicos.
Cuando uno tiene un banquero privado, no tiene que preocuparse por una revisión financiera anónima y automatizada: tiene a una persona con una dirección de correo electrónico y un número de teléfono. Así pues, los más privilegiados no tendrán que preocuparse de que las enfermeras o los médicos sean sustituidos por procesos de IA, porque podrán permitirse servicios médicos privados. Tampoco tendrán que preocuparse por la automatización de sus puestos de trabajo, porque serán ellos los que elijan dónde y cuándo se entrega un trabajo a un proceso automatizado. Pero para el resto de nosotros, parece como si cada vez más de nuestras vidas fueran dictadas por la caja negra de los algoritmos, y ya sabemos cómo va eso.
La automatización puede ser útil para escalar y acelerar las operaciones de una empresa o un gobierno, pero la contrapartida es casi siempre el sufrimiento humano: despidos, actuaciones policiales injustas, pérdidas financieras y un entorno mediático distorsionado. Incluso la mayor fuente de información del mundo, internet, está a punto de saturarse de contenidos creados para atraer a los algoritmos o generados por los propios algoritmos, dejando de lado el material generado por el ser humano que hizo especial a internet.
La IA no es nueva en este sentido, pero acelera la tendencia a apartar a las personas de las maquinaciones del mundo que las rodea. Quizá la superinteligencia omnipotente nunca fue lo que había que temer. Tal vez la verdadera amenaza era la codicia que llevaría a las empresas a descargar voluntariamente procesos críticos que eliminan el control humano: simulaciones basadas en simulaciones que toman decisiones en el mundo real que erosionan la capacidad de decidir por nosotros mismos.
.
Un aporte del director de la revista UNOFAR, Antonio Varas Clavel