En los pasillos de las facultades se ha hecho común comentar entre los colegas cómo la inteligencia artificial está cambiando la forma de trabajo del ... alumnado. En estos momentos es casi imposible evaluar y encontrar redacciones originales o respuestas que no sean sospechosas de haber sido redactadas por los algoritmos y motores de búsqueda del ChatGPT. Los alumnos son capaces de redactar prompts que arrojan respuestas irrastreables con mucha tenacidad, y solo las copias más burdas, las que incluyen alucinaciones de la inteligencia artificial, pueden ser detectadas con éxito. Dentro de unos pocos años, con el avance tecnológico, ni siquiera será así. Hace unas semanas asistí a un congreso internacional donde se trató especialmente el tema de la inteligencia artificial y su incidencia en la universidad, y todo lo que se dijo me hizo pensar una vez más que la mayor parte de lo que somos capaces de manifestar son hipótesis, ambigüedades y vaguedades. Es una impresión que arrastro desde hace tiempo. En el ámbito académico no hemos sido capaces aún de construir un discurso analítico y formado sobre cómo la inteligencia artificial cambiará nuestro modo de vivir, aunque si de algo podemos estar seguros es de que lo cambiará.
Es como si la inteligencia artificial hubiera desbordado nuestros marcos referenciales, y el Turnitin y demás programas antiplagio, de cuando pensábamos que el plagio era la peor de las pesadillas para el aprendizaje, reposan ahora en la nostalgia de la ingenuidad. La inteligencia artificial es mucho más, y ha venido para quedarse. Todo indica que en los próximos cincuenta años la inteligencia artificial tendrá un impacto profundo y medible en nuestras vidas, transformando la economía, el trabajo y la vida cotidiana. El Foro Económico Mundial calcula que la inteligencia artificial podría contribuir hasta un 1% adicional al crecimiento anual del PIB en países en desarrollo durante la próxima década, y el mercado global de la inteligencia artificial superará los 127.000 millones de dólares en 2025, frente a los 2.000 millones de 2015. En el ámbito laboral, el Fondo Monetario Internacional estima que en solo cinco años desaparecerán 85 millones de empleos tradicionales, lo que implicará en muchos casos precariedad laboral, aunque surgirán 97 millones nuevos relacionados con la tecnología y la gestión de datos. La educación y la formación continua serán esenciales para adaptarse a este nuevo entorno, donde las tareas repetitivas serán automatizadas y se demandarán habilidades creativas, analíticas y sociales. Aun hay colegas que prohíben a los alumnos el uso de la inteligencia artificial, queriendo poner puertas al campo. Se niegan con terquedad a aceptar una realidad que ya está ahí, nos guste o no.
Por mucho que seamos optimistas tecnológicos, que en mi caso lo soy de manera diría apasionada, sería ingenuo pasar de puntillas sobre los retos sin solución clara que nos plantea la inteligencia artificial. En la docencia, no me cabe duda de que la función de las universidades cambiará. Las estrategias de aprendizaje de las universidades, especialmente en las facultades más humanistas, renunciará -de hecho, lo está haciendo- a la memorización para plantear retos que la inteligencia artificial no podrá solucionar, en especial el pensamiento crítico, las habilidades y el relacionamiento conceptual. El mantra de que la universidad sirve para enseñar a pensar dejará de ser un objetivo programático para convertirse en el cimiento de la enseñanza. Para ese proceso, aprender a pensar, la inteligencia artificial es una aliada, no una enemiga. De no comprenderlo así, estaremos obligados a luchar contra molinos de viento; nos confortará nuestra batalla quijotesca, pero el esfuerzo será inútil y ridículo.
El principal desafío que nos presenta la inteligencia artificial es ético: cómo vamos a usarla, en qué principios nos basaremos para ello. Pensemos en dos ejemplos claves: cuál es la situación en la que quedan los derechos humanos frente a la potencialidad de la inteligencia artificial, y cuál es el precio ecológico que tenemos que pagar por ella. La inteligencia artificial está generando profundas transformaciones en el ámbito de los derechos, tanto en la protección como en la vulneración de estos. Por un lado, puede facilitar el acceso a la justicia y mejorar la eficiencia administrativa, pero también puede comprometer derechos fundamentales como la privacidad, la igualdad y la no discriminación. Los algoritmos, al operar sobre grandes volúmenes de datos, pueden reproducir y amplificar sesgos existentes, afectando especialmente a colectivos vulnerables y perpetuando patrones discriminatorios, como el racismo o el sexismo. Además, la opacidad de muchos sistemas de inteligencia artificial y la falta de una regulación internacional efectiva incrementan el riesgo de violaciones, como la vigilancia masiva, la manipulación de la opinión pública y la limitación de la libertad de pensamiento y expresión. Amnistía Internacional, a modo de ejemplo, denunció hace unos meses la decisión de Google de revocar su prohibición de usar la inteligencia artificial para diseñar armas, lo que permite a la empresa vender productos que promueven tecnologías como la vigilancia masiva, los drones desarrollados para ataques semiautomatizados por patrones de comportamiento, y software diseñado para acelerar la decisión de matar. Si queremos canalizar el agua antes de que se desborde, es necesario trabajar colectivamente en la generación de marco ético universal y democrático para impedir que la innovación tecnológica erosione la dignidad y los derechos de las personas.
Por otro lado, en cuanto a las políticas ecológicas, la inteligencia artificial ofrece oportunidades y desafíos. Por un lado, puede ser una herramienta poderosa para la protección ambiental: permite optimizar el uso de recursos, monitorizar ecosistemas y predecir desastres naturales. Sin embargo, la inteligencia artificial también implica un alto consumo energético, especialmente en el entrenamiento de grandes modelos, lo que agravará la huella de carbono si no se gestiona adecuadamente. Además, la automatización y la digitalización pueden desplazar problemas ambientales hacia regiones menos reguladas o aumentar la extracción de minerales críticos necesarios para las nuevas necesidades tecnológicas, lo que profundizará la explotación del territorio en comunidades periféricas. Por ello, la integración de la inteligencia artificial en las políticas ecológicas debería ir de la mano de un marco ético que destine los avances tecnológicos a la protección del planeta, no a su degradación, y que proteja adecuadamente a las comunidades asentadas en los territorios de riqueza mineral.
Recuerdo a menudo aquella ocurrencia que escuché de la boca de un conocido hace tiempo, cuando pasaba unos días en Estados Unidos: "-¿Por qué los europeos hacen tantas leyes? -Para preverlo todo. -¿Y los norteamericanos? - Para demandarlo todo después". No tiene gracia, pero tiene mucho de verdad. Desde agosto de 2024 en la Unión Europea está en vigor el primer marco integral del mundo sobre inteligencia artificial, el Reglamento UE 2024/1689, que adopta un enfoque desde el riesgo y, por ejemplo, prohíbe a vigilancia biométrica masiva en espacios públicos. Me tranquiliza saber que -gracias, por cierto, a la posición firme del Parlamento Europeo- la inteligencia artificial no se utilizará en estos casos para conculcar los derechos. Aunque el aporte europeo es importante, no es suficiente. El grupo de expertos de Naciones Unidas lo puede decir más alto, pero no más claro: es necesario regular a escala mundial el campo de la inteligencia artificial, que no puede dejarse únicamente a capricho de los mercados. En el fondo, lo que vienen es que hay que temer a la inteligencia artificial, y que es un despropósito pensar que nos irá bien sin encauzarla para que discurra por raíles democráticos. Si somos capaces de generar un consenso planetario sobre el uso y límites de la inteligencia artificial, podremos aprovecharnos adecuadamente de su potencialidad y convertirla en una aliada en nuestros proyectos futuros. En caso contrario, probablemente llegue el día en que tengamos que tenerle un poco de miedo.
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.