Yuval Noah Harari advierte sobre los peligros de la IA en su nuevo libro Nexus: ‘Es un agente independiente, no una simple herramienta'”

En su más reciente libro Nexus, el historiador y pensador Yuval Noah Harari advierte sobre los riesgos que representa la inteligencia artificial (IA), a la que define como “un agente”, es decir, una entidad capaz de actuar en el mundo de manera independiente. Durante una charla con periodistas de América Latina y España, Harari subrayó que la IA se distingue de cualquier otra tecnología previa porque “no es simplemente una herramienta bajo el control humano, sino un agente independiente”. Comparó esta situación con una bomba atómica que podría decidir por sí sola dónde caer y cómo mejorar su propia tecnología.

La explosión incontrolada de la IA

En la obra, Harari profundiza sobre el potencial de la IA para crecer exponencialmente fuera del control humano. La IA, señaló, ya es capaz de producir textos, imágenes y código informático, y en un futuro cercano, podría crear una IA aún más poderosa, con consecuencias imprevisibles para la humanidad. “La gente en el sector está atrapada en una mentalidad de carrera armamentística, lo cual es extremadamente peligroso”, sostuvo, criticando la velocidad con la que se desarrolla la IA sin tomar las precauciones necesarias.

Harari ilustró este punto con una metáfora: “Es como si alguien lanzara un automóvil sin frenos en la carretera y dijera que, si surge un problema, inventarían frenos en el camino. No funciona así con los coches, y difícilmente funcionará con la IA”.

Un potencial positivo, pero con riesgos evidentes

A pesar de su postura crítica, Harari reconoció el potencial positivo de la IA, especialmente en áreas como la atención médica. En un futuro no muy lejano, señaló, podríamos tener médicos impulsados por IA disponibles las 24 horas del día, con mucho más conocimiento que cualquier médico humano, actualizados con todos los avances de la ciencia global. Esto, dijo, sería más accesible y económico que el sistema actual.

Sin embargo, Nexus pone el foco en los peligros, una elección que Harari justificó señalando que las corporaciones poderosas tienden a destacar sólo los aspectos positivos, mientras ignoran los riesgos. “Es tarea de los filósofos e historiadores como yo iluminar el otro lado”, afirmó.

¿Cómo será el “T-Rex” de la IA?

Harari también hizo una comparación entre la evolución biológica y el desarrollo de la IA, señalando que, aunque hoy los sistemas de IA son como “amebas”, esta evolución digital es mucho más rápida que la orgánica. “ChatGPT es la ameba de la IA, pero no tardará mil millones de años en convertirse en un dinosaurio. Eso podría suceder en apenas 10 o 20 años. ¿Y cómo será el T-Rex de la IA?”, se preguntó, invitando a reflexionar sobre las implicaciones futuras de esta tecnología.

Para Harari, lo que hace la IA hoy —crear textos, música e imágenes, aunque con errores— son sólo los primeros pasos de un desarrollo que está lejos de su madurez. “Aún no hemos visto nada”, advirtió.

¿Qué pasará con la cultura humana?

El impacto que esta tecnología podría tener en la sociedad y la psicología humana es una preocupación central de Nexus. “Hasta ahora hemos vivido protegidos en el capullo de la cultura humana, donde todas las historias, canciones, poemas e imágenes provenían de la mente humana. Pero eso está cambiando, y cada vez más de estos productos culturales serán creados por inteligencias ajenas. ¿Qué efecto tendrá esto en la sociedad y en nuestra psicología?”, reflexionó Harari.

El autor también alertó sobre el uso potencial de la IA para crear regímenes totalitarios sin precedentes. Mientras dictadores como Stalin o Hitler tenían límites para controlar a la población, la IA no tiene tales restricciones. “La IA no necesita descansar, no se distrae, puede seguir cada paso de cada persona, todo el tiempo”, explicó. “Esto podría hacer posible la creación de regímenes de vigilancia total que aniquilarían la privacidad”.

Un poder incontrolable

En Nexus, Harari retoma ideas de libros anteriores como Sapiens y Homo Deus, donde explora cómo la humanidad ha logrado un poder inmenso gracias a la cooperación, pero también cómo ese mismo poder puede ser mal utilizado. “La humanidad obtiene poder al construir grandes redes de cooperación, pero esa misma estructura puede llevarnos a hacer un uso imprudente del poder”, advirtió.

El historiador también criticó la “ideología semioficial” de la era digital, que asume que más información conduce a más conocimiento. “Esa es una visión ingenua”, afirmó. “La mayor parte de la información es basura, y convertirla en verdad requiere tiempo, esfuerzo y recursos. Confundir información con verdad es peligrosamente anticientífico”.

El reto de la confianza y la democracia

Finalmente, Harari lamentó cómo las visiones cínicas, tanto de la extrema derecha como de la izquierda, han erosionado la confianza en las instituciones que históricamente han garantizado la verdad, como los medios de comunicación, las universidades y los tribunales. Esta desconfianza, dijo, está debilitando la democracia.

A pesar del tono alarmante de muchos de sus comentarios, Harari concluyó con una reflexión más compasiva: “No todo el mundo está obsesionado con el poder. La corrupción existe, sí, pero tenemos instituciones para controlarla. Sin embargo, esta visión cínica de que todo es manipulación está destruyendo nuestra confianza y nuestra democracia”.


Tags

Compartir post