Yann LeCun vs. Yuval Noah Harari: El debate sobre la inteligencia artificial y su impacto en la sociedad
En un debate organizado por la revista francesa Le Point, dos destacados expertos, Yann LeCun y Yuval Noah Harari, discutieron sus perspectivas opuestas sobre el futuro de la inteligencia artificial (IA). LeCun, investigador y jefe de IA de Meta, expresó su optimismo y descartó cualquier motivo de alarma, mientras que Harari, historiador, expresó su preocupación por el posible colapso de la civilización debido a la IA.
La discusión comenzó con la definición de inteligencia. LeCun describió la inteligencia como la capacidad de percibir una situación, planificar una respuesta y actuar para alcanzar un objetivo. Por otro lado, Harari la definió como la capacidad de resolver problemas, destacando que la conciencia no es un componente esencial de la inteligencia.
LeCun argumentó que las máquinas podrían adquirir emociones si pueden anticipar los resultados de sus acciones, pero admitió que aún estamos lejos de lograr que las máquinas sean conscientes. Harari señaló que la evolución de la inteligencia humana siempre ha estado vinculada a los sentimientos, pero también planteó la posibilidad de una inteligencia sin emociones que supere la inteligencia humana en ciertos campos.
Cuando se abordó el tema del impacto de ChatGPT en la democracia y las creencias, LeCun opinó que la apertura y la colaboración son esenciales para garantizar que la IA no represente una amenaza. Harari, por su parte, advirtió sobre la posibilidad de que la IA piratee y manipule la conversación entre las personas, socavando así los fundamentos de la democracia.
LeCun comparó el futuro de la IA con Wikipedia, argumentando que la confianza en la tecnología se basa en la colaboración y la transparencia. Además, enfatizó la importancia de que la IA no sea controlada por una sola empresa para garantizar su seguridad.
El debate también abordó la cuestión de la fiabilidad de los sistemas actuales de IA. LeCun admitió que los sistemas actuales son poco fiables en términos de brindar información precisa, pero afirmó que los avances futuros mejorarán la capacidad de control y la fiabilidad de estos sistemas.
Harari advirtió que la IA es la primera herramienta que puede reemplazarnos en la toma de decisiones, lo que plantea el riesgo de cometer errores irreparables. Destacó que los errores del pasado, como el nazismo y el comunismo, pudieron corregirse, pero los errores cometidos con la tecnología actual podrían ser devastadores y no dejar tiempo para aprender de ellos.
A medida que el debate llegaba a su fin, LeCun defendió la idea de que la IA impulsará un nuevo renacimiento al amplificar la inteligencia humana y acelerar el progreso en diversas áreas. Por otro lado, Harari insistió en la necesidad de ralentizar el desarrollo de la IA para comprender mejor sus riesgos y tomar decisiones informadas como sociedad.
En resumen, Yann LeCun y Yuval Noah Harari expresaron puntos de vista opuestos sobre la IA. Mientras LeCun se mostró optimista.
“¿Estamos perdiendo el control?”, preguntó el moderador, planteando una preocupante interrogante.
“Por el momento, mantenemos el control, pero podría no ser así en un futuro cercano”, respondió Harari. Desde una perspectiva histórica, la IA es la primera herramienta con capacidad para tomar decisiones por sí misma. Al compararla con revoluciones pasadas, como la energía nuclear, se destaca que la IA difiere en su habilidad para decidir cómo utilizarla. A diferencia de una bomba atómica, que no puede tomar decisiones sobre su uso, la IA sí puede hacerlo”, aseguró Harari.
Una vez más, LeCun refutó esta afirmación. “Actualmente, los sistemas de IA requieren enormes recursos para su creación, pero al final pueden ser utilizados por cualquier persona. Por lo tanto, no será como las armas nucleares. Además, la gran diferencia radica en que la IA está diseñada para potenciar la inteligencia humana y hacer que las personas sean más inteligentes, mientras que las armas nucleares están diseñadas para causar muerte”, explicó LeCun.
Sin embargo, Harari no estaba convencido y planteó una cuestión crucial: “¿Estamos diseñando la IA para hacer a las personas más inteligentes o para controlarlas? Esto depende del país”. Su declaración dejó una reflexión contundente.
LeCun tomó la palabra y admitió que es posible que algunos países estén diseñando la IA con el propósito de controlar a las personas. Sin embargo, argumentó que estos países inevitablemente se rezagarán en términos de tecnología, similar a lo que ocurrió con el Imperio Otomano en el siglo XVII al prohibir el uso de la imprenta. Hizo referencia al mundo musulmán en la Edad Media, cuando dominaba la ciencia, pero se atrasó considerablemente en el siglo XVII y quedó aún más rezagado después. Según LeCun, algo similar podría suceder en China, ya que está aislándose del ecosistema de la IA y si no permite que su población acceda a una inteligencia artificial más avanzada debido a preocupaciones sobre el control de la inmigración, también se quedará atrás.
El futuro del empleo también fue discutido durante el debate. LeCun destacó que economistas como Erik Brynjolfsson de Stanford afirman que las nuevas tecnologías desplazan puestos de trabajo, pero también aumentan la productividad de las personas. Sin embargo, esto requiere un período de tiempo considerable, aproximadamente entre 15 y 20 años, para que la mejora sea mensurable. LeCun se mostró entusiasmado al mencionar que la cantidad de riqueza producida por hora trabajada aumentará en general. Además, señaló que la velocidad a la que las personas pueden aprender a utilizar la nueva tecnología también limitará el desplazamiento de empleos. Previó cambios significativos en ciertas áreas de la economía y la necesidad de que las personas se reciclen profesionalmente. Destacó la importancia de contar con planes sociales para apoyar a aquellos que necesiten adaptarse a los cambios. Aunque habrá trastornos, LeCun pronosticó que al final las personas ganarán más dinero por una cantidad determinada de trabajo o trabajarán menos por la misma