Cuando la IA reescribe la cultura: guía para navegar la era de la inteligencia artificial

Con el desarrollo cada vez más rápido de las inteligencias artificiales, surgen dudas y preocupaciones sobre la privacidad de nuestros datos o sobre el desplazamiento laboral. ¿Qué tan válidas son estas preocupaciones?

Santiago Villegas*

¿Sustituir la escritura humana?

Como bibliotecario digital, he tenido la oportunidad de presenciar las rápidas mejoras de la Inteligencia Artificial (IA) que han sido nada menos que asombrosas.

Desde la creación automatizada de contenido hasta el arte impulsado por el aprendizaje automático, la IA está dejando una marca duradera en nuestra cultura.  Ya hoy el contenido que consumimos en redes sociales está controlado por algoritmos de recomendación de inteligencia artificial. A partir de frases simples podemos crear imágenes hiperrealistas con Midjourney, video con Runway y hasta música con Mubert, ¿pero qué sucede cuando hablamos de libros y textos profesionales producidos por IA?

El potencial de la IA para reemplazar a los escritores y ensayistas humanos es un tema de debate. En los últimos meses, los modelos de lenguaje como GPT-4 han mostrado una capacidad impresionante para crear textos coherentes y contextualmente importantes.

El texto creado por IA a menudo carece de la riqueza, creatividad y resonancia emocional que los escritores humanos aportan a su trabajo. Los modelos de lenguaje de IA están fundamentalmente entrenados en grandes cantidades de datos de texto y se basan en patrones y asociaciones estadísticas para producir nuevo contenido.

Estas herramientas pueden ayudar a los escritores humanos con las ideas, con la redacción del texto e incluso a acabar ensayos enteros. Sin embargo, si estas obras producidas por IA realmente pueden igualar o no la profundidad y los matices de la escritura humana sigue siendo una pregunta controvertida.

El texto creado por IA a menudo carece de la riqueza, creatividad y resonancia emocional que los escritores humanos aportan a su trabajo. Los modelos de lenguaje de IA están fundamentalmente entrenados en grandes cantidades de datos de texto y se basan en patrones y asociaciones estadísticas para producir nuevo contenido.

Si bien estos modelos pueden imitar con frecuencia la escritura humana de manera convincente, los procesos subyacentes son fundamentalmente diferentes de la forma en que los humanos se relacionan con el lenguaje y las ideas, lo que en última instancia puede limitar la capacidad de la IA para una escritura verdaderamente creativa y original.

La empatía es un aspecto fundamental en la comunicación y conexión humana ya que nos permite comprender y responder a las emociones y experiencias de los demás, incluso a través de los textos que escribimos. A medida que los sistemas de IA se vuelven más avanzados e integrados en nuestras vidas, surge entonces la pregunta: ¿puede la inteligencia artificial simular realmente la empatía?

IA y la empatía

Algunas aplicaciones de IA, como los chatbots y los asistentes virtuales, ya intentan imitar la comunicación empática a través del procesamiento del lenguaje natural y el análisis de sentimientos determinando, por ejemplo, si el tono de nuestra comunicación con servicio al cliente es respetuoso o da cuenta de un estado de malestar con un producto.

Sin embargo, simular la empatía de una manera significativa exige más que solo identificar y responder a las señales emocionales: demanda una comprensión profunda de la experiencia humana y la capacidad de comprometerse con emociones y perspectivas complicadas.

Si bien la IA puede ser capaz de simular la empatía hasta cierto punto, carece de la experiencia vivida y la comprensión emocional que sustentan la conexión humana genuina. Además, la posibilidad de que los sistemas de IA finjan empatía plantea preocupaciones éticas, ya que las personas pueden ser engañadas al creer que están interactuando con una entidad verdaderamente empática, cuando en realidad se están involucrando con una máquina capaz de simular emociones sin experimentarlas realmente.

Ya es fácil ser engañados por la IA, pues se ha vuelto más difícil diferenciar entre el contenido creado por humanos y el producido por inteligencia artificial, ya sea en forma de texto o imágenes. Sin embargo, GPT-4 por ejemplo ha mostrado ser impreciso y propenso a las alucinaciones, aún cuando tiene una capacidad impresionante para crear contenido coherente y creativo en respuesta a las indicaciones que se le dan. Las IA de lenguaje son hoy, en palabras simples, un grupo de borrachos convincentes teniendo una conversación en un bar.

En el ámbito de las imágenes, los modelos de IA pueden crear imágenes increíblemente realistas basadas en descripciones de texto simples. Mientras tanto, la tecnología deepfake ha mostrado cómo la IA se puede usar para crear o manipular videos de personas, haciendo que parezcan decir o hacer cosas que en realidad nunca dijeron o hicieron. Ambas aplicaciones hacen que sea cada vez más difícil confiar en el contenido visual al pie de la letra.

Propiciar el pensamiento crítico

En cualquier caso, el camino más certero para evitar el engaño consiste en potenciar el pensamiento crítico mientras se desarrollan habilidades digitales que permitan comprender qué es lo que estas herramientas pueden crear. Aumenta así la necesidad de integrar a los currículos la alfabetización mediática e informacional —AMI o MIL, por el inglés Media and Information Literacy—.

A medida que el contenido creado por IA se vuelve más difícil de identificar, surgen también dilemas éticos cada vez más complicados. Estos son algunos de ellos:

  1. Equidad: Los modelos de IA aprenden de grandes cantidades de datos a menudo recopilados de Internet sin garantía de verificación de su veracidad u objetividad. Esto significa que pueden propagar inadvertidamente no solo desinformación sino los sesgos presentes en sus datos de entrenamiento, lo que crea resultados injustos para ciertos individuos o grupos.

Por ejemplo, se ha descubierto que los algoritmos de reconocimiento facial funcionan mal en el reconocimiento de personas con tonos de piel más oscuros o mujeres y personas mayores, lo que plantea preocupaciones sobre la perpetuación de los sesgos existentes mediante el uso de la IA.

  1. Transparencia: a medida que los algoritmos de IA se vuelven más complicados y difíciles de entender, se vuelve cada vez más difícil explicar cómo toman ciertas decisiones o llegan a resultados específicos. Esto es particularmente preocupante en contextos de alto riesgo, como la atención médica, las finanzas o la justicia penal, donde una comprensión clara de los procesos de toma de decisiones es crucial para garantizar resultados éticos.
  2. Responsabilidad: Los modelos de IA a menudo tienen múltiples capas de participación humana, desde quienes diseñan los algoritmos hasta quienes los ejecutan en diversos contextos. Esto puede conducir a una difusión de la responsabilidad, lo que hace difícil saber si se debe responsabilizar a las personas u organizaciones cuando las cosas van mal.
  3. Fuerza laboral: La IA tiene el potencial de automatizar muchos trabajos, lo que preocupa por el desplazamiento generalizado de empleos y exacerba la desigualdad de ingresos. Identificar formas de preparar a la fuerza laboral para el cambiante panorama y garantizar que las personas desplazadas por la IA puedan encontrar nuevas oportunidades se convierte en un desafío importante.
  4. Propiedad intelectual: A medida que la IA se vuelve más experta en la creación de contenido, surgen preguntas relacionadas con propiedad intelectual y derechos de autor. ¿Quién posee los derechos del trabajo producido por IA y cómo deben distribuirse las regalías o los ingresos?

Para abordar estos dilemas éticos, varias organizaciones, incluida la UNESCO, han empezado a desarrollar marcos legales y directrices en torno al uso ético de la IA. Las sociedades, los gobiernos, las organizaciones sin fines de lucro y los institutos de investigación también deben participar en debates sobre cómo garantizar el desarrollo y uso responsable y ético de la IA.

Foto: Midjourney v5 – La simulación de empatía de las IA plantea un dilema ético porque las máquinas realmente no experimentan emociones y las personas podrían ser engañadas.

En cualquier caso, el camino más certero para evitar el engaño consiste en potenciar el pensamiento crítico mientras se desarrollan habilidades digitales que permitan comprender qué es lo que estas herramientas pueden crear. Aumenta así la necesidad de integrar a los currículos la alfabetización mediática e informacional —AMI o MIL, por el inglés Media and Information Literacy—.

Qué podemos hacer en esta nueva era de las IA

¿Podemos entonces hacer algo como individuos para prepararnos para esta nueva era de la Inteligencia Artificial? Es aquí donde formarnos en alfabetización mediática e informacional pasa a ser también un compromiso personal:

  • Identificar los sesgos propios para ejercitar la empatía desde el entendimiento de las perspectivas diferentes a la propia. Sabemos que, por nuestro sesgo cognitivo, estamos predispuestos a creer en aquello que refuerza nuestras creencias y a descartar lo que se les opone: reconocerlo nos abre a nuevas posibilidades.
  • Reconocer las fuentes de información no solo para diferenciar entre el contenido creado por humanos y el producido por sistemas de IA, sino para determinar si la persona o institución que comparte una información tiene alguna intencionalidad en ello como desinformar o manipular.
  • Comprender los sesgos y limitaciones de la IA para ayudar a reconocer y dudar las suposiciones y juicios incorporados en el contenido o en las recomendaciones creadas por la IA.
  • Analizar el efecto de cada IA en la privacidad para ayudarnos a comprender las consecuencias de la recopilación y el intercambio de datos, permitiéndonos tomar decisiones informadas sobre las tecnologías que usamos.
  • Comprometerse con la ética de la IA para convertirnos en ciudadanos digitales responsables que aboguen por una sociedad impulsada por la IA más justa e inclusiva.
  • Desarrollar habilidades de adaptación al mercado laboral potenciado por IA para apropiarnos de las herramientas necesarias para prosperar en un mundo cada vez más automatizado.
  • Fomentar la participación pública en la formulación de políticas de IA para garantizar que se desarrolle y despliegue de manera que se alineé con los valores y prioridades sociales de cada comunidad.

A medida que la IA sigue remodelando nuestra sociedad, es esencial que le demos prioridad a la educación como el camino más sólido para garantizar que cada comunidad esté empoderada y pueda contribuir a un futuro digital más inclusivo y éticamente responsable.

Santiago Villegas

svillegas@razonpublica.org

*Bibliotecario 4.0, consultor en transformación digital para el sector cultura. Apasionado por el aprendizaje para toda la vida y fiel convencido del poder transformador de las bibliotecas.

Fuente: Razón publica

Tags

Compartir post