Superinteligencia: la promesa que podría convertirse en amenaza para la humanidad

En su impulso por expandir los límites del conocimiento, la humanidad suele avanzar antes de medir las consecuencias. Lo vemos en múltiples áreas del desarrollo científico y tecnológico, y la inteligencia artificial no es la excepción. O, más precisamente, su evolución futura: la inteligencia artificial general (AGI) y su sucesora hipotética, la superinteligencia.

Mientras los primeros modelos de IA aún están en desarrollo y evaluación, ya hay quienes piensan varios pasos más allá. Algunos expertos cuestionan incluso la existencia misma de la AGI como algo tangible —como Kate Crawford, que la define como un término de marketing—, mientras otros, como Sam Altman, fundador de OpenAI, trabajan activamente para anticipar y dar forma a ese futuro.

Altman, una de las figuras centrales en el desarrollo de ChatGPT, ha proyectado desde los inicios de su empresa una visión ambiciosa: que la inteligencia artificial pueda ayudar a resolver los desafíos existenciales del planeta. Pero siempre bajo una condición crítica: que permanezca alineada con los valores y la voluntad humana.

Esta preocupación no es nueva. Ya en una entrada de blog escrita hace una década, Altman advertía que el desarrollo de una inteligencia artificial sobrehumana podría representar “la mayor amenaza para la continuidad de la humanidad”. Un pensamiento que hoy, lejos de disiparse, toma nuevas formas con la creciente expectativa de alcanzar una superinteligencia, es decir, una IA que supere ampliamente la capacidad cognitiva de los seres humanos.

Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California, coincide con esa inquietud. Para él, es vital que toda evolución tecnológica esté acompañada de una vigilancia y control humano constante, para evitar que los sistemas tomen decisiones manipuladoras o imprevisibles que escapen a nuestro control.

OpenAI, en un comunicado oficial de febrero de 2023, también reconoció el riesgo implícito en este tipo de avances:

“Una IA general superinteligente desalineada podría causar graves daños al mundo; un régimen autocrático con un liderazgo decisivo en superinteligencia también podría hacerlo”.

El dilema, entonces, no es solo tecnológico, sino ético, político y filosófico. ¿Cómo alinear sistemas cada vez más complejos y autónomos con los intereses de una humanidad diversa, contradictoria y, a menudo, dividida?

La pregunta de fondo sigue abierta: ¿podrá la inteligencia artificial, en su forma más avanzada, convertirse en una aliada fiel de la humanidad? ¿O estamos construyendo —sin darnos cuenta— una amenaza de dimensiones incontrolables?


Tags

Compartir post