Ya no es más una discusión sobre ciencia ficción. El meteórico avance de los últimos meses exige que consideremos seriamente la posibilidad de que la IA cobre conciencia, advierte la Asociación para la Ciencia de la Conciencia Matemática (AMCS, en sus siglas en inglés). Deberíamos entonces, según la organización, preguntarnos si la humanidad logrará “controlar, alinear y usar” estos sistemas cuando alcancen su “despertar”.
“La conciencia le daría a la IA un lugar en nuestro panorama moral, lo que plantea más preocupaciones éticas, legales y políticas”, alerta la AMCS, conformada por más de 150 científicos y filósofos de todo el mundo. Que una IA cobre conciencia quiere decir que podría pensar con la libertad y autonomía de un ser humano.
La asociación advierte en una carta abierta que sistemas como ChatGPT y Bard han demostrado varias habilidades emergentes imprevistas. Por ejemplo, Bard, el chatbot de Google, aprendió un nuevo idioma por cuenta propia. También ha sido capaz de reflexionar sobre el dolor que sienten los humanos o sobre cuestiones como la redención. Una conducta que, según las palabras del CEO de la compañía, todavía no entienden del todo cómo surgió.
“Los sistemas de IA contemporáneos ya muestran rasgos humanos reconocidos en la Psicología, incluida la evidencia de la Teoría de la Mente”, dice el grupo en la misiva, que también tiene el respaldo de Asociación para el Estudio Científico de la Conciencia (ASSC).
Piden a los desarrolladores de IA profundizar los estudios sobre la conciencia
Las capacidades de los nuevos sistemas de IA se están acelerando a un ritmo que supera con creces nuestra comprensión, dice la AMCS. Si la IA alcanza la conciencia, “probablemente revelará una nueva gama de capacidades que van mucho más allá de lo que esperan, incluso, aquellos que encabezan su desarrollo”.
El grupo pide al sector tecnológico y a la comunidad científica que inviertan más recursos en este campo de estudio. Avanzar en este sentido permitiría a la sociedad y a los gobiernos tomar decisiones sobre el futuro de IA y su potencial impacto. En definitiva, garantizar que esta tecnología no sea perjudicial para la humanidad.
“No se debe dejar que la investigación de la IA deambule sola”, dicen en el documento. La carta está firmada por Susan Schneider, quien presidió la NASA, y decenas de académicos de universidades del Reino Unido, Estados Unidos y Europa.
Las otras preocupaciones
Distintas agrupaciones de científicos han llamado la atención sobre los riesgos relacionados con la IA. Más de mil especialistas y académicos pidieron a las grandes compañías que se frenen los desarrollos de modelos de IA, hasta que se sepa con certeza “que sus efectos serán positivos y sus riesgos serán manejables”. Lo hicieron a través de otra carta abierta, firmada por varios ejecutivos de la industria, entre ellos Elon Musk, dueño de Twitter y cofundador de OpenAI, creadora de ChatGPT.
Margaret Mitchell, ex responsable del equipo de Ética en IA de Google, junto a otros colegas exigieron también a los desarrolladores mayor transparencia y priorizar la seguridad de los usuarios sobre el beneficio económico. “Las acciones y elecciones de las corporaciones deben estar determinadas por una regulación que proteja los derechos e intereses de las personas”, dijeron en un comunicado.
Fuente: Hipertextual.