Sobre las Inteligencias Artificiales y sus potenciales riesgos

La inteligencia artificial (IA) es sin duda la tecnología más disruptiva que existe en este momento y probablemente se convierta en la más disruptiva de todos los tiempos. En los últimos meses se ha hablado mucho en los medios de comunicación sobre la IA, principalmente por un exitoso producto conocido como ChatGPT de la compañía OpenAI. OpenAI fue fundada en 2015 por Elon Musk (junto con varias otras personalidades) como un laboratorio de investigación de IA sin fines de lucro, con el objetivo de llevar a cabo investigaciones con la intención declarada de promover y desarrollar una IA amigable a la humanidad. Sin embargo, a partir de 2019, OpenAI se convirtió en una entidad con fines de lucro (OpenAI LP) con miles de millones de dólares aportados por Microsoft, en especial a principios de este año, para garantizar la exclusividad de la recientemente anunciada última y más poderosa versión de su IA, llamada GPT-4.

Y esta semana se desato una tormenta por una carta abierta enviada por “Future Life Institute”, auspiciada principalmente por el propio Elon Musk, solicitando pausar los desarrollos de IA más potentes que GPT-4 de Open AI por 6 meses hasta tanto no se tenga un marco regulatorio adecuado para garantizar que los efectos de esta tecnología sean positivos y sus riesgos controlables.

A primera vista, podría resultar llamativo que esta carta llegue solo unos días después de que fuera anunciado GPT-4 de la cual Microsoft se aseguró la exclusividad, siendo que GPT-4 no es la es la única IA avanzada. Google tiene a PaLM, la mas poderosa de la actualidad. Pero la diferente visión que tienen Elon Musk y Bill Gates sobre la IA es bien conocida desde hace tiempo. Y estas diferencias no son exclusivas de ellos. Gran parte de la comunidad científica se encuentra divida en una especie de “grieta” sobre los potenciales beneficios y riesgos de la IA.

Ahora bien, Future Life Institute (FLI), es una organización sin fines de lucro que trabaja para reducir los riesgos catastróficos y existenciales a los que se enfrenta la humanidad, en particular el riesgo existencial derivado de la IA. FLI está formado por varias prestigiosas figuras de la ciencia como Max Tegmark, autor de Life 3.0 (y que oficia de presidente de FLI) y un gran número de asesores, dentro de los cuales se encuentra Elon Musk, Alan Guth, Martin Rees y varios más. Este organismo cree fervientemente que debemos asegurarnos de obtener los beneficios que la IA nos puede proporcionar, previniendo o en su defecto mitigando los riesgos para la humanidad. Esta posición cauta sobre la IA ha sido impulsada principalmente por el filósofo Nick Bostrom en su paradigmático libro “Superinteligencia” y por muchos otros después.

Para entender esta “grieta” tenemos que entender cuál es el punto central sobre el que no se ponen de acuerdo los expertos. En pocas palabras el debate se centra en el hecho de si una IA podrá superar en capacidad intelectual a los humanos. O mejor aún, si existe en principio algún tipo de limite al crecimiento de la capacidad que podría desarrollar una IA. Si no hay un límite, las IA eventualmente superaran en inteligencia a los humanos. La pregunta se reduciría a cuando ocurría esto. En áreas específicas, hace rato que las IA han superado a los humanos, piense sino en una calculadora o un programa de ajedrez. A esto se lo llama IA débil. Hemos visto en los últimos años como las IA están empezando a ser superiores a los humanos es muchas áreas. Esto supone en principio un potencial problema para muchas fuentes de trabajo en los próximos años. Este es el riesgo más concreto que acarrean las IA a corto plazo.

Existe otro riesgo que tiene que ver con los sesgos de la información que se le proporciona a las IA para aprender. Si la información proporcionada es sesgada, incompleta o tendenciosa, los resultados también los serán. ¿Dejaremos que las IA tomen decisiones importantes con sesgos? Alguien podría responder que esto mismo pasa con nuestros lideres humanos y después de todo es más fácil corregir un sesgo en los datos de entrenamiento de una IA que corregir los sesgos y la discriminación en las mentes humanas.

El concepto de IA no es nuevo, se acuño en los 50s. Importantes logros y muchos fracasos han ocurrido desde entonces, con épocas de progresos y épocas de estancamiento. Un tipo de inteligencia artificial llamada sub simbólica fue ganando terreno desde los 80s y se terminó de consolidar como hegemónica para fines del siglo 20. Se basa en emular cómo funcionan las neuronas, las células de nuestro cerebro. Una neurona es un sistema que toma múltiples señales de entradas y genera una señal de salida en base a esas entradas. Para ello, a cada entrada se le asigna un peso de manera independiente. Y estos pesos son variables y se ajustan en función de la salida de modo de que salida se acerque a la deseada. Este proceso de retroalimentación es la clave del aprendizaje de las Redes Neuronales (RN) convolucionales y recurrentes, que consisten en arreglos multicapas de miles de millones de estas neuronas digitales.

Las RN son básicamente software corriendo en supercomputadoras. Prácticamente todos los sistemas de IA actuales, desde los sistemas de chat como ChatGPT hasta los imbatibles software de Ajedrez o Go, el famoso ajedrez chino, pasando por los sistemas de reconocimiento de voz o imágenes son una variante de una RN

Una particularidad inquietante de las IA basadas en RN es que si bien sabemos cómo funcionan (porque nosotros las construimos), no sabemos cómo llegan a determinadas conclusiones. Cuando una IA logro predecir mejor que cualquier medico humano cierta enfermedad mental en base a datos proporcionado de los pacientes, los ingenieros de IBM no supieron explicarles a los médicos como lo había hecho. Cuando AlphaGo, la IA que derroto al campeón del mundo de Go hizo la famosa jugada #37 que dejo estupefactos a todos los expertos humanos en este juego, incluido al campeón del mundo, no solo nadie pudo explicar cómo se le ocurrió esa jugada, sino que nadie creyó en ese momento que era una buena jugada. Simplemente no podemos mirar “dentro” de las IA basadas en RN y entender como llegan a las conclusiones que llegan. Las IA que tenemos no son explicativas.

Finalmente, ya más en el campo de la especulación (aunque especulación razonable), cuando una IA pueda superar a los humanos en todas las áreas, se habrá logrado la IA fuerte (también llamada general). Algunos sostienen que esto ocurrirá tan pronto como un par de décadas, otros que esto ocurrirá dentro de mucho tiempo. Cuando esto ocurra el humano se volvería obsoleto. Todas las actividades imaginables serian mejor hechas por las IA, más rápido y más eficientemente.

En pocas palabras, la IA general seria nuestro ultimo gran invento. A partir de ahí, las IA diseñarían todo, incluso nuevas IA más avanzadas. Algunos creen que esto nos conduciría a la cima de la civilización humana y otros, por el contrario, creen que sería nuestra perdición. El humano llego a la cima de la cadena alimenticia gracias a su inteligencia superior, no a su fuerza, su velocidad, su agilidad o su bondad. La inteligencia es el atributo más importante para la supervivencia y la razón porque el poderoso leon se encuentra encerrado en una jaula del zoológico y nosotros caminando libremente. ¿Qué pasaría si las IA se hacen mucho más inteligentes que los humanos? ¿Como evitaríamos convertirnos en sus esclavos o mascotas?

Para intentar responder esta pregunta resulta clave otra característica que poseemos los humanos y que carecen las IA, la consciencia. La consciencia es aún más elusiva que la inteligencia. Una IA incluso mucho más inteligente que la humana no representaría en principio una amenaza si no es consciente, si no adquiere sentimientos. Aun no tenemos mucha idea de cómo definir que es la conciencia, mucho menos de como medirla. La consciencia es una propiedad emergente de la complejidad de nuestro cerebro orgánico evolucionado. Nuestro cerebro es producto de miles de millones de años de evolución y que ha producido un salto cualitativo sin precedentes hace unos 100 a 200 mil años, cuando aparece nuestra especie, el homo sapiens. Los científicos sostienen que muchos animales poseen consciencia, aunque distinta a la que poseemos los humanos. Parece haber un amplio consenso de que las plantas, aun vivas, no poseen conciencia, pero el debate está lejos de estar dirimido. No existe en principio un argumento científico convincente que postule que la consciencia es un atributo único de algunos organismos basados en ADN. En otras palabras, no hay razón para suponer que un sistema informático lo suficientemente complejo pueda en principio ser susceptible de generar consciencia, como una propiedad emergente de dicha complejidad. Si una IA pudiera, en un futuro, adquirir conciencia o no es otro debate que divide a los expertos. La aparición de la conciencia en las IA sería el mayor de todos los riesgos al que podríamos enfrentarnos. Sin embargo, la mayoría de los expertos, coinciden que estamos muy lejos de que esto ocurra. Todo aquel que conozca como funcionan las IA no puede tomar en serio la idea de que una RN pueda adquirir conciencia en un futuro cercano. Simplemente necesitamos otro tipo de arquitectura intrínsecamente distinta, para que eso ocurra.

En resumen, las IA están comenzando a superar en eficiencia a los humanos en muchas tareas y esto puede ser una bendición o un riesgo. Se necesita discutir como esta poderosa herramienta va a ser usada y como va a afectar nuestras vidas. Por otro lado tenemos que pensar como trascenderemos como humanidad el hecho de que las IA nos reemplazan en la mayoría, si no en todas las actividades productivas humanas, incluso las más creativas porque esto es algo que parece inevitable en el mediano plazo. Y finalmente como nos prepararemos para la posibilidad de que una IA avanzada en un futuro lejano, tome conciencia de existencia, adquiera “humanidad”, deseos y sentimientos, pero con una inteligencia infinitamente superior a la nuestra. Tal vez por ese momento nuestra especie ya haya evolucionado a algo híbrido cibernético