Sobre la Inteligencia Artificial y sus potenciales riesgos
La inteligencia artificial (IA) es sin duda la tecnología más disruptiva que existe en este momento y probablemente se convierta en la más disruptiva de todos los tiempos. El 2023 fue un año de quiebre con la presentación en sociedad de ChatGPT, el exitoso modelo de lenguaje natural de la compañía OpenAI. OpenAI fue fundada en 2015 por Elon Musk (junto con varias otras personalidades) como un laboratorio de investigación de IA sin fines de lucro, con el objetivo de llevar a cabo investigaciones con la intención declarada de promover y desarrollar una IA amigable a la humanidad. Sin embargo, a partir de 2019, OpenAI se convirtió en una entidad con fines de lucro (OpenAI LP) con miles de millones de dólares aportados por Microsoft, en especial a principios de 2023, para garantizar la exclusividad de la última y más poderosa versión de su IA, llamada GPT-4.
Inmediatamente se desato una tormenta por una carta abierta enviada por “Future Life Institute”, auspiciada principalmente por el propio Elon Musk, solicitando pausar los desarrollos de IA más potentes que GPT-4 de OpenAI por 6 meses hasta tanto no se tenga un marco regulatorio adecuado para garantizar que los efectos de esta tecnología sean positivos y sus riesgos controlables.
A primera vista, podría resultar llamativo que esta carta haya llegado solo unos días después de que fuera anunciado GPT-4 de la cual Microsoft se aseguró la exclusividad, siendo que GPT-4 no era la única IA avanzada. Google tenía en ese momento a PaLM que luego evoluciono a Gemini y Anthropic (ex empleados de OpenAI) a Claude, por citar solo dos ejmplos. Pero la diferente visión que tienen Elon Musk y Bill Gates sobre la IA es bien conocida desde hace tiempo. Y estas diferencias no son exclusivas de ellos. Gran parte de la comunidad científica se encuentra divida en una especie de “grieta” sobre los potenciales beneficios y riesgos de la IA.
Ahora bien, Future Life Institute (FLI), es una organización sin fines de lucro que trabaja para reducir los riesgos catastróficos y existenciales a los que se enfrenta la humanidad, en particular el riesgo existencial derivado de la IA. FLI está formado por varias prestigiosas figuras de la ciencia como Max Tegmark, autor de Life 3.0 (y que oficia de presidente de FLI) y un gran número de asesores, dentro de los cuales se encuentra Elon Musk, Alan Guth, Martin Rees y varias figuras más. Este organismo cree fervientemente que debemos asegurarnos de obtener los beneficios que la IA nos puede proporcionar, previniendo o en su defecto mitigando los riesgos para la humanidad. Esta posición cauta sobre la IA ha sido impulsada principalmente por el filósofo Nick Bostrom en su paradigmático libro “Superinteligencia” y por muchos otros después.
Para entender esta “grieta” tenemos que entender cuál es el punto central sobre el que no se ponen de acuerdo los expertos. En pocas palabras el debate se centra en el hecho de si una IA podrá superar en capacidad intelectual a los humanos. O mejor aún, si existe en principio algún tipo de limite al crecimiento de la capacidad que podría desarrollar una IA. Si no hay un límite, las IA eventualmente superaran en inteligencia a los humanos. La pregunta se reduciría a cuando ocurría esto. En áreas específicas, hace rato que las IA han superado a los humanos, piense sino en una calculadora o un programa de ajedrez. A esto se lo llama IA débil. Hemos visto en los últimos años como las IA están empezando a ser superiores a los humanos es muchas otras áreas además de los juegos. Esto supone en principio un potencial problema para muchas fuentes de trabajo en los próximos años. Este es el riesgo más concreto que acarrean las IA a corto plazo.
Existe otro riesgo que tiene que ver con los sesgos de la información que se le proporciona a las IA durante la fase de entrenamiento. Si la información proporcionada es sesgada, incompleta o tendenciosa, los resultados también los serán. ¿Dejaremos que las IA tomen decisiones importantes con sesgos? Alguien podría responder que esto mismo pasa con nuestros lideres humanos y que después de todo es más fácil corregir un sesgo en los datos de entrenamiento de una IA que corregir los sesgos y la discriminación en las mentes humanas. Pero, aun así, el debate esta instalado.
El concepto de IA no es nuevo, se acuño en los 50s. Importantes logros y muchos fracasos han ocurrido desde entonces, con épocas de progresos y épocas de estancamiento. Un tipo de inteligencia artificial, llamada sub simbólica fue ganando terreno desde los 80s y se terminó de consolidar como hegemónica para fines del siglo 20. Se basa en emular cómo funcionan las neuronas, las células de nuestro cerebro. Una neurona es un sistema que toma múltiples señales de entradas y genera una señal de salida en base a esas entradas. Para ello, a cada entrada se le asigna un peso de manera independiente. Y estos pesos son variables y se ajustan en función de la salida de modo de que salida se acerque a la deseada. Este proceso de retroalimentación es la clave del aprendizaje de las Redes Neuronales (NN) que consisten en arreglos multicapas de miles de millones de estas neuronas digitales. Existen diferentes tipos de redes neurales, las convolucionales (CNN) que son las usadas principalmente en reconocimiento de patrones e imágenes y las redes neuronales recurrentes (RNN) que son las usadas principalmente en los modelos de lenguaje natural y reconocimiento de voz.
Las redes neuronales son básicamente software corriendo en supercomputadoras. Prácticamente todos los sistemas de IA actuales, desde los sistemas de chat como ChatGPT hasta los imbatibles softwares de Ajedrez o Go (el famoso juego chino), pasando por los sistemas de reconocimiento de voz o imágenes son una variante de una red neuronal.
Una particularidad inquietante de las IA basadas en RN es que si bien sabemos cómo funcionan (porque nosotros las construimos), en muchos casos no sabemos con exactitud cómo llegan a determinadas conclusiones. Cuando una IA logro predecir mejor que cualquier medico humano cierta enfermedad mental en base a datos proporcionado de los pacientes, los ingenieros de IBM no supieron explicarles a los médicos como lo había hecho. Cuando AlphaGo, la IA de Google DeepMind derroto al campeón del mundo de Go en 2016 e hizo la famosa jugada #37 que dejo estupefactos a todos los expertos humanos en este juego, incluido al campeón del mundo, no solo nadie pudo explicar cómo se le ocurrió esa jugada, sino que nadie creyó en ese momento que esa era siquiera una buena jugada. Simplemente no podemos mirar “dentro” de las IA basadas en RN y entender como llegan a las conclusiones que llegan. Las IA que tenemos no son explicativas.
Finalmente, ya más en el campo de la especulación (aunque especulación razonable), cuando una IA pueda superar a los humanos en todas las áreas, se habrá logrado la IA fuerte, también llamada general (AGI). Algunos sostienen que esto ocurrirá tan pronto como un par de décadas. Otros son más conservadores. Cuando esto ocurra sería lógico suponer que la mayoría de las actividades que realizamos los humanos serán hechas mejor, más rápido y más eficientemente por esta AGI.
En pocas palabras, una AGI seria nuestro último gran invento. Las IA podrían diseñar todo, incluso nuevas IA más avanzadas. Algunos creen que esto nos conduciría a la cima de la civilización humana y otros, por el contrario, creen que esto podría ser nuestra perdición. Los humanos no convertimos en la especie dominante gracias a nuestra inteligencia superior, no a nuestra fuerza, ni a nuestra velocidad o agilidad. La inteligencia es probablemente el atributo más importante para la supervivencia y la razón porque el poderoso león se encuentra encerrado en una jaula del zoológico y nosotros caminando libremente. Algunos se preguntan qué pasaría si las IA se hacen mucho más inteligentes que los humanos ¿Como evitaríamos convertirnos en sus esclavos o mascotas?
Este es el “problema del control” que nos habla Stuart Rusell en su libro “Human Compatible”. Las IA son en esencia maquinas optimizadoras de objetivos. En el enfoque tradicional las IA se diseñan para maximizar una función de recompensa predefinida. Este enfoque puede llevar a comportamientos inesperados y peligrosos si la IA interpreta y maximiza la recompensa de maneras no anticipadas. Asi que el primer problema que debernos afrontar es la definición correcta de los objetivos que vamos a poner a optimizar en una IA y a la vez que estos objetivos sean flexibles, pues, la incertidumbre en nuestros propósitos y deseos es una característica intrínsecamente humana. Asi pues, las IA deberán realizar consultas, aceptar correcciones y eventualmente ser apagadas en caso de emergencia.
ALGO MAS DE RUSSELL
Más en el terreno de la especulación, tenemos el apasionante debate a sobre la posibilidad de la consciencia artificial. Este debate se centra casi exclusivamente en campo de la filosofía. Nadie que trabaje en IA, desarrolla sistemas pensando en que este sea el objetivo final de la IA. Esto se debe fundamentalmente a que no es el objetivo último de la IA, sino una posible consecuencia, un subproducto. Lo cierto es que no tenemos una teoría aceptada sobre la conciencia. Simplemente, no sabemos como surge y, por lo tanto, no tenemos idea de cómo simularla, mucho menos como crearla.
Los dos filósofos más influyentes en el campo de la filosofía de la consciencia son David Chalmers y Daniel Dennet. Si bien tienen enfoques contrapuestos sobre la naturaleza de la consciencia, Chalmers es un dualista naturalista y entiende la conciencia como algo fundamental (como la masa o la carga eléctrica) y posiblemente no reducible a procesos físicos, mientras que Dennet es un materialista y entiende a la conciencia como un fenómeno emergente y explicable a partir de procesos cerebrales, ambos coinciden en que en principio no exista un argumento científico convincente para postular que la consciencia sea un atributo exclusivo de algunos organismos basados en ADN. En otras palabras, no hay razón científicamente objetiva para suponer que un sistema informático lo suficientemente complejo no pueda en principio ser susceptible de generar consciencia. Chalmers aborda este tema de manera explicita y detallada dedicándole un capítulo completo de su célebre libro “ La Mente Consciente”. Por su parte Dennett, si bien no aborda el tema de manera tan directa, en su teoría de la conciencia llamada “Modelo de Borradores Múltiples” sostiene que la consciencia es un producto de complejos procesos cognitivos distribuidos y concurrentes que podrían, al menos en principio, replicarse en una arquitectura de IA avanzada.
Nick Bostrom, filósofo y autor del best seller, “Superinteligencia”, al igual que Dennet, sostiene que la consciencia es un fenómeno emergente de ciertos tipos de procesamiento de información por lo que, en principio, no cree que se requiera necesariamente un substrato biológico y que podría surgir en una máquina con la arquitectura adecuada. Bostrom además, remarca la diferencia cualitativa entre inteligencia y conciencia y que obtener una superinteligencia artificial, no implicara necesariamente la antesala a una conciencia artificial. Al mismo tiempo, analiza las implicaciones éticas que tendría si una inteligencia artificial pudiera adquirir consciencia en cuanto a derechos y obligaciones.
Como vimos en el problema del control, una superinteligencia sin consciencia podría resultar peligrosa para la humanidad si sus objetivos no están alineados con los nuestros pues no tendría la capacidad de ponerse en nuestro lugar y tomar decisiones conscientes. Pero por otro lado la aparición de la conciencia en las IA podría acarrear un riesgo potencial aún mayor si decide definir por sí misma sus objetivos y estos no coinciden con los nuestros. ¿Como seriamos capaces de detenerla en ese caso?
Incluso quienes creen que esto podría ser posible, coinciden que estamos muy lejos de que esto ocurra. Nadie que conozca cómo funcionan las IA actuales puede tomar en serio la idea de que una red neuronal pueda adquirir conciencia en un futuro cercano. De ser posible, parece altamente improbable que esto pueda surgir de la arquitectura que hoy poseen las redes neuronales.
En resumen, las IA ya han superado en eficiencia a los humanos en muchas tareas, incluso en areas que se creían que no lo harían, como en el pensamiento creativo y esto puede ser una bendición o un riesgo. Se necesita discutir como esta poderosa herramienta va a ser usada y como va a afectar nuestras vidas.
Por otro lado, tenemos que pensar como trascenderemos como humanidad el hecho de que las IA nos reemplazan en la mayoría, si no en todas las actividades productivas humanas, incluso las más creativas porque esto es algo que parece inevitable a largo plazo. Y finalmente como nos prepararemos para la posibilidad de que una IA avanzada en un futuro lejano, tome conciencia de existencia, adquiera “humanidad”, deseos y sentimientos, pero con una inteligencia infinitamente superior a la nuestra.