Q&A sobre Inteligencia Artificial

¿Por qué hablamos tanto de Inteligencia Artificial últimamente?

La razón por la que estamos hablando tanto de IA en los últimos años, se debe principalmente a la irrupción de ChatGPT-3.5, a fines de 2022. ChatGPT en su versión 3.5 se convirtió en el primer modelo de lenguage natural de distribución masiva y sus repercusiones fueron muy mediáticas. ¡Básicamente puso a la IA a conversar con la humanidad!

ChatGPT es un gran modelo de lenguaje natural (LLM), que en pocas palabras es una aplicación que genera texto coherente y pude emular una conversación coherente con un humano sobre cualquier tema. ChatGPT no fue el primero, pero si el primero en funcionar lo suficientemente bien como para ser una sensación mundial. Y vaya que tuvo éxito. Los LLMs comenzaron una década antes (alrededor de 2013), pero no fue hasta 2017, donde se propuso una nueva arquitectura revolucionaria que les dio un salto de calidad enorme.

Por otro lado, la IA no es un concepto nuevo. El concepto ase acuño en 1956, por lo que tiene casi 70 años. Desde que las computadoras fueron creadas que se sueña con la posibilidad de replicar la inteligencia humana con una computadora. Desde ese entonces hubo 2 corrientes de pensamiento en puja acerca de cómo abordar el desafío de implementar maquinas inteligentes. Un enfoque es el llamado “simbólico” y está basado en reglas lógico-deductivas (si pasa esto entonces…, sino…). El otro enfoque llamado “sub-simbólico” se basa en el aprendizaje por repetición usando Redes Neuronales.

Ambas sufrieron desafíos de implementación importantes durante las décadas siguientes, hasta que a mediados de la década de los 80s el enfoque sub-simbolico, basado en aprendizaje con redes neuronales comenzó a imponerse. Y a mediados de la década del 10 del siglo 21, se impuso como la tecnología dominante gracias a la explosión de los datos (Big Data) y nuevas arquitecturas computacionales llamadas GPUs que son las que se usan para entrenar estas IA (similares a las se usan en las placas de videojuegos y en los equipos de minería de criptomonedas). Hoy en día, la mayoría de los sistemas se IA se basan en este tipo de tecnología: redes neuronales entrenadas.

Las Redes Neuronales, son básicamente programas de computadora que aprenden intentando emular cómo funcionan las neuronas de nuestro cerebro. Una neurona posee muchas entradas y cada entrada es pesada (multiplicada) por un parámetro. Las entradas son sumadas y la suma es pasada por una función de salida que hace que la neurona dispare o no. Existen diferentes tipos de redes neuronales, aunque no las desarrollaremos en este articulo. Algunas de ellas son adecuadas para detectar patrones de comportamiento, otras para reconocer imágenes, y otras para traducir texto o reconocer audio.

Así pues, ChatGPT es un LLM que es un tipo especifico de Red Neuronal llamada Transformer (de ahí la T de la palabra GPT) que es una posible aplicación de la IA, pero ciertamente no es la única.

¿Como funciona un LLM?

Explicar en detalle cómo funciona un LLM es bastante complejo y no es el propósito de este artículo, pero es posible intentar hacer una descripción conceptual precisa. Como dijimos los LLMs son un tipo especifico de red neuronal llamado Transformer.  Estas redes neuronales se entrenan con enormes cantidades de datos. Las redes neuronales se idearon en los 50s y se hicieron funcionales en los 80s. Sin embargo, no fue hasta en la segunda década del siglo 21 que gracias a los grandes volúmenes de datos disponibles en internet que hubo datos en cantidad de suficiente para entrenar LLMs que pudieran conversar con humanos de manera eficiente.

Un LLM interactúa con humanos generando texto coherente, basado en el contexto y respondiendo mayormente con respuestas ciertas. De hecho, sabe más que la mayoría de los humanos de cualquier tema. Y sabe más de todo que cualquier humano. ¿Como logra generar convincentemente respuestas humanas? A través de un modelo matemático estadístico que simula la semántica (significado) de nuestro lenguaje.

Esto significa que elige las palabras que usa para responder en base a probabilidades estadísticas. Estas probabilidades las va calculando continuamente conforme va respondiendo y se basa en lo que aprendió durante un proceso de entrenamiento, que, como dijimos, consiste en introducirle una cantidad de información inimaginablemente grande. La mayor parte de internet y de la bibliografía existente. Con toda esa información un LLM se vuelve experto en el entendimiento de nuestro lenguaje, pero no entiende que significa cada palabra, no tiene una representación interna del concepto de cada palabra. Las palabras se mapean en vectores, números multidimensionales. Imaginémoslo como puntos en un mapa. Las palabras que están más cerca entre si están relacionadas de algún modo semántico.

Algunos expertos han definido a los LLMs como máquinas de elegir la siguiente palabra más probable. Esa es una descripción cercana, pero bastante simplificada y hay cosas importantes que perdemos en esta simplificación. Existe en el algoritmo usado en los LLMs cierto grado de aleatoriedad que hace que nunca responda de la misma manera a una misma pregunta. Además, los LLMs usan el contexto de lo escrito antes para sopesar que palabras usará ahora. Para ello utiliza una memoria a corto plazo. Los LLM poseen cientos de miles de millones de parámetros, esto es mucho más que personas viviendo en el mundo. Así que pequeñas variaciones iniciales son enormemente amplificadas a medida que la información se propaga en la red neuronal generando respuestas significativamente distintas. Así que una mejor aproximación seria:

“Los LLMs son programas de computadora que generan texto coherente a través de un algoritmo que utiliza matemática estadística. Para ello, eligen cada palabra basándose en lo que aprendieron de millones de textos, lo que ya escribió (palabras atrás) y el contexto de la solicitud recibida, añadiendo aleatoriedad controlada para evitar respuestas automatizadas o repetitivas y fomentar creatividad, aunque sin entender el significado (semántica) como lo hacemos los humanos”.

Un problema que tiene los LLMs y en general todas las IAs que utilizan redes neuronales es que carecen de explicabilidad, es decir, no pueden explicar cómo llegan a las conclusiones que llegan. Y lo que es peor, nosotros tampoco podemos averiguarlo. Simplemente no podemos levantar el capot de la IA y buscar como llego a determinadas conclusiones, aun cuando sabemos exactamente cómo funcionan. La explicación esta distribuida en miles de millones de parámetros. Esta allí, pero es como buscar una aguja en un pajar.

Puede que esta falta de explicabilidad, no sea un problema para la mayoría de los usuarios. Volviendo a la analogía del capot, la mayoría de los usuarios no necesitan saber cómo funciona exactamente un auto, para obtener sus beneficios. Sin embargo, existen casos donde SI es necesario. Existen casos donde la IA ha demostrado mayor efectividad en el reconocimiento de patrones en imágenes para la detección temprana de ciertos tipos de canceres y no podemos aprender de ellos como lo han hecho. Otro caso es jugando juegos de complejidad grande como el ajedrez o el Go, las IA simplemente aplastan a los humanos, pero no pueden explicarnos como lo hacen por lo que no podemos aprender de ellas. No del modo que nosotros aprendemos. Paradójicamente otra IA, SI podría aprender de la primera simplemente entrenándose con ella a través de una enorme cantidad de partidas.

¿Es realmente inteligencia lo que poseen? 

Esta una gran pregunta, pero me temo que la respuesta es más del campo de la filosófica que de la ciencia. El problema es que no tenemos una definición precisa de que es la inteligencia. Mi opinión es que SI, que es una forma de inteligencia, pero muy distinta a la nuestra. Los humanos tenemos la tendencia a antropomorfizar, a buscar atributos y comportamientos similares a los nuestros principalmente en animales y ahora en las IA. La inteligencia generada por un LLM y en general por una IA basada en redes neuronales no es como la nuestra. Pero tampoco lo es la inteligencia de otros animales y eso que comparten con nosotros el mismo motor, un cerebro orgánico.

Como mencionamos, la IA simula comprensión, pero no comprende realmente lo que genera, al menos no bajo los parámetros humanos. La diferencia radica en tres aspectos clave:

  • Experiencia subjetiva: los humanos comprendemos a través de experiencias sensoriales, emociones y conciencia. Los LLMs, en cambio, carecen de vivencias, intencionalidad y autoconciencia.
  • Razonamiento causal: los humanos vinculamos conceptos mediante relaciones causa-efecto basadas en interacciones físicas o sociales. Los LLMs solo reconocen patrones estadísticos en textos, sin entender mecanismos subyacentes.
  • Aprendizaje experiencial: mientras los humanos aprendemos tocando, viendo y experimentando el mundo, los LLMs se limitan a procesar secuencias de símbolos (letras, palabras) sin conexión con la realidad física.

¿Cuáles son los beneficios de usar esta tecnología?

Los LLMs son herramientas que permiten trabajar con texto de manera muy rápida y eficiente: pueden ayudar a redactar emails, resumir libros complejos en segundos o traducir idiomas al instante. Su gran ventaja es que no se cansan, procesan información millones de veces más rápido que nosotros y están disponibles todo el tiempo. Además, bien usados nos permiten aprender muchas cosas de manera más rápida.

Lo mismo ocurre con otros tipos de IA que no sean LLMs. Max Tegmark, una referencia es IA, tiene una visión cautelosa pero positiva del devenir de la IA. En su libro “Vida 3.0” menciona algunos de los posibles beneficios de la IA:

  • Eficiencia Operativa: La IA puede automatizar tareas repetitivas y tediosas, lo que permite a las empresas reducir costos y aumentar la productividad. Esto libera a los empleados para que se enfoquen en tareas más estratégicas y creativas.
  • Análisis de Datos Avanzado: La IA es capaz de procesar grandes volúmenes de datos a una velocidad y precisión que superan las capacidades humanas. Esto permite a las organizaciones obtener información valiosa y tomar decisiones más informadas y basadas en datos.
  • Personalización: Las aplicaciones de IA pueden analizar patrones de comportamiento y preferencias del usuario, lo que permite ofrecer productos y servicios personalizados. Esto se ve comúnmente en plataformas de comercio electrónico y servicios de streaming.
  • Mejora de la Toma de Decisiones: Con la capacidad de analizar datos en tiempo real, la IA ayuda a las organizaciones a tomar decisiones más rápidas y efectivas, lo que es crucial en entornos laborales dinámicos.
  • Innovación en Productos y Servicios: La IA permite el desarrollo de nuevas tecnologías y soluciones, como vehículos autónomos, asistentes virtuales y sistemas de recomendación, que revolucionan industrias enteras.
  • Seguridad: En ciberseguridad, la IA puede detectar patrones inusuales y potenciales amenazas más rápidamente que los humanos, protegiendo los sistemas y datos de las organizaciones.
  • Avances en Salud: En el sector de la salud, la IA está revolucionando el diagnóstico y tratamiento de enfermedades, permitiendo análisis más precisos de imágenes médicas y el desarrollo de tratamientos personalizados.

Estos beneficios son significativos porque no solo mejoran la eficiencia y la productividad en múltiples sectores, sino que también contribuyen a la innovación y al desarrollo de soluciones más eficaces para desafíos complejos que enfrenta la sociedad.

Quienes no aprendan a usarlos perderán oportunidades, ampliando la brecha digital entre quienes dominan la tecnología y quienes no.

¿Cuáles son los potenciales riesgos de esta tecnología?

Por otro lado, como cualquier tecnología, la IA tienen sus puntos débiles:

  • Alucinaciones: a veces inventan datos o hechos que parecen reales. Esto ha ido mejorando con el tiempo, pero no desaparece del todo.
  • Sesgos: reflejan prejuicios de la sociedad porque se entrenan con textos escritos por humanos (desde artículos científicos hasta redes sociales). La buena noticia: es más fácil ‘depurar’ estos sesgos en una IA que cambiar la mentalidad de las personas.
  • Dependencia: si confiamos ciegamente en sus respuestas sin verificar fuentes, podríamos cometer errores graves, como usar diagnósticos médicos incorrectos o datos financieros inventados.

Además, esta tecnología también conlleva riesgos aún más preocupantes, como su posible uso indebido. Algunos ejemplos incluyen:

  • Reemplazo humano en la mayoría de las áreas de trabajos
  • Generación de contenido deliberadamente falso (deepfakes) indistinguible de lo real.
  • Generación de software malicioso indetectable por medios tradicionales, que puedan afectar la seguridad informática.
  • Automatización peligrosa de sistemas críticos (armas, infraestructuras) sin supervisión humana

Es comprensible la preocupación respecto a si la IA nos reemplazará en nuestros trabajos o si podría volverse en contra de la humanidad. Autores prestigiosos como Nick Bostrom (Superintelligence), Stuart Russell (Human Compatible) y Yuval Harrari (Homo Deus) entre otros han enfatizado los riesgos potenciales a largo plazo de esta tecnología.

En lo que respecta al reemplazo humano en las posiciones laborales, es indudable que habrá una transformación muy profunda. La IA ya es capaz de automatizar tareas repetitivas y mecanizadas, lo que convertirá a algunos empleos en obsoletos. Algunos sostienen que esto ya ha ocurrido antes en la historia de la tecnología y esto es cierto. Y que en esos casos la tecnología también ha creado nuevas clases de empleos y ha transformado trabajos existentes en roles más creativos y analíticos. En este sentido la clave será la adaptación y la reformación de la educación para preparar a las personas para trabajar junto a la IA, convirtiéndola en una herramienta que complemente nuestras habilidades, en lugar de sustituirlas.

Sin embargo, si bien sabemos lo que la IA es hoy y lo que puede y no puede hacer, no sabemos con certeza como se desarrollará en el futuro. La IA podría en un futuro mejorar tanto que alcance lo que llamamos AGI (inteligencia artificial general) que supere las capacidades humanas en todos los aspectos imaginables. Si bien esto es una especulación hoy, es una especulación plausible. En ese caso, la transformación que produzca podría ser mucho más profunda. La AGI podría ser, como sugirió Irving John Good, ‘el último invento que el hombre necesite hacer’, ya que una superinteligencia podría encargarse de futuras innovaciones, incluso de su propia evolución.

En ese hipotético escenario, aparecerían nuevos desafíos. En un escenario de AGI, si delegáramos en ellas toda la innovación, nuestro rol podría limitarse a supervisar o a ser meramente observadores irrelevantes. ¿Cómo evitaríamos convertirnos en ‘mascotas’ de una superinteligencia, como advirtió Marvin Minsky, padre de la IA?

Para mitigar un escenario de este tipo algunos países ya están considerando alternativas como la Renta Básica Universal, donde literalmente los humanos cobraremos un seguro de desempleo vitalicio. Después de todo las economías mundiales colapsarían si la mayoría de los humanos ni tuviera ingresos.

No menos desafiante podría ser que como ocupar nuestro tiempo libre, como encontrar un propósito fuerte, y continuar desarrollando nuestras habilidades sin caer en la desesperación y la depresión.

Las advertencias sobre una IA que actúe en contra de la humanidad provienen de preocupaciones legítimas: sistemas de IA mal diseñados podrían ser utilizados para tomar decisiones perjudiciales o fallar en la identificación de contextos importantes (por ejemplo, conflictos en zonas sensibles).

Por estas razones, aunque la regulación pueda frenar su avance, es esencial para asegurarnos que se usen éticamente y se pueda garantizar la seguridad. Y esto se vuelve aún más importante en el futuro si se logra la AGI. Como dice Stuart Russell, el desarrollo de la IA debe estar siempre alienados con nuestros propósitos. Para ello se necesitan marcos éticos y legales robustos que guíen el desarrollo y uso de la IA

¿Puede la IA del futuro adquirir consciencia?

Aunque ha sido ampliamente tratado en ciencia ficción, la posibilidad de que la IA adquiera consciencia en un futuro, pertenece a un ámbito sumamente especulativo. Por esta razón buena parte de la comunidad científica tiene ciertos prejuicios en abordar este tema.

Por el momento, la gente que trabaja en el desarrollo de la IA, no se detiene a debatir este problema de la consciencia. Tiene prioridades más importantes. Como ya hemos mencionado, la IA actual no tiene intencionalidad, deseos o conciencia, lo que significa que no toma decisiones por sí misma. Pocos creen que los modelos actuales de IA puedan evolucionar en ese sentido, sin embargo, tampoco puede descartarse que se nos ocurran nuevas y originales arquitecturas en el futuro en las que si se pueda. Pero como dijo Stuart Russell, no es necesario que la IA adquiera consciencia para que pueda ser peligrosa.

Así pues, la posibilidad de la consciencia artificial a futuro cae más dentro de un debate filosófico. Principalmente porque no tenemos una definición adecuada de lo que es la conciencia. Hay 2 corrientes de pensamiento acerca de la posibilidad de la consciencia artificial. La primera es el Naturalismo Biológico, sostiene que la conciencia es un fenómeno exclusivo de los seres biológicos. Según esta visión, incluso las IA más avanzadas, que pueden simular inteligencia y comportamiento humano, no podrían ser conscientes porque carecen de la biología necesaria para tener experiencias subjetivas. Uno de los principales defensores de esta postura es John Searle.

La segunda es el Tecno-Optimismo, que sostiene que conforme las máquinas se vuelvan más sofisticadas, podrían desarrollar conciencia. Esta postura se basa en la idea de que la conciencia es un producto de la complejidad computacional y que, si se construyen sistemas suficientemente avanzados, podrían experimentar algo similar a la conciencia humana.Uno de los principales defensores de esta postura es Ray Kurzweil, autor de la “Singularidad esta cerca” y “Como crear una Mente”

En una posición más intermedia tenemos a las dos referencias contemporáneas más importantes en el área de la filosofía de la consciencia, David Chalmers y Daniel Dennet, que han abordado el tema de la posibilidad de que la consciencia pueda surgir en sustratos no biológicos y ninguno de ellos ha encontrado ninguna razón convincente para concluir que esto no sea posible, al menos en principio.

El Naturalismo Biológico, es una versión restrictiva del Tecno-Optimismo, con la introducción de elementos adhoc para restringir la conciencia a la biología. Si bien esto puede terminar siendo cierto, esta muy lejos de haberse demostrado. Ademas este enfoque no explica cual es el atributo o propiedad especial que tiene la biológica que no puede ser replicado por la tecnología (ahora ni nunca). Utilizar este enfoque nos limita en el modo en que hacemos ciencia y tecnología. Después de todo los cerebros están hechos de la misma materia prima (partículas elementales) que una computadora y ambos se encuentra sometidos a las mismas leyes de la naturaleza (principalmente la mecánica cuántica). El Tecno-Optimismo cree que la consciencia surge como un fenómeno emergente de la complejidad que proporciona una arquitectura especifica que probablemente las computadoras actuales no tienen pero que, no existe ninguna razón objetiva por la cual no pudieran tenerla en un futuro.

Susan Schneider, una referencia en el estudio de la conciencia artificial, en su libro “Artificial You” describe estas corrientes y si bien no toma posición por ninguna de ellas, sugiere mantenerse alerta, proponiendo el desarrollo de métodos para evaluar la conciencia en las IA por si acaso esto llegara a ocurrir y estar preparados para abordar el impacto que tendría esto en la sociedad. Deberían maquinas conscientes tener derechos y obligaciones?

En conclusión, la pregunta sobre la posibilidad de conciencia artificial es perfectamente válida y la preocupación también y estos temas hay que abordarlos sin prejuicios porque el costo de ignorarlos podría ser contraproducentes.

¿Como abordar los riesgos y mitigarlos?

Para abordar los riesgos más inminentes de la IA, es esencial desarrollar medidas de mitigación específicas. Por ejemplo, la manipulación social puede afrontarse mediante el uso de detectores de desinformación y la implementación de marcas digitales en productos generados por IA, junto con una educación mediática que capacite a los ciudadanos para discernir la veracidad de la información.

En cuanto a la automatización laboral, debemos priorizar el re entrenamiento profesional y considerar la posibilidad de una renta básica universal como una opción viable para apoyar a quienes se vean desplazados.

El sesgo y la discriminación en algoritmos requieren el desarrollo de herramientas anti-discriminatorias, así como la configuración de equipos multidisciplinares y auditorías de equidad.

Con respecto a la carrera armamentista de IA, se necesitan soluciones más drásticas, incluyendo la prohibición de armas autónomas, la elaboración de tratados internacionales similares a los de desarme nuclear, y una mayor transparencia en la investigación militar.

A mediano plazo, de cara a una posible AGI, es vital enseñar valores humanos a la IA, lo que implica programar conceptos éticos en sistemas de inteligencia artificial. Esto comienza por un consenso sobre lo que consideramos bueno y malo para guiar la programación de IA. Implementar sistemas de control de emergencia también es esencial; necesitamos mecanismos que permitan apagar la IA en situaciones peligrosas (o mantenerla confinado dentro de un compartimiento) además de desarrollar un monitoreo humano constante.

La auditoría de decisiones tomadas por la IA es fundamental, requiriendo que estas sean “explicables” a través de algoritmos que desglosen su proceso de decisión. Además, el desarrollo colaborativo y responsable de la IA alienta acuerdos internacionales que prioricen el bienestar social sobre las ganancias económicas.

Finalmente, ante la posibilidad de una consciencia artificial, debemos estar preparados para fomentar un debate filosófico sin prejuicios que nos ayude primero a definir si realmente queremos que esto ocurra, es decir, si vamos a apuntar la investigación futura en ese camino. Luego a desarrollar una metodología que nos permita identificar si esto llegara a ocurrir como un efecto secundario, como un subproducto de la inteligencia. Muchos creen que esto es podría ser así. Y finalmente a definir marcos legales en torno a derechos y responsabilidades de una IA autónoma. Esta preocupación, inicialmente vista en tramas de Hollywood, es real para científicos, filósofos y líderes mundiales.

La IA tiene un potencial increíble, pero su desarrollo debe ser responsable: será tan buena como nosotros decidamos que sea. Nuestra responsabilidad, creatividad y ética serán la clave para guiar su camino.