Sobre inteligencia artificial general, sensibilidad de IA y modelos de lenguaje extenso

Existen muchas formas de inteligencia. Los pulpos son muy inteligentes y completamente diferentes a los humanos.

En caso de que no lo hayas notado, los sistemas de inteligencia artificial se han estado comportando de manera cada vez más asombrosa últimamente.

El nuevo modelo DALL-E 2 de OpenAI , por ejemplo, puede producir imágenes originales cautivadoras basadas en indicaciones de texto simples. Modelos como DALL-E hacen que sea más difícil descartar la noción de que la IA es capaz de generar creatividad. Considere, por ejemplo, la interpretación imaginativa de DALL-E de "una vaca hip-hop con una chaqueta de mezclilla que graba un sencillo exitoso en el estudio". O para un ejemplo más abstracto, consulte la interpretación de DALL-E de la antigua línea de Peter Thiel "Queríamos autos voladores, en lugar de eso, obtuvimos 140 caracteres".

 

Mientras tanto, DeepMind anunció recientemente un nuevo modelo llamado Gato que puede realizar cientos de tareas diferentes sin ayuda de nadie, desde jugar videojuegos hasta entablar una conversación y apilar bloques del mundo real con un brazo robótico. Casi todos los modelos de IA anteriores han podido hacer una cosa y solo una cosa, por ejemplo, jugar al ajedrez. Por lo tanto, Gato representa un paso importante hacia una inteligencia artificial más amplia y flexible.

 

Y los modelos de lenguaje grande (LLM) actuales, desde GPT-3 de OpenAI hasta PaLM de Google y OPT de Facebook, poseen habilidades lingüísticas deslumbrantes. Pueden conversar con matices y profundidad sobre prácticamente cualquier tema. Pueden generar su propio contenido original impresionante, desde memorandos de negocios hasta poesía. Para dar solo un ejemplo reciente , GPT-3 compuso recientemente un artículo académico bien escrito sobre sí mismo, que actualmente se encuentra bajo revisión por pares para su publicación en una revista científica de renombre.

 

Estos avances han inspirado especulaciones audaces y discursos enérgicos de la comunidad de IA sobre hacia dónde se dirige la tecnología.

 Algunos investigadores creíbles de IA creen que ahora estamos muy cerca de la "inteligencia general artificial" (AGI), un punto de referencia del que se habla a menudo y que se refiere a una IA poderosa y flexible que puede superar a los humanos en cualquier tarea cognitiva. El mes pasado, un ingeniero de Google llamado Blake Lemoine capturó los titulares al afirmar dramáticamente que el modelo de lenguaje grande de Google, LaMDA , es inteligente.

El rechazo contra afirmaciones como estas ha sido igualmente sólido, con numerosos comentaristas de AI descartando sumariamente tales posibilidades.

Entonces, ¿qué vamos a hacer con todos los impresionantes avances recientes en IA? ¿Cómo deberíamos pensar en conceptos como la inteligencia artificial general y la sensibilidad de la IA

El discurso público sobre estos temas debe reformularse de varias maneras importantes. Tanto los fanáticos sobreexcitados que creen que la IA superinteligente está a la vuelta de la esquina, como los escépticos desdeñosos que creen que los desarrollos recientes en IA son pura exageración, están equivocados en algunos aspectos fundamentales en su pensamiento sobre la inteligencia artificial moderna.

La inteligencia artificial general es un concepto incoherente


Un principio básico sobre la IA que la gente suele pasar por alto es que la inteligencia artificial es y será fundamentalmente diferente a la inteligencia humana.

Es un error comparar la inteligencia artificial demasiado directamente con la inteligencia humana. La IA actual no es simplemente una forma de inteligencia humana “menos evolucionada”; ni la IA hiperavanzada del mañana será solo una versión más poderosa de la inteligencia humana.

 

Son posibles muchos modos y dimensiones diferentes de inteligencia. Es mejor pensar en la inteligencia artificial no como una emulación imperfecta de la inteligencia humana, sino como una forma distinta y extraña de inteligencia, cuyos contornos y capacidades difieren de los nuestros en formas básicas.

 

Para hacer esto más concreto, simplemente considere el estado actual de la IA. La IA de hoy supera con creces las capacidades humanas en algunas áreas y lamentablemente tiene un rendimiento inferior en otras.

 

Por poner un ejemplo: el “problema del plegamiento de proteínas” ha sido un gran desafío en el campo de la biología durante medio siglo. En pocas palabras, el problema del plegamiento de proteínas implica predecir la forma tridimensional de una proteína en función de su secuencia de aminoácidos unidimensional. Generaciones de las mentes humanas más brillantes del mundo, trabajando juntas durante muchas décadas, no han logrado resolver este desafío. Un comentarista en 2007 lo describió como “uno de los problemas más importantes aún no resueltos de la ciencia moderna”.

 

A fines de 2020, un modelo de inteligencia artificial de DeepMind llamado AlphaFold produjo una solución al problema del plegamiento de proteínas. Como dijo John Moult, investigador de proteínas desde hace mucho tiempo, "Esta es la primera vez en la historia que la IA resuelve un problema científico serio".

 

Descifrar el enigma del plegamiento de proteínas requiere formas de comprensión espacial y razonamiento de alta dimensión que simplemente se encuentran más allá del alcance de la mente humana. Pero no más allá del alcance de los sistemas modernos de aprendizaje automático.

 

Mientras tanto, cualquier niño humano sano posee una "inteligencia incorporada" que eclipsa con creces a la IA más sofisticada del mundo.

 

Desde una edad temprana, los humanos pueden hacer cosas sin esfuerzo como jugar a la pelota, caminar sobre un terreno desconocido o abrir el refrigerador de la cocina y tomar un refrigerio. Las capacidades físicas como estas han demostrado ser diabólicamente difíciles de dominar para la IA.

 

Esto se resume en la "paradoja de Moravec". Como dijo el investigador de IA Hans Moravec en la década de 1980: “Es comparativamente fácil hacer que las computadoras muestren un rendimiento de nivel adulto en pruebas de inteligencia o jugando a las damas, y difícil o imposible darles las habilidades de un niño de un año cuando se trata de percepción y movilidad.”

 

La explicación de Moravec para este hecho poco intuitivo era evolutiva: “Codificados en las porciones motoras y sensoriales grandes y altamente evolucionadas del cerebro humano hay mil millones de años de experiencia sobre la naturaleza del mundo y cómo sobrevivir en él. [Por otro lado,] el proceso deliberado que llamamos razonamiento de alto nivel es, creo, el barniz más delgado del pensamiento humano, efectivo solo porque está respaldado por este conocimiento sensoriomotor mucho más antiguo y mucho más poderoso, aunque generalmente inconsciente. Todos somos atletas olímpicos prodigiosos en las áreas de percepción y motricidad, tan buenos que hacemos que lo difícil parezca fácil”.

 

Hasta el día de hoy, los robots continúan luchando con la competencia física básica. Como escribió un grupo de investigadores de DeepMind en un nuevo artículo hace solo unas semanas: "Los sistemas de inteligencia artificial actuales palidecen en su comprensión de la 'física intuitiva', incluso en comparación con los niños muy pequeños".

 

¿Cuál es el resultado de todo esto?

 

No existe tal cosa como la inteligencia general artificial.

 

AGI no es ni posible ni imposible. Es, más bien, incoherente como concepto.

 

La inteligencia no es una capacidad única, bien definida y generalizable, ni siquiera un conjunto particular de capacidades. Al más alto nivel, el comportamiento inteligente es simplemente un agente que adquiere y utiliza conocimientos sobre su entorno en la búsqueda de sus objetivos. Debido a que hay una gran cantidad, teóricamente infinita, de diferentes tipos de agentes, entornos y objetivos, hay un sinfín de formas diferentes en que la inteligencia puede manifestarse.

 

El gran Yann LeCun de AI lo resumió bien : "No existe tal cosa como AGI... Incluso los humanos están especializados".

 

Definir la IA "general" o "verdadera" como IA que puede hacer lo que hacen los humanos (pero mejor), pensar que la inteligencia humana es inteligencia general, es miopemente centrado en el ser humano. Si usamos la inteligencia humana como el ancla definitiva y el criterio para el desarrollo de la inteligencia artificial, nos perderemos la gama completa de habilidades poderosas, profundas, inesperadas, beneficiosas para la sociedad y absolutamente no humanas de las que la inteligencia artificial podría ser capaz.

 

Imagine una IA que desarrollara una comprensión a nivel atómico de la composición de la atmósfera terrestre y pudiera pronosticar dinámicamente con una precisión exquisita cómo evolucionaría el sistema general con el tiempo. Imagínese si pudiera diseñar una intervención de geoingeniería precisa y segura mediante la cual depositáramos ciertos compuestos en ciertas cantidades en ciertos lugares de la atmósfera de tal manera que se contrarrestara el efecto invernadero de las emisiones de carbono en curso de la humanidad, mitigando los efectos del calentamiento global en la superficie del planeta.

 

Imagine una IA que pudiera comprender todos los mecanismos biológicos y químicos del cuerpo humano en detalle hasta el nivel molecular. Imagínese si pudiera prescribir una dieta personalizada para optimizar la salud de cada individuo, pudiera diagnosticar la causa raíz de cualquier enfermedad con precisión, pudiera generar nuevas terapias personalizadas (incluso si aún no existen) para tratar cualquier enfermedad grave.

 

Imagine una IA que pudiera inventar un protocolo para fusionar núcleos atómicos de una manera que produzca de manera segura más energía de la que consume, desbloqueando la fusión nuclear como una fuente de energía económica, sostenible e infinitamente abundante para la humanidad.

 

Todos estos escenarios siguen siendo fantasías hoy, fuera del alcance de la inteligencia artificial actual. El punto es que el verdadero potencial de la IA se encuentra en caminos como estos, con el desarrollo de nuevas formas de inteligencia que son completamente diferentes a todo lo que los humanos son capaces de hacer. Si la IA es capaz de lograr objetivos como este, ¿a quién le importa si es "general" en el sentido de igualar las capacidades humanas en general?

 

Orientarnos hacia la “inteligencia general artificial” limita y empobrece en lo que puede llegar a ser esta tecnología. Y, dado que la inteligencia humana no es inteligencia general, y la inteligencia general no existe, es conceptualmente incoherente en primer lugar.

 

 

 

¿Cómo es ser una IA?

Esto nos lleva a un tema relacionado sobre el panorama general de la IA, uno que actualmente está recibiendo mucha atención pública: la cuestión de si la inteligencia artificial es, o puede ser, sensible.

 

La afirmación pública del ingeniero de Google Blake Lemoine el mes pasado de que uno de los grandes modelos de lenguaje de Google se ha vuelto sensible provocó una ola de controversia y comentarios. (Vale la pena leer la transcripción completa de la discusión entre Lemoine y la IA antes de formarse una opinión definitiva).


La mayoría de las personas, sobre todo los expertos en inteligencia artificial, descartaron las afirmaciones de Lemoine por considerarlas mal informadas e irrazonables.

En una respuesta oficial, Google dijo : “Nuestro equipo revisó las preocupaciones de Blake y le informó que la evidencia no respalda sus afirmaciones”. El profesor de Stanford, Erik Brynjolfsson , opinó que la IA consciente probablemente estaba a 50 años de distancia. Gary Marcus intervino para calificar las afirmaciones de Lemoine como "tonterías", y concluyó que "no hay nada que ver aquí en absoluto".

 

El problema con toda esta discusión, incluidas las despedidas despreocupadas de los expertos, es que la presencia o ausencia de sensibilidad es, por definición, indemostrable, infalsificable, incognoscible.

 

Cuando hablamos de sensibilidad, nos referimos a las experiencias internas subjetivas de un agente, no a ninguna demostración externa de inteligencia. Nadie, ni Blake Lemoine, ni Erik Brynjolfsson, ni Gary Marcus, puede estar completamente seguro de lo que experimenta o no internamente una red neuronal artificial altamente compleja.

 

En 1974, el filósofo Thomas Nagel publicó un ensayo titulado "¿Cómo es ser un murciélago?" El ensayo, uno de los artículos filosóficos más influyentes del siglo XX, resumió el notoriamente escurridizo concepto de conciencia en una definición simple e intuitiva: un agente es consciente si hay algo que se parece a ser ese agente. Por ejemplo, es como algo ser mi vecino de al lado, o incluso ser su perro; pero no se parece en nada a ser su buzón.

 

Uno de los mensajes clave del documento es que es imposible saber, de manera significativa, exactamente cómo es ser otro organismo o especie. Cuanto más diferente a nosotros es el otro organismo o especie, más inaccesible es su experiencia interna.

 

Nagel usó el bate como ejemplo para ilustrar este punto. Eligió los murciélagos porque, como mamíferos, son seres muy complejos, sin embargo, experimentan la vida de manera radicalmente diferente a nosotros: vuelan, utilizan el sonar como medio principal para percibir el mundo, etc.

 

Como dijo Nagel (vale la pena citar un par de párrafos del artículo completo):

 

“Nuestra propia experiencia proporciona el material básico para nuestra imaginación, cuyo alcance es, por tanto, limitado. No ayudará tratar de imaginar que uno tiene telarañas en los brazos, lo que le permite volar al anochecer y al amanecer atrapando insectos en la boca; que uno tiene una visión muy pobre y percibe el mundo circundante por un sistema de señales de sonido reflejadas de alta frecuencia; y que uno se pasa el día colgado boca abajo de los pies en el desván.

 

“Hasta donde puedo imaginar esto (que no está muy lejos), solo me dice cómo sería para mí comportarme como se comporta un murciélago. Pero esa no es la pregunta. Quiero saber cómo es para un murciélago ser un murciélago. Sin embargo, si trato de imaginar esto, estoy restringido a los recursos de mi propia mente, y esos recursos son inadecuados para la tarea. No puedo realizarlo ni imaginando adiciones a mi experiencia presente, ni imaginando segmentos gradualmente sustraídos de ella, ni imaginando alguna combinación de adiciones, sustracciones y modificaciones”.

 

Una red neuronal artificial es mucho más extraña e inaccesible para nosotros los humanos que incluso un murciélago, que es al menos un mamífero y una forma de vida basada en el carbono.

 

Nuevamente, el error básico que cometen muchos comentaristas sobre este tema (generalmente sin siquiera pensar en ello) es presuponer que podemos mapear de manera simplista nuestras expectativas sobre la sensibilidad o la inteligencia de los humanos a la IA.

 

No hay forma de que podamos determinar, o incluso pensar, la experiencia interna de una IA en un sentido directo o de primera mano. Simplemente no podemos saberlo con certeza.

 

Entonces, ¿cómo podemos siquiera abordar el tema de la sensibilidad de la IA de una manera productiva?

 

Podemos inspirarnos en el Test de Turing, propuesto por primera vez por Alan Turing en 1950. A menudo criticado o malinterpretado, y ciertamente imperfecto, el Test de Turing ha resistido la prueba del tiempo como un punto de referencia en el campo de la IA porque captura ciertas ideas fundamentales. sobre la naturaleza de la inteligencia artificial.

 

La prueba de Turing reconoce y acepta la realidad de que nunca podemos acceder directamente a la experiencia interna de una IA. Toda su premisa es que, si queremos medir la inteligencia de una IA, nuestra única opción es observar cómo se comporta y luego sacar las inferencias apropiadas. (Para ser claros, a Turing le preocupaba evaluar la capacidad de pensar de una máquina, no necesariamente su sensibilidad; sin embargo, para nuestros propósitos, lo que es relevante es el principio subyacente).

 

Douglas Hofstadter articuló esta idea de manera particularmente elocuente: “¿Cómo sabes que cuando te hablo, algo similar a lo que llamas 'pensar' está ocurriendo dentro de mí? La prueba de Turing es una sonda fantástica, algo así como un acelerador de partículas en física. Al igual que en la física, cuando desea comprender lo que sucede a nivel atómico o subatómico, dado que no puede verlo directamente, dispersa las partículas aceleradas del objetivo en cuestión y observa su comportamiento. A partir de esto, infiere la naturaleza interna del objetivo. La prueba de Turing extiende esta idea a la mente. Trata a la mente como un 'objetivo' que no es directamente visible pero cuya estructura puede deducirse de forma más abstracta.Al 'dispersar' las preguntas de una mente objetivo, aprendes sobre su funcionamiento interno, al igual que en la física”.

 

Para avanzar en las discusiones sobre la sensibilidad de la IA, debemos anclarnos en las manifestaciones observables como representantes de la experiencia interna; de lo contrario, damos vueltas en círculos en un debate carente de rigor, vacío y sin salida.

 

Erik Brynjolfsson confía en que la IA actual no es inteligente. Sin embargo, sus comentarios sugieren que él cree que la IA eventualmente será consciente. ¿Cómo espera saber cuándo se ha encontrado con una IA verdaderamente sensible? ¿Qué buscará?


Lo que haces es quien eres

En los debates sobre IA, los escépticos suelen describir la tecnología de manera reduccionista para minimizar sus capacidades.

 

Como lo expresó un investigador de IA en respuesta a las noticias de Blake Lemoine: "Es místico esperar conciencia, comprensión o sentido común a partir de símbolos y procesamiento de datos utilizando funciones paramétricas en dimensiones superiores". En una publicación de blog reciente , Gary Marcus argumentó que los modelos de IA de hoy en día ni siquiera son "remotamente inteligentes" porque "todo lo que hacen es combinar patrones y extraer datos de bases de datos estadísticas masivas". Descartó el modelo de lenguaje grande LaMDA de Google como simplemente “una hoja de cálculo para palabras”.

 

Esta línea de razonamiento es engañosamente trivializadora. Después de todo, podríamos enmarcar la inteligencia humana de una manera reduccionista similar si así lo decidiéramos: nuestros cerebros son "solo" una masa de neuronas interconectadas de una manera particular, "solo" una colección de reacciones químicas básicas dentro de nuestros cráneos.

 

Pero esto pierde el punto. El poder, la magia de la inteligencia humana no está en la mecánica particular, sino en las increíbles capacidades emergentes que de alguna manera resultan. Las funciones elementales simples pueden producir sistemas intelectuales profundos.

 

En última instancia, debemos juzgar la inteligencia artificial por lo que puede hacer.

 

Y si comparamos el estado de la IA hace cinco años con el estado de la tecnología actual, no hay duda de que sus capacidades y profundidad se han expandido de manera notable (y aún acelerada), gracias a los avances en áreas como el aprendizaje autosupervisado, Transformadores y aprendizaje por refuerzo.

 

La inteligencia artificial no es como la inteligencia humana. Cuándo y si alguna vez la IA se vuelve sensible—cuándo y si alguna vez es “como algo” ser una IA, en la formulación de Nagel—no será comparable a lo que es ser un humano. La IA es su propia forma de cognición distinta, alienígena, fascinante y de rápida evolución.

 

Lo que importa es lo que la inteligencia artificial puede lograr. Brindar avances en ciencia básica (como AlphaFold), abordar desafíos a nivel de especie como el cambio climático, mejorar la salud humana y la longevidad, profundizar nuestra comprensión de cómo funciona el universo: resultados como estos son la verdadera prueba del poder y la sofisticación de la IA.  https://www.forbes.com/sites/robtoews/2022/07/24/on-artificial-general-intelligence-ai-sentience-and-large-language-models/?sh=4ecf574e9db2

No hay comentarios:

Publicar un comentario

"GeoMemoria: Navegando por el Pasado para Construir el Futuro"

*Introducción:* En la era digital, donde la geo localización es omnipresente, se ha gestado un proyecto que fusiona tecnología moderna con m...