Existen muchas formas de inteligencia. Los pulpos son muy inteligentes y completamente diferentes a los humanos.
En caso de que no lo hayas notado, los sistemas de inteligencia artificial se han estado comportando de manera cada vez más asombrosa últimamente.
El nuevo modelo DALL-E 2 de OpenAI , por ejemplo, puede producir imágenes originales cautivadoras basadas en indicaciones de texto simples. Modelos como DALL-E hacen que sea más difícil descartar la noción de que la IA es capaz de generar creatividad. Considere, por ejemplo, la interpretación imaginativa de DALL-E de "una vaca hip-hop con una chaqueta de mezclilla que graba un sencillo exitoso en el estudio". O para un ejemplo más abstracto, consulte la interpretación de DALL-E de la antigua línea de Peter Thiel "Queríamos autos voladores, en lugar de eso, obtuvimos 140 caracteres".
Mientras tanto, DeepMind anunció recientemente un nuevo
modelo llamado Gato que puede realizar cientos de tareas diferentes sin ayuda
de nadie, desde jugar videojuegos hasta entablar una conversación y apilar
bloques del mundo real con un brazo robótico. Casi todos los modelos de IA
anteriores han podido hacer una cosa y solo una cosa, por ejemplo, jugar al
ajedrez. Por lo tanto, Gato representa un paso importante hacia una
inteligencia artificial más amplia y flexible.
Y los modelos de lenguaje grande (LLM) actuales, desde GPT-3 de OpenAI hasta PaLM de Google y OPT de Facebook, poseen habilidades lingüísticas deslumbrantes. Pueden conversar con matices y profundidad sobre prácticamente cualquier tema. Pueden generar su propio contenido original impresionante, desde memorandos de negocios hasta poesía. Para dar solo un ejemplo reciente , GPT-3 compuso recientemente un artículo académico bien escrito sobre sí mismo, que actualmente se encuentra bajo revisión por pares para su publicación en una revista científica de renombre.
Estos avances han inspirado especulaciones audaces y
discursos enérgicos de la comunidad de IA sobre hacia dónde se dirige la
tecnología.
El rechazo contra afirmaciones como estas ha sido igualmente sólido, con numerosos comentaristas de AI descartando sumariamente tales posibilidades.
Entonces, ¿qué vamos a hacer con todos los impresionantes avances recientes en IA? ¿Cómo deberíamos pensar en conceptos como la inteligencia artificial general y la sensibilidad de la IA
El discurso público sobre estos temas debe reformularse de varias maneras importantes. Tanto los fanáticos sobreexcitados que creen que la IA superinteligente está a la vuelta de la esquina, como los escépticos desdeñosos que creen que los desarrollos recientes en IA son pura exageración, están equivocados en algunos aspectos fundamentales en su pensamiento sobre la inteligencia artificial moderna.
La inteligencia artificial general es un concepto
incoherente
Un principio básico sobre la IA que la gente suele pasar por alto es que la inteligencia artificial es y será fundamentalmente diferente a la inteligencia humana.
Es un error comparar la inteligencia artificial demasiado
directamente con la inteligencia humana. La IA actual no es simplemente una
forma de inteligencia humana “menos evolucionada”; ni la IA hiperavanzada del
mañana será solo una versión más poderosa de la inteligencia humana.
Son posibles muchos modos y dimensiones diferentes de
inteligencia. Es mejor pensar en la inteligencia artificial no como una
emulación imperfecta de la inteligencia humana, sino como una forma distinta y
extraña de inteligencia, cuyos contornos y capacidades difieren de los nuestros
en formas básicas.
Para hacer esto más concreto, simplemente considere el
estado actual de la IA. La IA de hoy supera con creces las capacidades humanas
en algunas áreas y lamentablemente tiene un rendimiento inferior en otras.
Por poner un ejemplo: el “problema del plegamiento de
proteínas” ha sido un gran desafío en el campo de la biología durante medio
siglo. En pocas palabras, el problema del plegamiento de proteínas implica
predecir la forma tridimensional de una proteína en función de su secuencia de
aminoácidos unidimensional. Generaciones de las mentes humanas más brillantes
del mundo, trabajando juntas durante muchas décadas, no han logrado resolver
este desafío. Un comentarista en 2007 lo describió como “uno de los problemas
más importantes aún no resueltos de la ciencia moderna”.
A fines de 2020, un modelo de inteligencia artificial de
DeepMind llamado AlphaFold produjo una solución al problema del plegamiento de
proteínas. Como dijo John Moult, investigador de proteínas desde hace mucho
tiempo, "Esta es la primera vez en la historia que la IA resuelve un
problema científico serio".
Descifrar el enigma del plegamiento de proteínas requiere
formas de comprensión espacial y razonamiento de alta dimensión que simplemente
se encuentran más allá del alcance de la mente humana. Pero no más allá del
alcance de los sistemas modernos de aprendizaje automático.
Mientras tanto, cualquier niño humano sano posee una
"inteligencia incorporada" que eclipsa con creces a la IA más
sofisticada del mundo.
Desde una edad temprana, los humanos pueden hacer cosas sin
esfuerzo como jugar a la pelota, caminar sobre un terreno desconocido o abrir
el refrigerador de la cocina y tomar un refrigerio. Las capacidades físicas
como estas han demostrado ser diabólicamente difíciles de dominar para la IA.
Esto se resume en la "paradoja de Moravec". Como
dijo el investigador de IA Hans Moravec en la década de 1980: “Es
comparativamente fácil hacer que las computadoras muestren un rendimiento de
nivel adulto en pruebas de inteligencia o jugando a las damas, y difícil o
imposible darles las habilidades de un niño de un año cuando se trata de
percepción y movilidad.”
La explicación de Moravec para este hecho poco intuitivo era
evolutiva: “Codificados en las porciones motoras y sensoriales grandes y
altamente evolucionadas del cerebro humano hay mil millones de años de
experiencia sobre la naturaleza del mundo y cómo sobrevivir en él. [Por otro
lado,] el proceso deliberado que llamamos razonamiento de alto nivel es, creo,
el barniz más delgado del pensamiento humano, efectivo solo porque está
respaldado por este conocimiento sensoriomotor mucho más antiguo y mucho más
poderoso, aunque generalmente inconsciente. Todos somos atletas olímpicos
prodigiosos en las áreas de percepción y motricidad, tan buenos que hacemos que
lo difícil parezca fácil”.
Hasta el día de hoy, los robots continúan luchando con la
competencia física básica. Como escribió un grupo de investigadores de DeepMind
en un nuevo artículo hace solo unas semanas: "Los sistemas de inteligencia
artificial actuales palidecen en su comprensión de la 'física intuitiva',
incluso en comparación con los niños muy pequeños".
¿Cuál es el resultado de todo esto?
No existe tal cosa como la inteligencia general artificial.
AGI no es ni posible ni imposible. Es, más bien, incoherente
como concepto.
La inteligencia no es una capacidad única, bien definida y
generalizable, ni siquiera un conjunto particular de capacidades. Al más alto
nivel, el comportamiento inteligente es simplemente un agente que adquiere y
utiliza conocimientos sobre su entorno en la búsqueda de sus objetivos. Debido
a que hay una gran cantidad, teóricamente infinita, de diferentes tipos de
agentes, entornos y objetivos, hay un sinfín de formas diferentes en que la
inteligencia puede manifestarse.
El gran Yann LeCun de AI lo resumió bien : "No existe
tal cosa como AGI... Incluso los humanos están especializados".
Definir la IA "general" o "verdadera"
como IA que puede hacer lo que hacen los humanos (pero mejor), pensar que la
inteligencia humana es inteligencia general, es miopemente centrado en el ser
humano. Si usamos la inteligencia humana como el ancla definitiva y el criterio
para el desarrollo de la inteligencia artificial, nos perderemos la gama
completa de habilidades poderosas, profundas, inesperadas, beneficiosas para la
sociedad y absolutamente no humanas de las que la inteligencia artificial
podría ser capaz.
Imagine una IA que desarrollara una comprensión a nivel
atómico de la composición de la atmósfera terrestre y pudiera pronosticar
dinámicamente con una precisión exquisita cómo evolucionaría el sistema general
con el tiempo. Imagínese si pudiera diseñar una intervención de geoingeniería
precisa y segura mediante la cual depositáramos ciertos compuestos en ciertas
cantidades en ciertos lugares de la atmósfera de tal manera que se
contrarrestara el efecto invernadero de las emisiones de carbono en curso de la
humanidad, mitigando los efectos del calentamiento global en la superficie del
planeta.
Imagine una IA que pudiera comprender todos los mecanismos
biológicos y químicos del cuerpo humano en detalle hasta el nivel molecular.
Imagínese si pudiera prescribir una dieta personalizada para optimizar la salud
de cada individuo, pudiera diagnosticar la causa raíz de cualquier enfermedad
con precisión, pudiera generar nuevas terapias personalizadas (incluso si aún
no existen) para tratar cualquier enfermedad grave.
Imagine una IA que pudiera inventar un protocolo para
fusionar núcleos atómicos de una manera que produzca de manera segura más
energía de la que consume, desbloqueando la fusión nuclear como una fuente de
energía económica, sostenible e infinitamente abundante para la humanidad.
Todos estos escenarios siguen siendo fantasías hoy, fuera
del alcance de la inteligencia artificial actual. El punto es que el verdadero
potencial de la IA se encuentra en caminos como estos, con el desarrollo de
nuevas formas de inteligencia que son completamente diferentes a todo lo que
los humanos son capaces de hacer. Si la IA es capaz de lograr objetivos como
este, ¿a quién le importa si es "general" en el sentido de igualar
las capacidades humanas en general?
Orientarnos hacia la “inteligencia general artificial”
limita y empobrece en lo que puede llegar a ser esta tecnología. Y, dado que la
inteligencia humana no es inteligencia general, y la inteligencia general no
existe, es conceptualmente incoherente en primer lugar.
¿Cómo es ser una IA?
Esto nos lleva a un tema relacionado sobre el panorama
general de la IA, uno que actualmente está recibiendo mucha atención pública:
la cuestión de si la inteligencia artificial es, o puede ser, sensible.
La afirmación pública del ingeniero de Google Blake Lemoine
el mes pasado de que uno de los grandes modelos de lenguaje de Google se ha
vuelto sensible provocó una ola de controversia y comentarios. (Vale la pena
leer la transcripción completa de la discusión entre Lemoine y la IA antes de
formarse una opinión definitiva).
La mayoría de las personas, sobre todo los expertos en inteligencia artificial, descartaron las afirmaciones de Lemoine por considerarlas mal informadas e irrazonables.
En una respuesta oficial, Google dijo : “Nuestro equipo
revisó las preocupaciones de Blake y le informó que la evidencia no respalda
sus afirmaciones”. El profesor de Stanford, Erik Brynjolfsson , opinó que la IA
consciente probablemente estaba a 50 años de distancia. Gary Marcus intervino
para calificar las afirmaciones de Lemoine como "tonterías", y
concluyó que "no hay nada que ver aquí en absoluto".
El problema con toda esta discusión, incluidas las
despedidas despreocupadas de los expertos, es que la presencia o ausencia de
sensibilidad es, por definición, indemostrable, infalsificable, incognoscible.
Cuando hablamos de sensibilidad, nos referimos a las
experiencias internas subjetivas de un agente, no a ninguna demostración
externa de inteligencia. Nadie, ni Blake Lemoine, ni Erik Brynjolfsson, ni Gary
Marcus, puede estar completamente seguro de lo que experimenta o no
internamente una red neuronal artificial altamente compleja.
En 1974, el filósofo Thomas Nagel publicó un ensayo titulado
"¿Cómo es ser un murciélago?" El ensayo, uno de los artículos
filosóficos más influyentes del siglo XX, resumió el notoriamente escurridizo
concepto de conciencia en una definición simple e intuitiva: un agente es
consciente si hay algo que se parece a ser ese agente. Por ejemplo, es como
algo ser mi vecino de al lado, o incluso ser su perro; pero no se parece en
nada a ser su buzón.
Uno de los mensajes clave del documento es que es imposible
saber, de manera significativa, exactamente cómo es ser otro organismo o
especie. Cuanto más diferente a nosotros es el otro organismo o especie, más
inaccesible es su experiencia interna.
Nagel usó el bate como ejemplo para ilustrar este punto.
Eligió los murciélagos porque, como mamíferos, son seres muy complejos, sin
embargo, experimentan la vida de manera radicalmente diferente a nosotros:
vuelan, utilizan el sonar como medio principal para percibir el mundo, etc.
Como dijo Nagel (vale la pena citar un par de párrafos del
artículo completo):
“Nuestra propia experiencia proporciona el material básico
para nuestra imaginación, cuyo alcance es, por tanto, limitado. No ayudará
tratar de imaginar que uno tiene telarañas en los brazos, lo que le permite
volar al anochecer y al amanecer atrapando insectos en la boca; que uno tiene
una visión muy pobre y percibe el mundo circundante por un sistema de señales
de sonido reflejadas de alta frecuencia; y que uno se pasa el día colgado boca
abajo de los pies en el desván.
“Hasta donde puedo imaginar esto (que no está muy lejos),
solo me dice cómo sería para mí comportarme como se comporta un murciélago.
Pero esa no es la pregunta. Quiero saber cómo es para un murciélago ser un
murciélago. Sin embargo, si trato de imaginar esto, estoy restringido a los
recursos de mi propia mente, y esos recursos son inadecuados para la tarea. No
puedo realizarlo ni imaginando adiciones a mi experiencia presente, ni
imaginando segmentos gradualmente sustraídos de ella, ni imaginando alguna
combinación de adiciones, sustracciones y modificaciones”.
Una red neuronal artificial es mucho más extraña e
inaccesible para nosotros los humanos que incluso un murciélago, que es al
menos un mamífero y una forma de vida basada en el carbono.
Nuevamente, el error básico que cometen muchos comentaristas
sobre este tema (generalmente sin siquiera pensar en ello) es presuponer que
podemos mapear de manera simplista nuestras expectativas sobre la sensibilidad
o la inteligencia de los humanos a la IA.
No hay forma de que podamos determinar, o incluso pensar, la
experiencia interna de una IA en un sentido directo o de primera mano.
Simplemente no podemos saberlo con certeza.
Entonces, ¿cómo podemos siquiera abordar el tema de la
sensibilidad de la IA de una manera productiva?
Podemos inspirarnos en el Test de Turing, propuesto por
primera vez por Alan Turing en 1950. A menudo criticado o malinterpretado, y
ciertamente imperfecto, el Test de Turing ha resistido la prueba del tiempo
como un punto de referencia en el campo de la IA porque captura ciertas ideas
fundamentales. sobre la naturaleza de la inteligencia artificial.
La prueba de Turing reconoce y acepta la realidad de que
nunca podemos acceder directamente a la experiencia interna de una IA. Toda su
premisa es que, si queremos medir la inteligencia de una IA, nuestra única
opción es observar cómo se comporta y luego sacar las inferencias apropiadas.
(Para ser claros, a Turing le preocupaba evaluar la capacidad de pensar de una
máquina, no necesariamente su sensibilidad; sin embargo, para nuestros
propósitos, lo que es relevante es el principio subyacente).
Douglas Hofstadter articuló esta idea de manera
particularmente elocuente: “¿Cómo sabes que cuando te hablo, algo similar a lo
que llamas 'pensar' está ocurriendo dentro de mí? La prueba de Turing es una
sonda fantástica, algo así como un acelerador de partículas en física. Al igual
que en la física, cuando desea comprender lo que sucede a nivel atómico o
subatómico, dado que no puede verlo directamente, dispersa las partículas
aceleradas del objetivo en cuestión y observa su comportamiento. A partir de
esto, infiere la naturaleza interna del objetivo. La prueba de Turing extiende
esta idea a la mente. Trata a la mente como un 'objetivo' que no es directamente
visible pero cuya estructura puede deducirse de forma más abstracta.Al
'dispersar' las preguntas de una mente objetivo, aprendes sobre su
funcionamiento interno, al igual que en la física”.
Para avanzar en las discusiones sobre la sensibilidad de la
IA, debemos anclarnos en las manifestaciones observables como representantes de
la experiencia interna; de lo contrario, damos vueltas en círculos en un debate
carente de rigor, vacío y sin salida.
Erik Brynjolfsson confía en que la IA actual no es
inteligente. Sin embargo, sus comentarios sugieren que él cree que la IA
eventualmente será consciente. ¿Cómo espera saber cuándo se ha encontrado con
una IA verdaderamente sensible? ¿Qué buscará?
Lo que haces es quien eres
En los debates sobre IA, los escépticos suelen describir la
tecnología de manera reduccionista para minimizar sus capacidades.
Como lo expresó un investigador de IA en respuesta a las
noticias de Blake Lemoine: "Es místico esperar conciencia, comprensión o
sentido común a partir de símbolos y procesamiento de datos utilizando
funciones paramétricas en dimensiones superiores". En una publicación de
blog reciente , Gary Marcus argumentó que los modelos de IA de hoy en día ni
siquiera son "remotamente inteligentes" porque "todo lo que hacen
es combinar patrones y extraer datos de bases de datos estadísticas
masivas". Descartó el modelo de lenguaje grande LaMDA de Google como
simplemente “una hoja de cálculo para palabras”.
Esta línea de razonamiento es engañosamente trivializadora.
Después de todo, podríamos enmarcar la inteligencia humana de una manera
reduccionista similar si así lo decidiéramos: nuestros cerebros son
"solo" una masa de neuronas interconectadas de una manera particular,
"solo" una colección de reacciones químicas básicas dentro de
nuestros cráneos.
Pero esto pierde el punto. El poder, la magia de la
inteligencia humana no está en la mecánica particular, sino en las increíbles
capacidades emergentes que de alguna manera resultan. Las funciones elementales
simples pueden producir sistemas intelectuales profundos.
En última instancia, debemos juzgar la inteligencia
artificial por lo que puede hacer.
Y si comparamos el estado de la IA hace cinco años con el
estado de la tecnología actual, no hay duda de que sus capacidades y
profundidad se han expandido de manera notable (y aún acelerada), gracias a los
avances en áreas como el aprendizaje autosupervisado, Transformadores y
aprendizaje por refuerzo.
La inteligencia artificial no es como la inteligencia
humana. Cuándo y si alguna vez la IA se vuelve sensible—cuándo y si alguna vez
es “como algo” ser una IA, en la formulación de Nagel—no será comparable a lo
que es ser un humano. La IA es su propia forma de cognición distinta,
alienígena, fascinante y de rápida evolución.
Lo que importa es lo que la inteligencia artificial puede lograr. Brindar avances en ciencia básica (como AlphaFold), abordar desafíos a nivel de especie como el cambio climático, mejorar la salud humana y la longevidad, profundizar nuestra comprensión de cómo funciona el universo: resultados como estos son la verdadera prueba del poder y la sofisticación de la IA. https://www.forbes.com/sites/robtoews/2022/07/24/on-artificial-general-intelligence-ai-sentience-and-large-language-models/?sh=4ecf574e9db2
No hay comentarios:
Publicar un comentario