El cuerpo es el eslabón perdido para máquinas verdaderamente inteligentes

Imagen de portada: Detalle de Patroclus por Jacques Louis David, 1780. Cortesía de Wikipedia

Por Ben Medlock, cofundador de SwiftKey, una aplicación móvil que utiliza tecnología predictiva para adaptarse a la forma en que los usuarios escriben. Ha revisado varias revistas internacionales destacadas, y su trabajo académico se publica en ACL, la conferencia líder para la investigación del procesamiento del lenguaje natural. Vive en londres.

Editado por Sally Davies

Originalmente publicado en Aeon.co

Traducción al castellano por Leandro Castelluccio. Link a mis ensayos.

Es tentador pensar en la mente como una capa que se asienta sobre estructuras cognitivas más primitivas. Después de todo, nos experimentamos como seres conscientes, de una manera que se siente diferente al ritmo de los latidos de nuestro corazón o al ruido de nuestro estómago. Si las operaciones del cerebro pueden separarse y estratificarse, entonces tal vez podamos construir algo similar a la capa superior y lograr una inteligencia artificial (IA) similar a la humana, evitando la carne desordenada que caracteriza la vida orgánica.

Entiendo el atractivo de este punto de vista, porque cofundé SwiftKey, una compañía de software de lenguaje predictivo que fue comprada por Microsoft. Nuestro objetivo es emular los procesos notables por los cuales los seres humanos pueden entender y manipular el lenguaje. Hemos logrado un progreso decente: estaba muy orgulloso del nuevo y elegante sistema de comunicación que construimos para el físico Stephen Hawking entre 2012 y 2014. Pero a pesar de los resultados alentadores, la mayoría de las veces recuerdo que no estamos cerca de lograr IA humana. ¿Por qué? Porque el modelo de cognición en capas está mal. La mayoría de los investigadores de IA actualmente no tienen una pieza central del rompecabezas: la encarnación.

Las cosas tomaron un giro equivocado al comienzo de la IA moderna, en la década de 1950. Los informáticos decidieron intentar imitar el razonamiento consciente mediante la construcción de sistemas lógicos basados ​​en símbolos. El método implica asociar entidades del mundo real con códigos digitales para crear modelos virtuales del entorno, que luego podrían proyectarse nuevamente en el mundo mismo. Por ejemplo, utilizando la lógica simbólica, puede indicarle a una máquina que “aprenda” que un gato es un animal al codificar un conocimiento específico mediante una fórmula matemática como “gato> es> animal”. Dichas fórmulas se pueden agrupar en declaraciones más complejas que permiten que el sistema manipule y pruebe proposiciones, como si su gato promedio es tan grande como un caballo o si es probable que persiga un ratón.

Este método encontró algún éxito temprano en entornos simples y artificiales: en ‘SHRDLU’, un mundo virtual creado por el científico informático Terry Winograd en el MIT entre 1968-1970, los usuarios podían hablar con la computadora para moverse en forma de bloques simples como conos y bolas. Pero la lógica simbólica resultó irremediablemente inadecuada cuando se enfrentaba a problemas del mundo real, donde los símbolos afinados se descomponían ante definiciones ambiguas y miles de tonos de interpretación.

En décadas posteriores, a medida que crecía el poder de cómputo, los investigadores cambiaron a usar estadísticas para extraer patrones de cantidades masivas de datos. Estos métodos a menudo se denominan “aprendizaje automático”. En lugar de tratar de codificar el conocimiento de alto nivel y el razonamiento lógico, el aprendizaje automático emplea un enfoque ascendente en el que los algoritmos disciernen las relaciones repitiendo tareas, como clasificar los objetos visuales en imágenes o transcribir el discurso grabado en texto. Tal sistema podría aprender a identificar imágenes de gatos, por ejemplo, mirando millones de fotos de gatos, o hacer una conexión entre gatos y ratones en función de la forma en que se hace referencia a ellos a través de grandes cuerpos de texto.

El aprendizaje automático ha producido muchas aplicaciones prácticas tremendas en los últimos años. Hemos construido sistemas que nos superan en reconocimiento de voz, procesamiento de imágenes y lectura de labios; que nos puede ganar en el ajedrez, Jeopardy! y ve; y que están aprendiendo a crear arte visual, componer música pop y escribir sus propios programas de software. Hasta cierto punto, estos algoritmos de autoaprendizaje imitan lo que sabemos sobre los procesos subconscientes de los cerebros orgánicos. Los algoritmos de aprendizaje automático comienzan con “características” simples (letras individuales o píxeles, por ejemplo) y las combinan en “categorías” más complejas, teniendo en cuenta la incertidumbre y la ambigüedad inherentes a los datos del mundo real. Esto es algo análogo a la corteza visual, que recibe señales eléctricas del ojo y las interpreta como patrones y objetos identificables.

Pero los algoritmos están muy lejos de poder pensar como nosotros. La mayor distinción radica en nuestra biología evolucionada y en cómo esa biología procesa la información. Los humanos están formados por billones de células eucariotas, que aparecieron por primera vez en el registro fósil hace unos 2.500 millones de años. Una célula humana es una pieza notable de maquinaria en red que tiene aproximadamente el mismo número de componentes que un jumbo jet moderno, todo lo cual surgió de un encuentro incrustado de larga data con el mundo natural. En Basin and Range (1981), el escritor John McPhee observó que, si se para con los brazos extendidos para representar toda la historia de la Tierra, los organismos complejos comenzarán a evolucionar solo en la muñeca lejana, mientras que de un solo golpe con una lima de uñas de grano medio, podría erradicar la historia humana”

La visión tradicional de la evolución sugiere que nuestra complejidad celular evolucionó a partir de eucariotas tempranos a través de mutaciones genéticas aleatorias y selección. Pero en 2005, el biólogo James Shapiro de la Universidad de Chicago describió una nueva narrativa radical. Argumentó que las células eucariotas trabajan “inteligentemente” para adaptar un organismo huésped a su entorno mediante la manipulación de su propio ADN en respuesta a estímulos ambientales. Hallazgos microbiológicos recientes dan peso a esta idea. Por ejemplo, los sistemas inmunes de los mamíferos tienden a duplicar secuencias de ADN para generar anticuerpos efectivos para atacar enfermedades, y ahora sabemos que al menos el 43 por ciento del genoma humano está formado por ADN que se puede mover de uno ubicación a otra, a través de un proceso de ‘ingeniería genética’ natural.

Ahora, es un gran salto pasar de las células inteligentes y autoorganizadas a la inteligencia que nos concierne aquí. Pero el punto es que mucho antes de que fuéramos conscientes, seres pensantes, nuestras células leían datos del medio ambiente y trabajaban juntos para moldearnos en agentes robustos y autosustentables. Lo que tomamos como inteligencia, entonces, no se trata simplemente de usar símbolos para representar el mundo tal como es objetivamente. Más bien, solo tenemos el mundo tal como se nos revela, que está enraizado en nuestras necesidades encarnadas y evolucionadas como organismo. La naturaleza “ha construido el aparato de la racionalidad no solo sobre el aparato de regulación biológica, sino también a partir de él y con él”, escribió el neurocientífico Antonio Damasio en Descartes Error (1994), su libro seminal sobre cognición. En otras palabras, pensamos con todo nuestro cuerpo, no solo con el cerebro.

Sospecho que este imperativo básico de supervivencia corporal en un mundo incierto es la base de la flexibilidad y el poder de la inteligencia humana. Pero pocos investigadores de IA realmente han aceptado las implicaciones de estas ideas. El impulso motivador de la mayoría de los algoritmos de IA es inferir patrones a partir de vastos conjuntos de datos de entrenamiento, por lo que puede requerir millones o incluso miles de millones de fotos individuales de gatos para obtener un alto grado de precisión en el reconocimiento de gatos. Por el contrario, gracias a nuestras necesidades como organismo, los seres humanos llevan modelos extraordinariamente ricos del cuerpo en su entorno más amplio. Nos basamos en experiencias y expectativas para predecir resultados probables de un número relativamente pequeño de muestras observadas. Entonces, cuando un humano piensa en un gato, probablemente pueda imaginar la forma en que se mueve, escuchar el ronroneo, sentir el inminente rasguño de una garra desenvainada. La persona tiene una gran cantidad de información sensorial a su disposición para comprender la idea de un “gato” y otros conceptos relacionados que podrían ayudarla a interactuar con esa criatura.

Esto significa que cuando un ser humano se acerca a un nuevo problema, la mayor parte del trabajo ya está hecho. En formas que apenas estamos comenzando a entender, nuestro cuerpo y cerebro, desde el nivel celular hacia arriba, ya han construido un modelo del mundo que podemos aplicar casi instantáneamente a una amplia gama de desafíos. Sin embargo, para un algoritmo de AI, el proceso comienza desde cero cada vez. Existe una línea de investigación activa e importante, conocida como “transferencia inductiva”, centrada en el uso de conocimientos previos aprendidos por máquina para informar nuevas soluciones. Sin embargo, tal como están las cosas, es cuestionable si este enfoque podrá capturar algo así como la riqueza de nuestros propios modelos corporales.

El mismo día en que SwiftKey dio a conocer el nuevo sistema de comunicaciones de Hawking en 2014, dio una entrevista a la BBC en la que advirtió que las máquinas inteligentes podrían acabar con la humanidad. Se puede imaginar qué historia terminó dominando los titulares. Estoy de acuerdo con Hawking que debemos asumir los riesgos de Estoy de acuerdo con Hawking en que debemos tomarnos en serio los riesgos de la IA rebelde. Pero creo que aún estamos muy lejos de tener que preocuparnos por algo parecido a la inteligencia humana – y tenemos pocas esperanzas de lograr este objetivo a menos que pensemos cuidadosamente acerca de cómo dar algún tipo de algoritmo a largo plazo de relación corporal con su entorno.

Aeon counter – do not remove

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s