La guerra contra el aprendizaje automático

IMG_5235

En 1969, durante la guerra por la supremacía de la Inteligencia Artificial, los simbolistas lanzaron una bomba sobre sus adversarios, los conexionistas, que demostró ser tan destructiva que detuvo el avance de lo que más tarde se conocería como Aprendizaje Automático (Machine Learning en inglés), terminando así un conflicto que había durado más de una década. Han pasado cincuenta años desde esos eventos, y la suerte de ambos bandos se ha invertido por completo: mientras el Aprendizaje Automático está en boca de todos, anunciado como el motor de la próxima revolución tecnológica, solo unos pocos lectores estarán familiarizados con el trabajo de los simbolistas.

La historia se remonta a la década de 1950, durante la génesis de la IA, cuando investigadores en informática, neurobiología y teoría de la información se reunieron para estudiar la viabilidad de crear un cerebro electrónico dotado de inteligencia humana. Desde el inicio surgieron dos escuelas de pensamiento sobre cuál debería ser la forma correcta de formalizar los fundamentos de la teoría. Por un lado estaban los simbolistas, cuya premisa central era que, para que las máquinas realicen una tarea, se debe proporcionar explícitamente todos los conocimientos pertinentes al problema que han sido recopilados por expertos humanos. La solución viene en forma de un programa de computadora que construye nuevas estructuras de información a través de la manipulación de símbolos abstractos mediante un conjunto específico de reglas y excepciones.

Un simbolista con la tarea de convertir una máquina en un chef experto, capaz de crear nuevas recetas de cocina, escribiría un programa de computadora con todos los tipos de alimentos con sus propiedades químicas, los utensilios de cocina disponibles con sus manuales de instrucciones, plantillas de recetas básicas, y categorías de comidas. El programa de computadora luego colapsaría el arte de crear una nueva receta en una serie de pasos secuenciales, como si estuviera siguiendo un árbol de decisión.

No le des el pescado a la computadora; enséñale a pescar.

En el otro lado de la confrontación, estaban los conexionistas, que se inspiraron en la red masiva de neuronas en el cerebro, y el mecanismo sináptico para la comunicación entre ellas. Propusieron una arquitectura de computadora de unidades básicas (las “neuronas artificiales” o “neurodos”) que se activarían según las características intrínsecas específicas de cada una de ellas, y el patrón de las señales entrantes. Una entrada a la red neuronal artificial desencadena una reacción en cascada en matrices de neurodos hasta alcanzar la capa más externa de la que se recupera el resultado.

El paso crítico es la calibración de esas características intrínsecas de cada neurodo, que se logra “entrenando” a la red. El entrenamiento consiste en pasar al sistema muchos ejemplos con resultados conocidos y variar las propiedades internas de todos los neurodos hasta que el error sea mínimo. En otras palabras, la máquina aprende una configuración apropiada de parámetros internos que resuelve el problema, al menos para un conjunto de ejemplos.

Una conexionista que busca hacer de su máquina un chef experto lo entrenaría mostrando miles de ejemplos de comidas junto con los ingredientes y los electrodomésticos de cocina que se utilizaron para prepararlos. A la máquina le correspondería descubrir los patrones compartidos por todos ellos, y al final del proceso de entrenamiento, la red habría identificado las características que le permiten producir una receta, tal vez una nunca imaginada por algún humano. Nótese que ni los principios de la cocina, ni el conocimiento explícito de las propiedades de los alimentos son utilizados por el conexionista, tan solo un gran número de ejemplos, es decir, cantidades abundantes de datos.

Minsky y Rosenblatt van a la guerra.

Las dos teorías se desarrollaron gradualmente durante la década de 1950, y los investigadores de la IA probaron los enfoques conexionistas o simbólicos de manera simultanea, sin poner muchos reparos a las diferencias entre ellas. Pero a medida que avanzaban en su trabajo, las profundas discrepancias en los supuestos hechos por ambas partes se volvieron demasiado obvias para ignorarlas. El cisma de la IA refleja un profundo debate filosófico sobre la inteligencia, la cognición y el aprendizaje, asuntos altamente complejos que pueden encender enfrentamientos apasionados sobre quién tiene la verdad.

Las líneas rojas se trazaron a lo largo de puntos de vista opuestos que trascendieron los meros tecnicismos. El lado simbólico defendía los atributos relacionados con la mente analítica del cerebro izquierdo (lógica, serial, discreta, local, jerárquica) mientras que el conexionista asumió la causa de la mente creativa del cerebro derecho (analógica, paralela, continua, distribuida, heterárquica) . Esta caracterización de ambos lados es, por supuesto, simplista, pero alude a las vastas discrepancias que dividían a la familia de la IA.

Y aquí hacen su entrada Marvin Minsky y Frank Rosenblatt. Ambos científicos habían trazado carreras paralelas que los llevaron desde la Escuela de Ciencias del Bronx en Nueva York, donde fueron compañeros de clase en la década de 1940, al timón de las dos naves intelectuales. Minsky, que alguna vez fue un conexionista, se convirtió en el líder y portavoz del movimiento simbolista desde su cuartel en el MIT; Rosenblatt, en Cornell, asumió el mismo papel para el lado del aprendizaje automático.

La primera victoria rotunda para los conexionistas se produjo en 1958, cuando Rosenblatt introdujo el  “perceptrón“, una de las redes neuronales más simples, y anunció que este tenía una propiedad casi mágica: independientemente de la complejidad del problema planteado a la máquina, el algoritmo del perceptrón garantizaba encontrar la solución si esta existía. Esta propiedad fue probada con rigor matemático por Rosenblatt, y más tarde por Block y Novikoff, dejando el aprendizaje automático en terreno muy sólido.

Los conexionistas estaban jubilosos con la invención del perceptrón, y su entusiasmo los llevó a comenzar a soñar con un futuro de infinitas delicias. Un exaltado Rosenblatt llevaría su visión a los medios de comunicación y en 1958 el New York Times informó:

“La Armada reveló el embrión de una computadora electrónica que espera pueda caminar, hablar, ver, escribir, reproducirse y ser consciente de su existencia. Más tarde, los perceptrones podrán reconocer a las personas y pronunciar sus nombres y traducir al instante el habla en un idioma al habla y la escritura en otro idioma, se predijo”.

Los simbolistas no tomaron bien estas declaraciones, que consideraron extravagantes y ridículas. En su opinión, Rosenblatt era irresponsable al pintar estas imágenes llamativas para el público, sin respetar el estándar científico en el que se debería manejar el debate. Pero para los conexionistas, la atención mediática atrajo a legiones de investigadores en los campus universitarios de todo el mundo, y quizás más importante, los recursos de los organismos de financiación.

Lanzando la bomba

Aunque la década de 1960 es recordada como la primera edad de oro del Aprendizaje Automático, la verdad es que durante esos años el progreso que lograron los conexionistas no estuvo a la altura de las expectativas que habían creado. Hubo algunos avances en el lado teórico, pero las aplicaciones aún eran torpes y lejos de ser impresionantes. Empezaba a ser claro que las redes neuronales requerían mucha más potencia computacional que la que estaba disponible en ese momento, y el cabildeo para obtener más recursos comenzó a chocar con un muro de escepticismo. La Oficina de Investigación Naval había financiado parte del desarrollo del perceptrón, pero para llevar las cosas al siguiente nivel, los conexionistas tendrían que acceder a la chequera de ARPA, la poderosa agencia del gobierno de los Estados Unidos responsable del desarrollo de nuevas tecnologías militares (ahora denominada DARPA). 

Mientras tanto, para Minsky, la ola de entusiasmo por el conexionismo había alcanzado un nivel inaceptable. No tenía sentido que la comunidad de AI siguiera perdiendo el tiempo con un enfoque banal que violaba el supuesto más básico sobre la inteligencia y el aprendizaje: “Ninguna máquina puede aprender a reconocer X a menos que posea, al menos potencialmente, algún esquema para representar a X” . Minsky también tenía un problema fundamental con la falta de rigor del movimiento conexionista y, en su opinión, su apatía por responder a la pregunta más crítica de todas: ¿por qué los sistemas de aprendizaje podían aprender a reconocer ciertos tipos de patrones y no otros?

Y aquí es donde el genio de Minsky desplegó todo su potencial. En lugar de esperar a que los conexionistas proporcionaran la respuesta a esta pregunta, se embarcó en la misión de responderla él mismo. Junto con Seymour Papert, también en el MIT, Minsky publicó en 1969 “Perceptrons”, un tratado de 292 páginas de extraordinaria elegancia y profundas ideas sobre las redes neuronales. Para su exposición, eligieron una arquitectura muy básica que les permitió encuadrar el análisis con el rigor que habían esperado de Rosenblatt y sus tropas. Y aunque el libro era desapasionado en su presentación de los pros y los contras de las redes neuronales, dejando que las matemáticas hablaran por si solas, este traía en su interior una bomba: las limitaciones de los perceptrones incluían algunos problemas vergonzosamente simples, que cualquier sistema de inteligencia artificial debería estar en capacidad de resolver.

El libro no lo decía explícitamente, pero para cualquier lector el mensaje de que el rey no llevaba ropas era demasiado obvio. ¿Cuál podría ser el futuro de una tecnología que ni siquiera podría decir si una figura era conexa o no? ¿Cómo podrían esos perceptrones recrear las complejidades de la inteligencia humana si ni siquiera podría reproducir la humilde puerta lógica de disyunción exclusiva?

Ahora sabemos que la imagen que pintaron Minsky y Papert era incompleta, en el sentido de que las redes neuronales pueden superar las limitaciones que describieron con tanta precisión. El truco consistió en restringir lo suficiente el tipo de sistemas que analizaron, sin tener en cuenta el poder de los perceptrones de múltiples capas (que ya se conocían cuando escribieron el libro). Hay algo paradójico en el rigor de un teorema matemático, que por un lado puede servir como el último marco para establecer la verdad, y por el otro, tiene el poder de ofuscar una discusión innecesariamente. Pero la controversia de los perceptrones no es de ninguna manera el único ejemplo de un resultado matemático que terminó desviando la atención de los investigadores de una manera decisiva pero injusta.

La publicación de Perceptrons abrió las puertas para la disolución del movimiento conexionista. Sus investigadores se mudaron a otras áreas, dejando solo a un puñado de los miembros más leales para seguir soñando con las máquinas que podían aprender. Para empeorar las cosas, ARPA decidió explícitamente respaldar la inteligencia artificial simbólica y no financiar la investigación de redes neuronales. Dos años después de que apereciera Perceptrons, y antes de que bajara el telón de esta historia, los conexionistas sufrieron una última tragedia cuando Frank Rosenblatt murió en un accidente de barco, el día que cumplía 43 años. 

La segunda venida de las redes neuronales tendría que esperar a la próxima generación de investigadores a fines de la década de 1980, pero los desafíos que enfrentaron en esa ocasión demostraron ser demasiado fuertes nuevamente. El entusiasmo que vivimos en nuestros dias por el Aprendizaje Automático es, en realidad, la tercera vez que esta tecnología toma el control del movimiento de la IA, pero esta vez lo ha hecho con una fuerza que te hace pensar que, quizás en esta ocasión, está aquí para quedarse.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s