192.-Ciencia-Cerebros-y-Máquinas

Ciencia, cerebros y máquinas

La explicación científica arrinconada entre las olas de la neurociencia y el boom del machine learning

Introducción

  1. Cibernética (o control y comunicación en el animal y la máquina), es un libro pionero con el que Nobert Wiener dio nombre a una disciplina en la primera mitad del S. XX. Allí, el simpático hombrecito reflexiona que la mejor ciencia es reflejo de los desafíos tecnológicos de su tiempo. La suya fue una era de la información permitida por la separación entre la señal que controla un mecanismo y la potencia que provee la energía. Esta es, a su vez, una distinción conceptual que se había vuelto práctica gracias a inventos revolucionarios de la época, como el transistor. Hoy, los transistores se han vuelto infinitesimalmente pequeños e infinitamente numerosos (hay 2 mil millones sólo en el chip del Iphone 6). Ya no nos desvela cómo transmitir información fidedignamente a través del planeta sino poder abarcarla y destilar del diluvio actual algo que nuestras mentes finitas puedan llamar significado. En paralelo, nuestra idea de lo que significa comprender el Universo y sus manifestaciones ha cambiado irreversiblemente. El objetivo de estos apuntes es bosquejar el efecto de esa transformación en el estado actual de la explicación científica.

El sitio del pensamiento

  1. Por un momento, dejemos de lado la ciencia y el Universo aquel y detengámonos en un acto mental simple. Pensemos en alguien calculando una división tediosa con lápiz y papel. Tenemos la intuición de que el acto cognitivo debe suceder seguramente en el cerebro. Pero esto no es tan evidente. O, si no, ¿para qué necesitamos el papel al calcular? La atención recorre los dígitos en laborioso orden, observando un método estricto. El lápiz da testimonio de resultados parciales (“siete, me llevo uno, lo anoto chiquito acá arriba”). ¿Diríamos que el cómputo ocurre en el cerebro? ¿O es en ese momento el papel parte de su sustrato material? ¿Y del de la mente? ¿Es la memoria una facultad mental?
  2. Por otra parte, como es obvio, para saber algo no hay que necesariamente poder articularlo con palabras. Nadie nos explica cómo reconocer un rostro, ni probablemente los bebés usen una teoría del lenguaje para aprender a hablar (mal que le pese a Chomsky). Hace 25 siglos, Sócrates se dedicaba a torturar atenienses con largos interrogatorios en donde quedaba en evidencia que, pese a que ellos se sabían capaces de reconocer un acto justo o algo bello cuando lo veían, no eran capaces de articular definiciones satisfactorias. El gran problema del saber no verbal es nuestra incapacidad de transmitirlo (basta con pedirle a Djokovic que te chatee cómo jugar al tenis y después probar en la cancha el historial de la conversación).
  3. Hasta hace no tanto, la explicación científica era algún tipo de razonamiento verbal en nuestras mentes y en el peor de los casos descansando en la muleta del lápiz y papel. ¿Qué pasa, en cambio, cuando no somos capaces de aprender algo pero sabemos construir una máquina que aprende? El uso de computadoras para realizar tareas no es en algún sentido distinto del lápiz o de un ábaco. La diferencia está en que este cuaderno tiene más hojas que la biblioteca más grande y las fichas de este ábaco se mueven miles de veces más rápido que la capacidad de disparo de nuestras neuronas. No podemos ni queremos seguir con nuestros ojos cada uno de esos movimientos. Esta vez confiamos en que las leyes rígidas que impusimos a la máquina sean suficientes para que nuestra mentecita pueda descansar y el cómputo transcurra definitivamente fuera del cerebro.
  4. No tenemos una teoría del spam (aunque lo reconocemos cuando lo recibimos). Pero no hace falta. La computadora tampoco la tiene, pero aprende a protegernos de la lluvia de ofertas, promociones y dudosos alargadores de cosas. Facebook reconoce a nuestros amigos cuando subimos una foto y Netflix nos recomienda películas. Nada de eso parece molestarnos, pero algo pica cuando en la ciencia también, cada vez más, nos enfrentamos a la existencia de una computadora capaz de identificar estructuras en los datos experimentales de una manera que supera nuestras limitaciones (el tamaño de nuestra memoria, la velocidad de nuestras manos y, quizás, hasta nuestra creatividad).
  5. Lo más llamativo es que, en cierto aspecto, la forma en que la computadora aprende podría no ser siempre absolutamente diferente a la nuestra. El caso del reconocimiento de rostros fue, hasta hace un par de años, emblema del tipo de tarea para la que somos imbatibles frente a la computadora. Algunos algoritmos con los que hoy las computadoras aprenden esa tarea están inspirados en una imagen caricaturesca de la organización de la corteza visual, con elementos de cómputo que quieren parecer neuronas, reglas de aprendizaje que cambian las conexiones entre ellas, y una organización colectiva en capas de procesamiento cada vez más abstractas que imitan las sucesivas áreas del cerebro. Sin embargo, el parecido se termina ahí. A diferencia de nosotros, estas redes neuronales requieren enormes cantidades de ejemplos etiquetados para aprender a reconocer un nuevo tipo de objeto, mientras a que nosotros nos basta con un única imagen de un Pokemon para recordarlo o, más aún, para entenderlo como tal. Quizás el momento donde uno más intuye que un abismo nos separa de la máquina se revela en sus sesgos y sus errores. Cuando se le pide al software de reconocimiento de imágenes de Google que produzca (o delire, sueñe), la imagen de una pesa, esta aparece invariablemente acompañada de un brazo humano sosteniéndola: el sistema pareciera nunca haber visto fotografías de una pesa sola. Evidentemente, reconocer objetos es algo más que ser capaz de aparear imágenes con la etiqueta correspondiente.

  6. Otras aplicaciones de la inteligencia artificial nos dejan una sensación similar. Hace unos años, la computadora Watson de IBM derrotó a competidores humanos expertos en el programa de preguntas y respuestas ‘Jeopardy’, en un verdadero hito del procesamiento del lenguaje natural computarizado. Un vistazo a las opciones que consideraba la máquina antes de dar una respuesta final nos hacen pensar que su mundo mental era algo exótico. Así, cuando la pregunta era acerca de la proteína que otorga rigidez a las espinas del erizo (la respuesta es ‘queratina’) Watson contestó correctamente, pero también consideraba viable responder ‘puercoespín’ y ‘pelaje’. No hace falta haber tomado el café del desayuno para darse cuenta inmediatamente de que esas opciones no son siquiera incorrectas. Son, sencillamente, inadmisibles para cualquiera que interprete la pregunta como un ser humano.

La ciencia de todos los días ya no es lo que era

  1. Si el aprendizaje de las computadoras no es más que el cómputo ciego de algunos miles de millones de ábacos siguiendo reglas rígidas, ¿por qué cambiarían en algo la forma en que entendemos la ciencia? ¿Qué nos entrega la aplicación de un algoritmo en la ciencia que no puede producir un cerebro con otras herramientas? Para responder eso, pensemos un minuto en las grandes teorías de la humanidad. Desde Newton, la física fue la reina indiscutida del entendimiento moderno y es fácil ver por qué. Al sabor de victoria sobre el cosmos que nos deja el abarcar con la mente la órbita de los planetas, se suman otros factores menos emocionantes. La física hace predicciones. Predicciones cuantitativas. Los números no dependen de nuestros adjetivos, opiniones o sentimientos. Extirpan lo subjetivo para dar lugar a lo intersubjetivo y reproducible: ¿Tu medición de la aceleración de la gravedad arroja un valor de 9.8 pirulines? Jodeme, ¡la mía también! Y las predicciones cuantitativas, en su mejor versión, conducen a sorpresas cualitativas. Irregularidades en la órbita de Urano llevaron a Le Verrier a predecir la existencia de Neptuno, quien tuvo así el irrepetible honor de descubrir un planeta ‘con la punta de su lápiz’. Atravesando las predicciones numéricas y la adrenalina del dominio sobre el cosmos, encontramos el tercer pilar del atractivo de la física, algo más elusivo pero no menos fundamental: la promesa de unificación conceptual. ¿Cuál es el poder simbólico de la manzana de Newton sino la idea de que la misma ley gobierna tanto a los astros como a los objetos del mundo cotidiano? No puedo exagerar la importancia de esa primera gran unificación, que fue seguida por varias otras, y la noción de que gracias a ellas hemos accedido a una verdad más profunda que la suma de todos nuestros experimentos. A algo de esto se refería Rutherford, desafiante, al declarar que ‘la ciencia es física o filatelia’.

    Acá una estampilla de Rutherford. Porque ironía não tem fim.

  2. Este es el mito fundacional que alimentaba a la filosofía de la ciencia de fines del siglo XIX y principios del XX, donde el conocimiento científico tendía a ser pensado como un conjunto de afirmaciones generales, proposiciones bien formadas e independientes entre sí (en el sentido de ser pasibles de ser revisadas una por una). Wittgenstein, cuyo logicismo semi místico fue muy influyente para esta visión, allanó el camino para su desmoronamiento, insistiendo en que no tenía sentido hablar del significado de las oraciones separado del comportamiento de los hablantes. Este giro tuvo un correlato en la filosofía de la ciencia. En términos de impacto popular, el portavoz de esa nueva concepción de la ciencia fue Kuhn, quien consideró las teorías en relación a la práctica profesional. Si con Wittgenstein el lenguaje es un juego entre hablantes, con Kuhn las proposiciones dejaron lugar a los científicos y su labor comunitaria. En la medida en que la comunidad científica sienta que está pudiendo trabajar bien y avanzando, las teorías (paradigmas, disculpen) son exitosas.
  3. Me importa destacar el aspecto artesanal o industrial de la actividad científica, porque, creo, allí se explica gran parte del impacto que han tenido las computadoras y la implementación de algoritmos estadísticos de aprendizaje en el pensamiento de los últimos años. No olvidemos que los científicos ven su propia producción cuantificada en términos de la cantidad y el impacto de sus artículos publicados (i.e., el número de citas). Para publicar, deben convencer a sus pares de haber producido un ‘quantum’ de información científica digna de ser compartida. Cuando lo consiguen de manera consistente obtienen financiamiento para investigaciones subsiguientes. De manera creciente, cierta lógica del capitalismo empresarial se filtra en la producción de conocimiento básico y aplicado, y la distinción entre ambos es a su vez vertiginosamente menos nítida. Paradójicamente, algo del espíritu capitalista primitivo subyace al espíritu original de la ciencia: el ideal del pensador independiente de la autoridad, que por la fuerza de su propia capacidad argumentativa en diálogo con lo concreto genera el nuevo conocimiento. Hoy a esa actitud se le diría emprendedorismo, en los círculos filoempresariales. ¿O no parecen los diarios y la Internet haber descubierto de novo la ‘innovación’ y la fantasía de que un hombre con una idea puede hacerse millonario desde su casa y sacudir (¿se dice disrumpir?) lo establecido? Y si a esto le sumamos que a muchos de los problemas más fascinantes de la época los atacan empresas de distintos tamaños, lo cierto es que estas terminan atrayendo científicos con algo más que un salario digno.
  4. Considerado de este modo, el descubrimiento de verdades científicas no difiere, en la práctica, de la generación de invenciones útiles: ambos son productos válidos del artesano del pensar. Sin embargo, los separa lo que Braitenberg (en su libro de “Experimentos en psicología sintética”) llamó “la ley del análisis cuesta arriba y la invención cuesta abajo”: hallar rastros de lógica en algo en el mundo externo es mucho, mucho más difícil que incorporarla en las creaciones propias (Dante Chialvo creyó ver una tercera posibilidad en el estudio de la complejidad emergente: sistemas donde reglas sencillas dan lugar a comportamientos colectivos complejos). El análisis, la descomposición del fenómeno en sus causas, la discriminación entre lo importante y anecdótico, es un problema que requiere talentos excepcionales, cuando la mayoría somos seres ordinarios. En otras palabras, es mucho más difícil descubrir las leyes del electromagnetismo que inventar una pava eléctrica. Por eso recordamos los nombres de Faraday y Maxwell y no tanto el de ese alma generosa que nos facilitara el agua para el mate cada mañana.
  5. La tremenda dificultad de encontrar lógica en el mundo exterior disminuye cuando, sin una teoría del todo explícita, somos capaces de diseñar un programa que aprenda esta estructura. Con la aparición de la computadora, el descubrimiento se vuelve invención. La máquina de repetición infinita de operaciones simples hoy es muchas veces una caja negra que arroja resultados ante problemas sobre los cuales no se tiene una predicción analítica, un cálculo con lápiz y papel que diga cómo es la cosa. Esa es la magia del machine learning: tomá un problema sin solución conocida, dáselo a un algoritmo de aprendizaje, mimalo, y esperá a que llegue una mini revolución técnica.
  6. La aplicación de machine learning a problemas científicos parecería una especie de regresión: tratar el problema desde un nivel menos elevado que el conceptual. El nivel de la neurona, o de los pesos sinápticos, está en la jerarquía de sistemas emergentes del cerebro muy por debajo de la escala en que resulta lícito hablar de conciencia, del discurrir del lenguaje y las elaboraciones conceptuales. En psicología, se ha dicho que para resolver situaciones de alta complejidad, el razonamiento consciente no resulta a menudo beneficioso. Acaso en algún sentido, el machine learning provea una ciencia sin conciencia o, si se quiere, una manera científica de decidir sin hablar.

¿Leyes generales en un mundo de particulares? Same old same old

  1. Parte de lo que sucede no es que el descubrimiento se ha vuelto invención por giros tecnológicos, sino que quizás hemos alcanzado un límite en cuanto a las preguntas simples disponibles que podemos responder. La física, con toda su matemática, es la ciencia de las preguntas directas y las respuestas en forma de ecuaciones generales que embellecen esta realidad sucia e imperfecta con la precisión del bisturí de un cirujano plástico. Hoy la carrera de física en las universidades es un lugar donde ‘los estudiantes no aprenden nada que haya sucedido después del nacimiento de sus padres’, refunfuñaba con cierta razón un profesor.
  2. El polo opuesto en las ciencias naturales es, al parecer, la biología, donde estudiantes del primer año de la carrera discuten rutinariamente la literatura más reciente. Su objeto de estudio es, claro, la vida: esa construcción del azar donde perdura lo que… perdura. ¿Hay teorías ahí? Se ha dicho que la evolución es la única noción universal en biología. A simple vista, es una ciencia que ha seguido una ruta casi opuesta a la de la física, ahondando en sucesivos detalles, poniendo el esfuerzo en dilucidar el funcionamiento de unos pocos sistemas modelo concienzudamente elegidos. Como un estudioso de literatura que pretendiera que el estudio de La Divina Comedia a lo largo de una vida le regalara una visión de la poesía toda, el biólogo elige su sistema, su circuito genético, su proteína, su técnica, su organismo, y le reza platónicamente a la participación del universal en lo particular. Es un camino romántico que descansa en un acto de fe: que nuestra descripción particular arroje luz de una manera no siempre evidente acerca de unos principios generales que sólo intuimos. La biología es el camino de la alegoría. A veces trae salud y algunas bellas historias. Otras, libros de texto muy gordos.
  3. Tal vez por este modo de avanzar en la literatura científica reina una confusión implícita entre hechos particulares y leyes: se estila titular los artículos científicos con una afirmación (‘X área del cerebro recibe proyecciones del área Y’, ‘C. elegans busca su comida siguiendo la estrategia Z’), dando a entender que la contribución de la publicación es establecer un hecho. Queda al lector juzgar la relevancia de dicha proposición para su campo, la ciencia o su propia relación con el Universo.

Vivimos revolcaos en un merengue y en el mismo lodo todos manoseaos

  1. Lo cierto es que, entre la parálisis de la física tradicional, el ascenso de las supercalculadoras, la caída de la filosofía, las pretensiones de la neurociencia y el bodoque de la biología, nadie sabe bien dónde estamos parados ni qué diablos estamos haciendo, pero cada cual cobra su sueldo, si es que tiene.
  2. Hay una ensalada jugosa de opiniones sobre qué debemos hacer. Grandes programas gubernamentales para juntar más y más datos. Tuiteros pragmáticos que afirman que el objetivo de la ciencia debería ser construir un pronóstico meteorológico, donde no tendremos grandes teorías pero sí el poder de anunciar qué va pasar mañana con cierta probabilidad. Un señor bastante piola llamado Surya Ganguli sugiere que se puede decir que entendemos un sistema complejo cuando tenemos una jerarquía de descripciones a distintas escalas, cada una capaz de explicar aspectos de su comportamiento en distintas resoluciones. O sea, seguir intentando buscar alguna simplicidad en la complejidad. ¿Tendremos algún día una descripción compacta pero poderosa, que describa lo que queremos saber en distintos niveles sin que debamos resolver exactamente cada caso particular acerca del cerebro, de los intercambios sociales, de la relación entre la organización del ser vivo y su ADN, de lo que hace gracioso a un chiste o de la felicidad de una civilización? Como pasa a veces, quizás la respuesta final sea ‘keep calm and learn python‘.

Srsly

El futuro del Espíritu

  1. Mi fantasía no está tan lejos de un ‘keep calm’. Me gusta pensar que el problema de qué es entender va a dejar de ser importante porque nuestra mente individual va a dejar de ser el centro, así como nuestras células se resignaron a dejar de ser centrales y sacrificaron su mundo individual para pasar a ser organismo colectivo. Así, ¿es concebible que nosotros dejemos de ser los que cuenten esta historia? Hace un tiempo se estrenó una película de Herzog acerca del impacto de Internet en nuestras vidas. Lo decepcionante del documental es que está hilado alrededor de las historias de individuos. Es una historia vista con estructuras del pasado. Parece no darse cuenta del todo de que la Internet nos enfrenta a la materialidad del pensamiento de una forma novedosa: podríamos estar siendo átomos de un cerebro que piensa una realidad que no vemos, una que accede a conceptos más abstractos. Quizás encontremos una rara paz pensando que la magia de esta era es la aparición de estructuras espontáneas que apenas intuimos, formadas por individuos, máquinas, no se sabe bien qué. Ya hoy es tan tenue la línea que divide computadoras de pensamiento que hay ciencia ‘crowdsourced’, donde miles de humanos realizan cómputos sin saber siempre qué están haciendo (más que ayudar a la ciencia): reconocer la unión entre dos neuronas en una foto de microscopio, detectar puntos ‘raros’ en un mapa del universo. Historias contadas con estadística, historias de distribuciones de probabilidad.
  2. En algún momento de la película de Herzog, alguien cuenta historias de la inteligencia artificial y surge la comparación trillada entre hombre y máquinas de “Blade Runner” o “¿Sueñan los androides con ovejas eléctricas?”. Algún espectador bosteza. Es posible que la analogía más correcta no sea con ese libro sino con “Solaris”: la aparición de una mente de escala planetaria, sensible a estructuras para nosotros invisibles, regularidades de muy alto nivel. El enjambre formado por nuestras neuronas aprende a ver sin una instrucción explícita, triturando en paralelo la información de todo el campo visual, extrayendo regularidades abstractas que llamamos objetos. ¿No podrá un ‘cerebro artificial’ conectarse a unos ‘ojos de internet’, masticar la información con poca guía y decirnos qué objetos hay ahí que no somos capaces de imaginar? ¿Qué sucede cuando una red neuronal en vez de ser conectada a la retina es conectada al tráfico de wikipedia, de las transacciones bancarias? El fin de la ciencia quizás en un sentido sea el fin de esta narrativa accesible individualmente.Cuando la integración esté completa (¿o ya habrá sucedido?), cerebros y máquinas serán tal vez subsistemas tan importantes y ajenos al fenómeno emergente de alto nivel como los grupos de neuronas que aprendimos a modelar. ¿Será algún día nuestra discusión un murmullo perdido en el sinnúmero de voces que delineen un Espíritu mayor flotando en el cosmos sin hablar con nadie? ¿Cómo debería sentirse exactamente ese estar integrado? ¿Cómo vamos a darnos cuenta cuando suceda, si es que aún no ocurrió? ¿Estaremos perdiendo el tiempo rezongando sobre un pasado conceptual perdido, una individualidad vetusta y un romanticismo para con nuestro soporte de agua, grasa y proteína cuando se abre un abismo de posibilidades por encima nuestro?



Hay 19 comentarios

Añadir más
  1. Nahir

    Qué linda manera de arrancar marzo!! Excelente texto, me encantó. “(…) y le reza platónicamente a la participación del universal en lo particular. “: maravilloso!! Gracias por tanto. Sólo una consulta: ¿en qué sentido estamos ante la caída de la filosofía y cuáles serían los efectos de ello (por lo menos dentro de este artículo)?

    P.D.: sobre el final dice “¿Cómo vamos a darnos cuando suceda, si es que aún no ocurrió?” pregunto: ¿es un doble sentido que no capto porque el café no me hizo efecto todavía, o falta una palabra?

    Abrazo :)

    • Pablo A. González

      Es que, si nos van a dominar las superinteligencias, por lo menos hagamos algo entretenido mientras.

      PD: Ya lo corregimos. Gracias!

  2. A

    Dos cosas. Aprendizaje maquinal (así le decimos en el barrio) es una ciencia, no es una mera aplicacion de computo a datos x (así como una pcr no es meter ADN en una licuadora). Un problema actual es que para muchas áreas de la ciencia, es solo una aplicación. Y ahí esta el error (lo segundo). Aprendizaje maquinal se hizo siempre, fueron evolucionándo los modelos. Hay modelos caja negra cuando solo nos interesa que reconozca bien, hay modelos mas.claros cuando queremos encontrar relaciones. Y también hay hipótesis que cumplir, uno no hace un test estadístico si esta flojo de papeles, esto es igual. Hay cajas negras q son fáciles de usar, pero no quita q hay grandes preguntas en el terreno de aplicación y en aprendizaje maquinal que esperan ahí al q las busca

    • Pablo

      Ante todo, quiero destacar que ‘aprendizaje maquinal’ me parece una traducción hermosa y empezaré a usarla de aquí en más. No quise desmerecerlo como disciplina, al contrario, le tengo muchísimo respeto y aprecio como humilde practicante. Entiendo que hay modelos más y menos claros, sé que la interpretabilidad es un tema en sí mismo. Dicho esto, el artículo se permite hacer generalizaciones de manera laxa con un objetivo doble: ante todo, porque a veces en busca del rigor se pierde de vista la posibilidad de pintar un panorama a grandes trazos; y segundo, con el objetivo de provocar a quien lee. Me alegra que haya funcionado en este caso!

      • A

        Muy bien por ambos objetivos :P

        Hay muchas cosas de estas que están en crisis, me recuerda a la crisis del p-valor o a la falacia de ensayar algo hasta que te de positivo… en ML pasa mucho, porque en realidad el modelo se ajusta tanto como vos quieras, hay muchos que no hacen validación cruzada ni en el baño. Antes capaz pasaba lo mismo, pero como tenias que romperte el mate para sacar un modelo fisico primero, tal vez no habia tanta vorágine de resultados

  3. Pablo

    Gracias!!! Es una sensación, pero quizás, solo quizás, a la filosofía le está faltando nutrir el Espíritu de la era como alguna vez hizo. El autor sugiere que igual no pasa nada porque se generará inevitablemente una conciencia cósmica a la que no le importan los filósofos humanos, ni otros profesionales de la misma especie.

    Y sí, es cierto: falta una palabra, pero todo bien!

  4. Juan Manuel

    “A diferencia de nosotros, estas redes neuronales requieren enormes cantidades de ejemplos etiquetados para aprender a reconocer un nuevo tipo de objeto”

    No se si estoy convencido de esto… Me explico: un individuo en sí no tiene que ver millones de fotos para aprender a reconocer rostros, pero como especie hemos transcurrido millones de años de ensayo y error (digamos, contando desde hoy hasta la aparición de los primeros “cerebros”, lo cual da entre 530 y 65 m.a., por poner fechas). Es decir, nuestras redes neuronales vienen ajustado sus parámetros desde hace muuuucho tiempo, o lo que es equivalente, han usado un n bien bien grande.

    • Pablo

      Es cierto lo que decís. Se podría escribir otro ensayo evaluando qué ha aprendido la evolución y qué aprende el individuo por exposición al mundo. Es difícil de desenmarañar, y hay una larga literatura al respecto que va desde Hubel y Wiesel en los 60s hasta los experimentos con personas que ven por primera vez de Pawan Sinha, aprendizaje de categorías artificiales de Josh Tenembaum (buscá el paper ‘how to grow a mind’) y mucho más. Todo además se mezcla con el desarrollo, etc. No es un tema para nada cerrado.

      • Mariano

        Hay varios ejemplos en los que las redes neuronales no se entrenan con algoritmos de entrenamiento sino que ajustan sus valores a prueba y error mediante un algoritmo genetico, despues de muchas generaciones la red converge hacia la respuesta deseada. Me imagino que tambien se podria desarrollar un hibrido ANN-GA donde por GA se genere la topologia de red que mejor se ajuste al problema y despues se entrene la red de manera clasica. Tambien algun modelo que el disenio de la topologia y el entrenamiento se realice por GA. Es un lindo tema para investigar, cuanto se puede mejorar el rendimiento de una red neuronal por evolucion artificial.
        Saludos

  5. Sergio Felperin

    La nota esta muy buena. Super bien escrita, y hace preguntas muy intereantes.
    Sin embargo, tengo algun problema con “¿Qué pasa, en cambio, cuando no somos capaces de aprender algo pero sabemos construir una máquina que aprende?”, donde usas “aprende” en la misma frase con dos significados que son, en principio, distintos. Aprender cuando se aplica a un sujeto (aprendio a caminar, aprendio ingles, aprendio que los actos tienen consecuencias) denota un rango muy vago que va desde la adquisicion de una habilidad motora hasta memorizar una tabla de multiplicar. Aprender en el sentido de Machine Learning es algo muy distinto: dada una familia de funciones F(T,X), donde T son parametros y X un vector, una funcion de error, y un conjunto de ejemplos X1…Xn, Y1…Yn, seleccionar los parametros que hacen que la funcion de error se minimice. De hecho muchas veces ni siguiera la optimizacion es posible (en el caso de arboles, por ejemplo, el arbol optimo es un problema de costo exponencial, y buscas uno mas barato que se le parezca).
    Ahora bien, la funcion aprendida pertenece siempre a la misma familia, (y la elije la experiencia de quien arma el modelo, no un algoritmo), y resultado depende tambien de la funcion de error (si tu funcion es lineal y tu funcion de error es RMSE, entonces tenes una regresion lineal, pero si cambias el error a RMSE mas un peso por la suma de los cuadrados de los parametros de T tenes otro modelo completamente distinto, que se llama ridge regression). Y ademas, el que arma el algoritmo masajea los datos (la regresion es lineal en los datos o en el logaritmo de los datos? que hago con las observaciones faltantes?, etc.). O sea, ML es una version extendida del papel con el que empezas la nota.
    Lo aprendible en el primer sentido, es siempre reducible a una funcion de los Naturales en los Naturales? Porque cualquier funcion aprendible por ML es una funcion computable (en el sentido de Turing). Si no, entonces hay cosas aprendibles que no pueden ser aprendidas por una computadora. (el conjunto de las funciones computables tiene el mismo tamaño que los naturales. el conjunto de las funciones de los naturales en los naturales tiene el mismo tamaño que los reales. asi que hay muchisimas mas funciones que funciones aprendibles)
    En fin, muchas cosas, prueba de que la nota es muy interesante.

    • Pablo

      Gracias! !
      Sobre qué es aprender. Yo me refiero en un sentido muy general a ser capaz de tener un comportamiento satisfactorio en una situación nueva a partir de situaciones pasadas. Puede ser caminar (como en personas o ciertos robots). Creo que esa idea es lo suficientemte general para aplicarse a sistemas biológicos y computacionales . Dicho sea de paso, en ML no siempre require minimzar una función explicitamente (por ejemplo clasificación usando k nearest neighbors). Si la minimización es dificil y hay heurísticas, me parece que no afecta el punto de que funciona bien en muchos contextos.

      No hay un algoritmo universalmente mejor de aprendizaje (ese es el teorema de no free lunch, no?), así que sí, hay trabajo para el señor que implementa las cosas (gracias a Dios!). Pero ese señor no sabe cual es la solución, tira algoritmos a ver si aprenden, y se queda con el que sí. Es más parecido a pescar que a hacer una división con lapiz y papel! En lo personal, pienso que la mayoría de las operaciones de masajeo de datos y la intuición del programador son pasibles de ser automatizarse pronto (llenar nans, decidir si hay que tomar el logaritmo, o percentiles, etc).
      Sobre el tema de la cardinalidad del espacio de lo aprendible, me abstengo de opinar, porque no tengo la más pálida idea!

      Saludos!

  6. Julián

    Hace tiempo que noto como me parezco cada día más a una computadora. Soy capaz de producir resultados siguiendo recetas pero no tengo mucha idea de lo que estoy haciendo, excepto seguir la receta y readecuarla en términos bastante limitados para resolver el problema urgente y abrir un horionte de nuevas posibilidades. Uso para tal fin la herramienta que vamos a ir usando todos: stackoverflow.
    Por otro lado ¿cuan diferente es mi actitud a la que denunciaba cotidianamente Sócrates? Nuestra generación (y no creo que muchas más) tienen la interesante ventaja del asistente a la revolución: una pata en cada lado.
    En un plano, el papel y el lápiz de silicio dan una nueva dimensión a la comunicación porque incorporan un interprete común invariable que ya no es patrimonio de un grupito de iluminados aportando un nivel de homogeneidad perdido en el medioevo y por otro lado, porque quiero rescatar el romanticismo liberal de la iluminación, abre un espacio de identidad, de potencia que se irá refinando en ese contexto. Cualquier género musical suena muy similar hasta que uno aprende el código.

  7. Mariano

    Me gusta eso de intentar cambiar el imaginario distopico popular (suenian los and….) por algo mas utopico/optimista como las reflexiones de Stanislaw Lem.
    Yo diria que la integracion ya sucedio hace milenios, o por lo menos comenzo, aun continua y en los tiempos venideros se profundizara. Hace poco leia un libro de Eduald Carbonel que dice que el genero Homo es lo que es gracias a la tecnologia (desde la tecnologia litica o el dominio del fuego hasta las tecnologias modernas), cuanta mas tecnologia desarrolla mas se humaniza. Una vez generado ese conocimiento hay que socializarlo, esto es integrarlo a la especie.
    Siguiendo esta linea podriamos decir que la integracion es de la especie con la tecnologia misma, no con algo especifico como internet o las RNA. Entonces la ciencia/tecnologia seria el producto de esa mente planteraria integrada. El dia que esa mente planetaria se despegue de la “especie” (que no dependa de personas para generar conocimiento/ideas/pensamiento (supongamos una skynet)), esto seria que la ciencia/tecnologia sean el motor, causa y efecto de si mismas, ese dia deberia ser el fin del genero Homo, no porque se vaya a extinguir sino porque habria evolucionado hacia una nueva especie.
    Estoy filosofando mucho, espero que se entienda mi idea.
    Saludos


Publicar un nuevo comentario