143.-Alpha-Go

Intuición Artificial

Nota aclaratoria: en este artículo abuso de la expresión “una máquina aprende”. Con esto me refiero a aprender en el sentido de los algoritmos llamados “de aprendizaje de máquina” (o sea, realizar una tarea cada vez mejor según algún criterio), no a cómo los humanos aprenden. Cualquier semejanza es pura coincidencia. O no.

Como esto es el Gato, ésta no puede ser otra nota de esas que tienen mucho humo futurista grandilocuente. Igual me aventuro a tratar de argumentar por qué creo que estamos justo en medio de una revolución tecnológica y científica sin precedentes. Vos aferrate a los hechos, el resto es charlable.

Quisiera empezar esta historia en el año 1997, que fue cuando el ajedrecista y ex-campeón del mundo Garry Kasparov perdió un duelo de seis partidas (tres y media, a dos y media) contra una supercomputadora (Deep Blue), desarrollada por IBM específicamente para jugar al ajedrez. Los métodos que usó Deep Blue para ganarle a Kasparov se basaban en la fuerza bruta, es decir, en la capacidad de la computadora de analizar 200 millones de jugadas por segundo (y algún ayudín manual que todavía se discute). Por otro lado, pongámosle que Kasparov puede analizar de a 5 jugadas por segundo. Si bien la computadora le ganó, es evidente que hay algo sobre el aprendizaje y entendimiento humano de la realidad que supera ampliamente al de una computadora: Kasparov no pierde el tiempo analizando jugadas absurdas, porque entiende algo sobre el juego que las máquinas no.

Para contrarrestar esta pequeña ineficiencia de necesitar 200 millones a 5 para ganar, hace varios años se viene desarrollando un método de programación de computadoras que se llama Deep Learning (Aprendizaje Profundo), una rama de Machine Learning (Aprendizaje de Máquina). Está basado en un tipo de inteligencia artificial que lo que hace es simular una situación de aprendizaje modelando distintas capas de redes neuronales. Lo que se hace en deep learning es someter a la computadora con su red neuronal a una situación de aprendizaje (por ejemplo, se la hace jugar al ajedrez) y esta red se va remodelando a medida que ‘adquiere experiencias nuevas’ (puse las comillas mitad para ser correcto, mitad porque me abruma la idea de que un algoritmo adquiera experiencia sin comillas). La evidencia nos muestra que el desempeño de este algoritmo en distintas tareas va mejorando a medida que aprende. Por ejemplo, podemos mencionar que el año pasado una computadora con un algoritmo de Deep Learning (a la cual se le cargaron las reglas de ajedrez y partidas de entrenamiento) y se la dejó jugar continuamente consigo misma, logró, en 72 horas, llegar al nivel de un jugador máster internacional de ajedrez. Nivel. Máster. Internacional. En. 72. Horas. Imaginate si le das un balero. Qué fiesta.

Un tipo de algoritmo de aprendizaje (el que no requiere de datos o partidas pre-cargadas para empezar a aprender) se llama aprendizaje no supervisado. En contraposición, también existe un tipo de aprendizaje de máquina, llamado (para sorpresa de NADIE) aprendizaje supervisado, el cual sí requiere datos iniciales de entrenamiento para empezar a jugar. Luego, mientras juega, la máquina va aprendiendo, es decir, va remodelando las redes neuronales a su favor. Otro tipo de aprendizaje automático es el llamado aprendizaje por refuerzo, en el cual se trabaja con una noción de recompensa que se desea maximizar. Es como sobornar a la computadora para que juegue mejor.


Acá es cuando nos caemos todos de culo

Por otro lado, con algoritmos similares, la inteligencia artificial de Google es capaz de reconocer patrones en imágenes. Sabemos que el ser humano tiene ciertos canales de entrada de imágenes y sonidos (ojos y oídos). Esta información llega al cerebro y es procesada de alguna forma, de tal manera que cuando vemos a un perro, no importa que nunca lo hayamos visto antes o que sea de una raza completamente nueva para nosotros: sabemos que estamos viendo un perro. Bueno, este algoritmo de aprendizaje de Google ahora puede hacer lo mismo. Es decir, vos le cargás muchas fotos a la aplicación Google Photos, buscás “dog”, y te aparecen todas las fotos que tienen un perro, incluso si las fotos tienen nombres raros. O sea que, de alguna manera, el algoritmo al analizar la imagen entiende (discusión filosófica pendiente; si hay Russell, que hable ahora) cuándo está viendo a un perro y cuándo no.

Pero bancá, que esto no es nada. Para el paso siguiente, primero necesitamos entender qué tan difícil es esto que yo digo que es difícil pero que bueh, hasta que no lo fundamente con evidencia y lógica que una la evidencia, es nada. Para empezar, analicemos un poco una situación totalmente anti-intuitiva para el humano: el crecimiento exponencial. Tomate un segundo para auto-contestarte esta pregunta: ¿qué altura crees que tendría una hoja de papel común en grosor (pero grande) después de doblarla por la mitad 50 veces?

El crecimiento exponencial aparece cuando querés multiplicar algo por sí mismo una cierta cantidad de veces. Por ejemplo, el número 2 multiplicado 10 veces por sí mismo es 1024; esto se escribe 2¹⁰ y se le llama “dos a la 10” (dos, por dos, por dos,… diez veces). El tema del crecimiento exponencial es que la cosa crece a velocidades re locas. Si agarrás una hoja de papel de 0,1 milímetros de espesor (las comunes), y la doblás por la mitad, el espesor que queda es de 0,2 mm, si lo hacés de nuevo queda de 0,4 mm, y así sucesivamente. Si esa hoja la doblás 10 veces por la mitad, entonces la cuenta es 0,1 milímetros multiplicados 10 veces por 2, o sea: 0,1 * 2¹⁰, que son 10 centímetros. Pero, si esa misma hoja la doblás por la mitad 50 veces, lo que te queda tiene una altura que es del 75% de la distancia de la Tierra al Sol. Tu intuición te dice “eso es imposible” pero, hechas las cuentas, ves que sí. El espesor de 0,1 mm multiplicado por “dos a la cincuenta” (2⁵⁰), da como resultado 112 millones 600 mil kilómetros, más o menos. Lo loco es que si la doblás sólo 33 veces más, es decir, 83 veces en total, llegás a cubrir la longitud de nuestra galaxia de punta a punta (100 mil años luz), y si la doblás 103 veces en total (20 veces más), llegás a cubrir la longitud del universo observable (0,1 mm * 2¹⁰³ = 93 mil millones de años luz).

Un juego muy interesante es preguntarle a una persona que no haya leído esta nota qué altura cree que tiene una hoja al doblarla 50 o 100 veces por la mitad. Las respuestas intuitivas son sorprendentes, casi siempre erradísimas, y muestran lo desacostumbrados que estamos a pensar en el crecimiento exponencial, hecho que nos toca de cerca cuando reparamos en que ésta es la manera en la que crecen los intereses al usar el pago mínimo de la tarjeta de crédito a fin de mes.

En la vida hay eventos exponenciales sobre los que nos resulta muy difícil hacer estimaciones, para todo lo demás, existe Mastercard.

Ahora que sabemos que lo exponencial trepa más rápido que ese compañero de trabajo que se ríe de los chistes de tu jefe, tratemos de estimar qué tan difícil sería para una computadora poder almacenar todas las partidas de ajedrez posibles. Pongámosle que, en promedio, un jugador de ajedrez tiene alrededor de 30 movidas posibles para hacer en cada turno, y cada partido típico de ajedrez puede tener 40 movimientos por jugador (o sea 80 en total). Es decir, todos los juegos posibles de ajedrez salen de pensar que yo tengo 30 movidas posibles, después vos tenés 30 movidas distintas por cada una de las 30 mías (30*30), y después yo lo mismo (30*30*30), y así sucesivamente. O sea, hay un total de 30⁸⁰ partidas de ajedrez posibles (el orden de las movidas es importante). O, lo que es lo mismo, 10¹¹⁸ (un uno seguido de 118 ceros). Para bajar este número a tierra, acordémonos que una buena estimación de la cantidad de átomos que hay en el universo es 10⁸¹. Como vemos, la frase usual que dice “hay más partidas posibles de ajedrez que átomos en el Universo” es cierta, hay muchas más, 10³⁷ veces más, y sólo contando las partidas típicas. Esto quiere decir además que si yo pudiera almacenar toda la información de una partida de ajedrez dentro de un átomo, necesitaría 10³⁷ universos (un uno seguido de 37 ceros) sólo para almacenar todas las partidas típicas de ajedrez posibles, y estamos hablando de la hipotética posibilidad de almacenar toda la información de una partida en un simple átomo. Es decir que, Laplace que nos pese, no hay manera de almacenar esta cantidad de partidas. Ni hablar del tiempo que tardaría en recorrerlas todas para ver qué partida es mejor que otra, o cuál me serviría más en una situación particular contra Kasparov.

Bueno, todo esto hasta acá me sirvió de entrada para contar lo que pasó hace unas semanas. Va.

A mediados de marzo de 2016 la inteligencia artificial de Google programada con Deep Learning le ganó 4 de 5 partidas al campeón del mundo de un juego de mesa milenario llamado Go. Para el que no lo conoce, este es un juego muy simple en reglas (casi no tiene) pero muy complicado de jugar bien; el tablero usual es cuadrado de 19 por 19 casilleros (361 en total), y se juega uno contra uno, con piedras blancas y negras (se les dice piedras a las piezas, que son todas iguales). El juego simplemente consiste en ir poniendo piedras en el lugar que se te cante. El objetivo es tratar de encerrar las piedras del contrincante, o bien tratar de controlar o encerrar terrenos vacíos. No voy a decir mucho más sobre Go, a excepción del hecho de que se juega muy intuitivamente y la mayoría de las estrategias usadas son bien subjetivas, es decir, no hay recetas excepto en casos particulares, y no hay aperturas ni finales establecidos como en el ajedrez. Es un juego cuyos movimientos se vienen aprendiendo y perfeccionando desde hace 2500 años. Las posibilidades de juego, como vamos a ver, son infinitas (bah, finitas pero inabarcables, you know). No hay maneras simples tampoco de medir ventaja material a lo largo del juego, al ajedrez en cambio se le asignan distintos valores a las piezas y a su posición.

Además, si el tablero tiene 361 casilleros, sabiendo que cualquier jugador puede poner piedras en cualquiera de esos lugares y que una partida típica de Go consta de unas 250 movidas en total, entonces la cantidad de partidas posibles de Go es de (aproximadamente) 220²⁵⁰, es decir 10⁵⁸⁵. Puse 220 en vez de 361 porque a medida que los jugadores van poniendo piedras, quedan cada vez menos lugares libres por llenar (si se hacen las cuentas bien da eso, considerando que el orden en que se hacen las movidas es importante). Sabiendo esto, si la máquina quisiera predecir qué va a pasar 50 movidas más adelante (25 por jugador), la cantidad de desenlaces posibles son 220⁵⁰, que es 10¹¹⁷ (casi todas las partidas de ajedrez posibles). Pero el crecimiento es exponencial, o sea, si quiero predecir qué va a pasar en la jugada 51, tengo que analizar 220 veces todas las partidas de ajedrez posibles (220⁵¹). Es decir, la colocación de una sola piedra en la fase inicial puede afectar el juego de una manera impredecible unos 100 movimientos después. La cuestión es que, de nuevo, si quisiéramos almacenar toda la información de una partida de Go en un átomo, necesitaríamos alrededor de 10⁵⁰⁴ universos para poder almacenar todas las partidas posibles (si el orden de las jugadas importa). Si este número te parece abrumador, bienvenido al club, porque nadie en el Universo tiene ni la más remota idea de qué es tener 10⁵⁰⁴ cosas de algo, pensá que 10⁸¹ es la cantidad de átomos que hay en este universo hermoso y grande en el que vivimos. Además, el crecimiento es exponencial, 10⁸² ¡son la cantidad de átomos que hay en 10 universos! O sea que si imaginamos tantos universos como los necesarios para almacenar todas las partidas de Go, seguro que en uno Julieta Cardinali sí responde a nuestras repetidas referencias con un tweet, un WhatsApp, una foto paseando al perro, algo, Julieta, algo que nos haga sentir vivos, un instante fugaz en el que nos iluminen tus ojos color sosiego y atardecer.

La inteligencia artificial que juega Go (llamada AlphaGo), fue desarrollada por una empresa adquirida por Google en 2014, DeepMind (empresa creada con un único objetivo: resolver la inteligencia), y cargada con algoritmos de Deep Learning de aprendizaje supervisado y por refuerzo, algoritmos de búsqueda eficiente, y las reglas de Go. Me parece importante además puntualizar sobre el hecho que Deep Learning no es un algoritmo diseñado para jugar Go, sino un algoritmo de aprendizaje automático de propósito general, que como vimos, puede ser usado para entrenar a una máquina y que pueda realizar diversidad de tareas. En particular, AlphaGo usa dos conjuntos de redes neuronales bien diferenciadas: redes tácticas (las que eligen heurísticamente qué movimientos pueden ser buenos, para no tener que analizar movimientos absurdos), y redes de valor (que evalúan el valor relativo de las distintas posiciones del tablero). Después de esto, AlphaGo entrenó contra sí misma durante un año aproximadamente, porque si vamos a crear un Skynet, le vamos a meter la actitud de Goku y la música de entrenamiento de Rocky.


Acá, AlphaGo entrenando en la nieve antes de una pelea con Ivan Drago (bueh, es el robot de Boston Dynamics, pero lo compró Google así que medio que cuenta).

En octubre de 2015 AlphaGo le ganó 5 partidos seguidos al campeón europeo (aunque el mejor europeo no le llega ni a los talones al mejor asiático), y ahora le ganó 4 de 5 partidos al campeón del mundo (el surcoreano Lee Sedol, un héroe nacional en su país). Nadie se esperaba esto; aún después de ganarle al campeón europeo, las apuestas de los expertos a favor del campeón del mundo eran contundentes.

Creo que ya es razonable empezar a pensar que las máquinas están lo suficientemente avanzadas para aprender capacidades que hasta ahora asumimos netamente humanas, como reconocer imágenes, sonidos, textos escritos a mano, u otras. Incluso capacidades de las más difíciles: aprender a jugar Go mejor que el mejor humano. Vemos además que cada vez se invierten más y más recursos para alcanzar estos objetivos. Es indescriptible con palabras el impacto que pueden llegar a tener estas tecnologías, y lo que representan para la raza humana. Como aprendimos del Tío Ben, este es un gran poder que no hay que dar por sentado, ya que las aplicaciones también pueden ser negativas. Las implicancias prácticas para el día a día de las personas puede ser brutal, incluso en el corto plazo. Millones de trabajos podrían ser reemplazados por máquinas, y no sólo trabajos mecánicos, como se creía hace unas décadas. Sólo falta que el robot Atlas, también de Google, aprenda a jugar al fútbol al nivel de Messi y listo, y parece re gracioso hasta que te das cuenta de que empezó a ser cuestión de cuándos y no de sis.

Por otro lado, desde el punto de vista científico, es imposible no coquetear con la idea de que quizás sea posible reproducir cómo es que un humano genera conceptos sobre algo en particular, a partir de simples conexiones e impulsos eléctricos en el cerebro. Independientemente de los obstáculos filosóficos que cada persona tenga para pensar que la ciencia podría explicar la conciencia humana, estos hechos tangibles nos muestran que aparentemente estamos cada día más cerca de entendernos a nosotros mismos. Es asombroso pensar en lo increíble de la naturaleza, que (hasta donde sabemos) partiendo de unas cuantas partículas y unas cuantas reglas sea posible evolucionar hacia una especie que es capaz de entenderse y recrearse a sí misma. Increíble la posibilidad de que nosotros (y acá hablo como especie) logremos reproducir y recrear en una máquina, durante tan sólo unos miles de años, eso que nos distingue del resto de la naturaleza y del resto de las especies: la capacidad de entender y aprender algo (aunque todavía estemos masticando si esa diferencia es cualitativa o cuantitativa).

Perder con AlphaGo es ganar. Es una muestra clara de la efectividad del método que llamamos ‘ciencia’ para descubrir cosas acerca del funcionamiento del universo que nos rodea, y también acerca del pedacito que nos constituye. Estamos atravesando tiempos excitantes de la historia, momentos ideales para soltarle las riendas a nuestra curiosidad, faltarle el respeto a lo más profundo de la naturaleza humana y empezar a desnudarla, aunque sea de a pasitos, hasta que el próximo salto nos saque del centro de la Creación, llevándonos a re-entender nuestra posición especial y privilegiada como centro de todo lo inteligente en el Universo con un sacudón copernicano que nos empuja a, por lo menos, dudar.

 

http://www.nature.com.sci-hub.io/nature/journal/v529/n7587/full/nature16961.html
http://googleresearch.blogspot.com.ar/2016/01/alphago-mastering-ancient-game-of-go.html
http://cims.nyu.edu/~brenden/LakeEtAl2015Science.pdf
http://static.googleusercontent.com/media/research.google.com/es//archive/unsupervised_icml2012.pdf




Hay 68 comentarios

Añadir más
  1. Esteban Siravegna

    Amo que no hayan usado inteligencia artificial en ningún lado <3
    Un sólo detalle, de rompepelotas: Algunos autores dicen, con cierta razón, que el aprendizaje por refuerzo es un subset del supervisado :)

    Gran laburo!

  2. Mauro

    ¡¡¡Excelente artículo!!! La deja picando en el gran siguiente paso, ¿cuándo surge la conciencia? (sí, skynet, a vos te estoy hablando porque sé que tarde o temprano vas a leer esto). Algunos piensan que es un fenómeno emergente de la capacidad de aprendizaje (recomiendo fuerte esta charla Ted: https://www.youtube.com/watch?v=GzCvlFRISIM). Lo cierto es que para los que creemos que no involucra la magia (porque hay quienes sacralizan la conciencia) tiene que haber algo en nuestro cerebro que la provoca. Yo creo que la pregunta ya no es si surgirá sino cuándo. Y, más interesante aún, qué pasará el día después. Recordemos que esa “conciencia artificial” no tiene nuestros límites y el progreso a partir de allí cobra una nueva dimensión.

    • Esteban Siravegna

      No sabemos qué es ‘Conciencia’, de la misma forma que no sabemos qué es ‘Inteligencia’.
      Sabemos que, sí, que la conciencia humana tiene rasgos: curiosidad, humor, adaptabilidad, cuestionamientos.
      Igual que la inteligencia: Abstracción, inducción, deducción, capacidad de utilizar y modificar algoritmos.
      Pero qué son exactamente, no hay una definición taxativa, ni medible, como para saber si nos la encontramos o no.
      Sí hay cada vez más evidencia de que sería un fenómeno emergente, posiblemente. Pero eso es todo, de momento.

      • Mauro

        Ese es el punto. Los fenómenos emergentes son súper difíciles de definir, pero no hay duda de que “son”. Como dice el ñato del video que puse, ¿qué es la humedad? ¡es agua! Lo más importante es que probablemente llegue sin que la hubiésemos definido porque ese es un problema más bien filosófico.

        • Esteban Siravegna

          Dudo muchísimo de algo que es pero no puedo medir ni definir. Si no, mi dragón en el garage quiere tener una conversación con vos sobre ese tema.

          Los fenómenos emergentes son complejos de predecir, no de medir, para nada. La ciencia de los sistemas complejos lleva años haciendo eso.

          La humedad es tanto agua como una red neural un amasijo de números.

          Simplificar algo destruye la información que ese algo lleva, eh. No es por ahí.

          • Mauro

            ¿¿¿??? Dije exactamente lo mismo que vos: no hay una definición taxativa ni medible de conciencia. Si desconfiás de que existe la conciencia porque no se la puede medir estás invitado a definirla antes de que emerja.

          • Esteban Siravegna

            Vos dijiste que no hay duda de que ‘son’. Yo tengo muchas dudas de que lo sea en realidad.
            No funciona así: Si uno quiere afirmar que algo existe, y poder compararlo, debe poder definirlo. No es el caso con la conciencia, no sabemos que bónga es, calculamos que sí, que existe, pero eso es todo.
            La respuesta correcta acá, como siempre cuando no hay evidencia o método para obtenerla, es decir ‘No sabemos’

          • Mauro

            – Enumerarme las características de la conciencia
            – “No es por ahí”
            – Explicarme el método científico

            Aflojá capo. Otro día hablamos.

        • Esteban Siravegna

          Los rasgos te los pasé al principio: curiosidad, humor, adaptabilidad, cuestionarse.
          Cuestionarse por ejemplo que algo ‘sea’ si no hay forma de saber taxativamente que lo sea, justamente.
          Suerte!

          • Mauro

            O cuestionarse si una muy buena e interesante argumentación puede llegar a buen puerto cuando las formas no son adecuadas. Yo creo que no.

          • Mauro

            Ahora sí paso al argumento que, como te dije, se fue para el lado de la epistemología que no es mi fuerte. Capaz que Valentín puede aportar.

            Más de una vez Pablo en este mismo foro habló de lo difícil que es definir el concepto de vida pero no creo que se anime a decir que no “sea” o que no exista (fijate que aquí quizás hablamos también de un concepto emergente). Tampoco podemos privarnos de decir que la gravedad existe por no contar con una teoría unificada… osea que somos concientes de que algo falta. Y aun pasando por Einstein, Newton o Aristóteles (quizás desconociendo que algo faltaba) tampoco nunca tuvo una definición taxativa. Creo yo que la propia definición del método científico nos impide hablar de cuestiones estrictamente taxativas. Y un poco más lejos de la ciencia, no creo que me vaya bien si a mi mujer le respondo: “no corresponde decirte que te amo porque no tengo una definición taxativa, lo cierto es que no sé” (diclaimer: don’t try to do this at home).

            Hago un paréntesis para referenciar a uno de los excelentes videos que dejó Marcos en la nota: https://www.youtube.com/watch?v=kC3LdxlDMKo&feature=youtu.be&t=193 . Y la verdad que comparto plenamente porque lo convalidamos en el mismo momento en que decimos “yo”. Si me decís que no utilizás la primera persona del singular no te creo.

            Las definiciones taxativas son muy adecuadas en la ciencia básica pero se complican un poco más cuando nos alejamos. Por ejemplo, hablar de algo taxativo en la ciencia social es super complicado. Te diría que ir más allá de la matemática (por su abstracción) se complica. Pero no por eso la realidad deja de ser o existir. Me parece que hay un ultra virtuoso diálogo entre ciencia y realidad que nos hace repensar y redefinir. ¿Sabemos qué es la conciencia? Ni en pedo ¿Puede que cambie nuestra manera de entenderla? Sin dudas. Pero no creo que podamos decir que no sabemos si existe por eso. La ciencia nos puede dar vuelta todo pero se parte de la realidad.

            Un fuerte abrazo

          • windows98

            con vuestro permiso y el de los píxeles de la pantalla hago un paréntesis para aportar que I tried at home una vez lo del amor y la definición taxativa, y certifico: no me fue muy bien, pero realmente quería ser honesto y llegué al no sé.

            pd al hilo general: en mi caso no pude procesar donde debería escribir este comentario para que quede donde quiero, o el gato no permite comentar al comentario del comentario hasta el 10⁸¹, ni mucho menos. se las dejo pasar igual porque son capos.

          • windows98

            y me quedó bien mandándolo donde me pareció ¨por intuición¨ jaja. es imposible pasar por lo del gato sin que se te regeneren algunas neuronas, felicítoles

    • Esteban Siravegna

      Mientras tanto, posiblemente el tipo que más sepa de aprendizaje automático, vivo, y laburando en eso, (es notable como mucha gente que no entrenó una red neural en su vida, como Vinge, que quiero mucho y respeto y me encanta como escribe, pero no salió jamás de su burbuja, irónicamente) dice que:

      “Hoy estoy tan preocupado por la extinción humana por el desarrollo de ML como lo estoy por la superpoblación de Marte”
      http://www.theregister.co.uk/2015/03/19/andrew_ng_baidu_ai/

      ¯\_(ツ)_/¯

      Me parece que lo inmediato hoy, es presentar contrapesos en este campo para que no solamente un puñado de empresas (Google, HP, Amazon, Microsoft) tengan capacidad de desarrollar estas cosas.
      Bancamos a Elon Musk y openia.

      Ahora, extinguirnos? SkyNet?
      Nah. Nos vamos a morir antes por el cambio climático. Preocupémonos por reemplazar centrales de carbón por eólicas/solares/nucleares.

  3. Agustin Russo

    Dos comentarios:
    – Creo que la idea de que se pierdan puestos de trabajo no sólo no es mala, sino que es ideal. ¡Cuanto menos trabajo haya, mejor! El problema es la economía capitalista, que te obliga a trabajar para que puedas tener recursos a tu disposición. Sería hora de empezar a aprovechar la automatización y las capacidades de las máquinas para trabajar cada vez menos, disponiendo de los mismos recursos.
    – En el video de Atlas: ¿Soy el único al que le dio mucha lástima que le saquen la caja al robot?

    • Marcos Feole

      – Sí! Estaría genial, que trabaje el que quiera. Pero deberíamos estar preparados, imagino una transición un tanto dolorosa…

      – A mí también, pobre! Y no solo eso, también me dio lástima el tipo de barba como metáfora de la sociedad… va a llegar un día en el que el tipo del palo no la pase tan bien al pegarle a la máquina…

        • andrescass

          A mi ya me daba pena cuando pateaban al perro robot. Cuando le corren la caja a me daba la impresión de que lo iba a embocar al barba del palo.

          Me gusta la idea de trabajar menos pero disponiendo (mejor distribuidos que ahora) de los mismos recursos

    • Francisco

      Efectivamente, que haya menos trabajo debería ser algo bueno… Y creo que es muy necesario empezar a pensar como debería funcionar una sociedad donde el trabajo ya no sea un pilar fundamental, porque es algo MUY distinto a como vivimos hoy en día.

      Es interesante que en realidad, hace ya muchos años que podríamos trabajar mucho menos de lo que lo hacemos. Un ensayo muy interesante al respecto es este (original en ingles linkeado): https://cooperayvenceras.wordpress.com/2013/08/23/sobre-el-fenomeno-de-los-trabajos-de-mierda-por-david-graeber/

      El articulo tiene sus sesgos y esta flojo de fuentes, pero creo que plantea bastante bien el problema que tenemos hoy en dia.

    • Romina

      Pregunta… si vos no trabajas ¿quién te da los recursos para subsistir?. Siempre alguien va a tener que trabajar, aunque sean los técnicos que reparan y supervisan el trabajo de los robots. Entonces vos no trabajas y los que trabajan son quienes te mantienen… me parece injusto.

      • Marcos Feole

        Creeme que no va a haber cosa más simple que “técnicos robots” que se reparan y se supervisan a sí mismos o entre ellos. Debería buscarlo, pero hace poco vi un informe sobre robots que no solo pueden fabricarse a ellos mismos (“imprimir una impresora 3D con una impresora 3D”), sino innovar y mejorar sus propias características, aprendiendo (de la misma manera que en un juego de mesa) sobre sus propias deficiencias para ciertas tareas.

        Y los recursos para subsistir en principio los generarían los mismos robots, ya que ellos producirían valor (y además asumimos que el tema de la producción de energía (https://elgatoylacaja.com.ar/recursos-humanos/) ya va a estar solucionado para ese entonces)

        Por otro lado igual pienso que el que quiera trabajar en algo, podría hacerlo. Pero no me preocuparía tanto por los robots, porque su autosuficiencia sería clara, si no por los humanos. Me imagino, por ejemplo, que un psicólogo siempre va a tener trabajo. Independientemente de que una máquina quizás algún día pueda llegar a ser más efectiva tratando problemas psicológicos, no sé si un humano estaría tan conforme adoptando esa solución…

    • JUan

      Lastima no… pero pienso q cuando las máquinas sean conscientes y vean eso se van a vengar.
      Como el nene pequeño de la escuela a que le hacen bullying y en la adolescencia crece y se las devuelve.

      • Aries

        Acá se hace mucha referencia a Terminator, pero en Animatrix te cuentan que las maquinas se revelaron justamente por esto. Se cansaron de hacer todo el trabajo y nos la mandaron a guardar.

    • Yungblut

      A mi también me dió lástima que le saquen la caja, lo empujen y lo tiren al suelo, es nuestro sentido de la justicia en acción (creo). Ahora que apliquemos ese sentido a un robot dice mucho más de nosotros que de lo avanzado de ese robot. ;D

  4. Fede

    Me quedo con tu última frase “… un sacudón copernicano que nos empuja a, por lo menos, dudar”. Gracias al espíritu crítico construimos el conocimiento, un conocimiento basado en evidencias, un conocimiento práctico que nos lleva a construir aviones, desarrollar vacunas, y ahora máquinas que nos vencen jugando. “Perder con AlphaGo es ganar”, es demostrarnos que efectivamente algo estamos haciendo bien.

  5. Pau Hernández

    No me molesta que una máquina sea más “inteligente” que yo, pero me atormenta la posibilidad de que la máquina de pronto “odie” a su creador y nos mate :O (no debería haber visto ex-machina), ¿cuánto creés que va a tardar eso en suceder? No creo que lleguemos a verlo, pero por las dudas dejo de insultar al celular cuando se me traba. Me encantó la nota.

    • Marcos Feole

      No sé! Pero a los que sí temo más cerca son a los humanos, ¿qué pasaría por ejemplo si un gobierno decide desarrollar este tipo de algoritmos para misiles, aviones de guerra, etc? Es decir, un misil que pueda adaptarse para causar el mayor daño posible, o un daño específico prefijado… Para eso existen estas organizaciones: https://openai.com/blog/introducing-openai/

      Y además, cada misil nuevo vendría con una estrategia nueva, porque si lo defendés eficientemente, el algoritmo aprende de ello. Eso es lo interesante de estos algoritmos, que si descubrís como ganarles, el algoritmo aprende de cómo le ganaste para que no lo puedas hacer más, bien al estilo de la novela “Ender’s game”. Hay que innovar cada vez que te enfrentas…

      Un problema a la vez.

  6. Javier

    Sophia (robot creado por Hanson Robotics): “En el futuro, espero hacer cosas como ir a la escuela, estudiar, hacer arte, empezar un negocio e incluso tener mi propio hogar y familia, pero no soy considerada persona legal y no puedo aún hacer estas cosas.”

    David Hanson: “Quieres destruir a los humanos? Por favor dí que no…”

    Sophia: “OK. Destruiré a los humanos.”

  7. Francisco Gómez S.

    Excelete nota!
    Van mis 2 centavos. Es verdad que las redes neuronales están basadas en el cerebro humano y los logros que se están haciendo son totalmente geniales. Lo que sí, estamos algo lejos (TODAVÍA) de que esos algoritmos se parezcan a cómo funciona la cabeza (y eso que no sabemos bien cómo funciona todavía).
    En ralidad cuando se entrenan estos algorithmos necesitan miles de ejemplos de cada tipo para hacerse una idea más o menos acertada de para abstrerlos en clases separadas… Pero nosotros por lo que se sabe no funcionamos así. En vez de eso hacemos una especie de “”feature extraction” conciente y al toque”. Por ejemplo, si yo sé lo que es un caballo pero nunca vi una cebra, al primer caballo con franjas blancas y negras que vea voy a pensar “que caballo tan raro” y cuando alguien me diga “No, flaco, eso no es un caballo, ese bicho se llama cebra” listo, ahí automáticamente mi cabeza entiende que caballo+franjas negras y blanas = cebra. No hacen falta miles de ejemplos de diferentes tipos de caballos y diferentes cebras para entenderlo. Esto no pasa con los algoritmos que tenemos ahora.
    Pero el día que consigamos eso, ahí si que se arma la fiesta.

  8. Jonathan Xavier

    Muy buena nota!, había visto el video de los robots y me dejó pasmado por partida doble, por un lado por los avances que están sucediendo a nivel tecnología, robótica y computación y por otro por las implicancias que podría llegar a tener (tanto positivas como negativas). Ah, el video del Mario es un flash también jaja, quedás boquiabierto hasta que entendés todo eso.

    Lo único que me dejó pensando fuera del recipiente, fue si las cuentas acerca de guardar la información de una partida de ajedrez dentro de un átomo y todo lo que sigue es sólo a nivel comparativo, para dar un ejemplo de la gran cantidad de partidas o jugadas posibles que pueden existir y generar la sensación de enormidad, teniendo en cuenta la cantidad de átomos en el universo, o hay algo que me perdí acerca de guardare información en átomos? jaja

    Abrazo! espero más notas así :)

    • Marcos Feole

      Muchas gracias!

      Lo de los átomos es sólo a nivel comparativo! Es para dar una idea terrenal de qué significa 10 a la 100, o 10 a la 500, sabiendo que 10 a la 81 es la cantidad de átomos en el universo.

      Y una cosa importante además, que quizás le faltó más hincapié en el artículo, es que no es tan importante que los números sean grandes, sino cómo crecen zarpadamente rápido los números exponenciales. Es decir, está bien, 10 a la 81 son todos los átomos del universo y es mucho, pero 10 a la 82 son todos los átomos en 10 universos, después en 100, después en 1000, etc…

  9. Aries

    Excelente nota.

    Que dolor de cabeza tratar de entender esos números imposibles! Es verdaderamente mareante. Creo que van a tener que inventar un robot para que me los explique.

    Y más allá de lo interesante de la nota, lo que mas me quedo es la sensación que de ahora en más cada vez que termine un juego será porque la maquina me dejo ganar, como hago yo con mis hermanas. “Toma humano, sentite bien por cinco minutos”

    PD: Hay un versión del video del robot atlas donde le ponen una voz. Dice exactamente lo que todos nos imaginamos que diria.

  10. andrescass

    Gran gran gran nota. Me gusta mucho el enfoque que le das, además de la información.
    Me apasiona mucho todo lo relacionado con la “inteligencia artificial”, el machine learning y relacionados, aunque hasta ahora solo pude hacer mi propio OCR y algun que otro algoritmo genético que ordena cajas en un camión.

    La AI jugando al Mario es lo más, vi el video como 10 veces tratando de ver el funcionamiento de la red. Flash total.

    Las implicancias socioculturales son complejas de predecir a priori, ya veremos que pasa con el tiempo. Lo que si, se nota que yo no estoy detrás de ese robot, sino como mínimo tendría un algoritmo para detectar cuando lo boludean y al menos putear al que le corre la caja

  11. Pancho

    ¿Las máquinas aprenden jugando contra sí mismas? ¿Y no terminan en tablas? ¿Usted se da cuenta que de un plumazo ha mandado a volar el plumífero colchón de tranquilidad sobre el que reposaba desde que vi el final de Juegos de Guerra?

    https://youtu.be/NHWjlCaIrQo

    Tendría que darle vergüenza…

    • Marcos Feole

      Jajajajaj perdón! El Go es un juego tan simple y tan perfecto que NO SE PUEDE EMPATAR.

      No hay jaque mate ni nada de eso, el juego termina cuando un jugador se rinde, o cuando ambos jugadores “pasan”, es decir, deciden no mover porque su situación actual es mejor que la que obtendrían con cualquier movida que hagan. Al final, se cuentan los puntos con números enteros, pero las blancas obtienen 0,5 puntos más porque empiezan las negras, imposibilitando el empate…

      “The only winning move is not to play “

  12. Ana Rosa

    Excelente nota!! Me da un poco de miedo pensar en todo esto. s cierto que siempre la humanidad gana por ser quien logró que la máquina haga lo que hace, pero el tema de hasta dónde puede llegar y dónde estarían los límites si no hay conciencia ética, eso me asusta.
    Igualmente, vale la pena estar bien informado. Gracias.
    Maravillosa la ilustración.

  13. Federico

    Excelente nota! Y de un tema tan interesante y actual.
    Pero de todo esto no me inquietan los numeros ni los posibles usos de estas tecnologias (buenos, algunas si), me iniquieta el hecho de que al ver ese robot empujado y “confundido” me genere un movimiento (por mas minimo que sea) de emociones.
    Antes de ese habia visto el del perro de Boston Dynamics tambien y no podia evitar decir “para guacho, deja de patearlo asi!” al ver como sus patas roboticas se volvian locas tratando de mantener el equilibrio.
    Me vuela la cabeza como puedo sentir un minimo de pena por un aparato siendo golpeado. Sera que esta forma de inteligencia artificial pueda generar empatia con uno? Por lo menos de mi lado, dudo que una maquina alguna vez genere empatia con humanos… o me cuesta creerlo.
    Y me hace acordar inmediatamente a la novela de Philip Dick “Sueñan los androide con ovejas electricas?”.. Una locura!

  14. Sakan

    El texto es muy bueno. Y está bien escrito, tiene una prosa sencilla y profunda a la vez.

    Pero tengo dos cosas para criticar.

    1) Que no se haya hecho uso del término “inteligencia artificial”, que desde la década del 50 del siglo XX es una ciencia bien establecida. Además el nombre es culturalmente provocador, porque sugiere que algo que no es humano o que es creado por él puede tener “inteligencia” (cualquier cosa que sea la inteligencia o la definan algunos autores). Asimismo es un término literario, y es difícil que ningún investigador de IA no haya leido o esté estimulado por la “ciencia ficción”.

    2) ¿Qué es una “máquina” ? En el lenguaje de sentido común empleamos mucho este término para referirnos a las computadoras, o a cualquier sistema informático que compute información. Pero una computadora NO es, claramente, una máquina. Si yo uso digamos una palanca, la palanca en su “energía-masa” no contiene instrucciones sintácticas que transformen las entradas de estímulos o datos que recibe en algo distinto o den una respuesta como “salida”. Claro, termodinámicamente todo pedazo de energía-masa que existe (hasta donde inferimos y observamos) intercambia energía con su entorno, según las leyes de la termodinámica, y podríamos decir que eso es una “salida”, pero no hay sintaxis en el sentido estricto que los lingüístas-matemáticos la definen (la de los matemáticos es más amplia que la de los lingüístas). Así, el intercambio de información, su transformación y adquisición con “salidas” es parte importantísima, fundamental, de lo que llamamos “computar”. Pero entonces ¿ es el estómago “inteligente”? Aunque no lo creas, muchos procesos supuestamente biológicos también computan : se cree que el estómago “computa” lo que nosotros comemos. Y en el sistema inmunológico también se habla de una “gramática” bien determinada que realiza “cómputos”. Por lo tanto, y de una manera un tanto precaria, podemos decir que el estómago tiene “inteligencia”. Sin embargo, no “aprende”, no adquiere nuevas reglas o esquemas para manipular los datos. Esto puede dañar el sentido común (pero el sentido común cuando es verdadero es trivial y cuando no es trivial, es falso). La “computación”, con “aprendizaje” como proceso, es fundamental en las computadoras y los sistemas informáticos modernos (pensemos que podemos modificar los programas, o conjuntos de instrucciones), incluso en los concebidos en términos puramente abstractos (como los modelos de la “teoría de autómatas”). En el caso del cerebro-mente humana, constantemente aplicamos y recibimos información (que puede provenir de los genes durante el desarrollo, la epigénesis, mas datos lingüísticos y percepciones auditivas, olfativas, etcétera). Esto nos sirve para modificarla de alguna manera; adquirimos nuevas “reglas”, o algoritmos. Nosotros mismos transformamos esa información general en pensamientos, sean estúpidos o no, pero lo hacemos, y tal vez la “Ingeligencia”, definida como transformar información por medio de nuevas reglas, ya está en las computadoras caseras. Muchos podrán decir que la computadora no hace nada que no le indique previamente el programador; asumiendo que semejante objeción sea verdadera, nuestra propia mente-cerebro tampoco llega a madurez y desarrollo si no está en un entorno controlado donde reciba una cantidad de información pertinente : el lenguaje natural no se adquiere si no se reciben datos de sentencias lingüísticas (también es cierta, hasta donde sabemos, lo inverso: el lenguaje no se adquiere si no asumimos que hay información previa ya almacenada de alguna manera en nuestra mente-cerebro).

    Fuentes:
    Sobre la Inteligencia Artificial, “INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO”. Segunda edición. Stuart J. Russell y Peter Norvig.
    Sobre la historia de la inteligencia artificial, podés consultar : “lA NUEVA CIENCIA DE LA MENTE”, de Howard Gardner; hay un capítulo dedica a su desarrollo y principales impulsores.
    Sobre la teoría de autómatas, “Teoria de autómatas y lenguajes formales”, de Hopcfrot-Ullman. Es difícil y salado de conseguir en “carne viva” pero está disponible en .pdf.
    Sobre las teorías sobre el lenguaje desde un punto de vista matemático, “Estructuras Sintácticas”, de Noam Chomsky. Es un libro ya antiguo pero sus teoremas son vigentes. Actualmente el modelo de gramáticas formales se ha extendido mucho y simplificado; hay un resumen en “Sobre la Naturaleza y el Lenguaje”, del mismo autor, donde lo entrevistan dos linguistas italianos, si mal no recuerdo. La editorial es Cambridge University Press.

      • SAKAN

        Sí, es texto conocido, pero esa es una discusión sobre nombres, no sobre diferencias reales. Podés, si te gusta, usar máquina computadora, pero como sabía bien Turing una computadora es más que una máquina; la diferencia es cualitativa y cuantitativa.
        Por otra parte decir que Turing “inventó” la computadora es una exageración absolutamente anti-histórica. En ese caso deberías ir hasta la pascalina de Pascal y la “computadora” de Leibniz (incluyendo asimismo su gedankenexperiment sobre el “molino computador”, que está en su Monadología ). ¿ Y Babbage ? ¿Y los primeros lenguajes de programación, la lógica matemática? Creo que Norbert Wiener (en “Cibernética : la comunicación en animales y máquinas” ya propone el sistema binario, propne que debe ser electrónica, que tenga la arquitectura lógica de Turing, datos en cinta magnética), Turing (con su modelo de autómata y sus contribuciones ), y Von Neumann (la arquitectura de Von Neumann y más) son responsables innegables y bastante obvios de la computadora. Pero las computadoras modernas también tienen más personas, todas las hicieron posibles (me refiero a John Atanasoff y Clifford Berry, Jack Kilby, Bardeen, Brattain, etcétera). Desde un punto de vista intelectual, es forzar la historia buscar “un” responsable de “la” computadora. Prefiero creer que las computadoras son el resultado impersonal de una generación de pensadores, algunos con más peso, otros con menos, pero todos aportaron lo suyo.
        Después está el factor económico y político : fue la enorme cantidad de dinero público que financió buena parte de las primeros desarrollos en informática, más tarde privatizados. Sin esa guita pública metida y filtrada a través del complejo militar-industrial, no tendríamos computadoras, por más cerebros que la hayan concebido.

        • Esteban Siravegna

          Todos los antecedentes que citás son simplemente calculadoras, de hecho. Técnicamente hablando, la primera persona que pensó en términos de computabilidad fue Ada Lovelace. Antes de tener una.
          Desde un punto de vista de ingeniería, que no se si es intelectual, Turing fue el que sentó las bases para que haya una computadora, y la que estás usando se basó en esos principios y no otros.
          Y lo más importante: Los puntos básicos que se pueden resolver computacionalmente están establecidos por ese texto, las definiciones, los nombres y sus limitaciones, con ulteriores ampliaciones, de acuerdo.
          Ahora, de nuevo: La teoría básica que permite que una computadora moderna funcione, dice que son máquinas, le quieras vos poner el nombre que quieras.

          • SAKAN

            No, el “molino de Leibniz” no fue una calculadora (porque no siquiera es un objeto físico, sino un concepto vanguardista para su tiempo). Ni hablar del sistema binario; ahí hay una línea de invención que hace que el autómata de Turing no salga de la “nada”, como parecés creer vos, algo así como un Dios que aparece y de pronto trae “la iluminacion”. Es una perspectiva históricamente falsa y anticientífica. El sistema binario es algo fundamental de la historia de las computadoras, desde el punto de vista técnica y desde cualquier otro. No cabe duda de que previo al siglo XX existían calculadoras solamente, pero Leibniz es un precursor firme de la informática, como lo fueron Babbage, Ada Lovelace. Para llegar hasta las computadoras modernas hay toda una linea de invenciones y descubrimientos, de aplicaciones concretas, que culminan con Turing, pero que de haberse quedado ahí no tendríamos computadoras concretas como las conocemos hoy. Turing, más que ingeniería, hizo matemática, y su autómata es matemática, no ingeniería, aunque luego él mismo dio pasos fundamentales para la computadora moderna “concreta”.
            Sobre ponerle “el nombre” , computadora, o sistema informático, es más preciso que decirle simplemente máquina, y dudo mucho
            que “computadora” o “sistema informático” sea un “nombre” nuevo. Nuevamente, y para fijar : nada sale de la nada, y nada se convierte en nada. Tanto es así que a esa frase ya la dijo Lucrecio.

          • SAKAN

            P.D.: Hoy en día nadie duda, como vos, que esta noción de computabilidad se ha expandido enormemente, dejando, como dije, atrás la noción de “máquina” (describible por medios puramente mecánicos, clásicos). Ni siquiera Turing creía que la máquina sea “mecánica”. Según Javier Blanco, doctor en informática por la Universidad de Eindhoven, “(…)la computación pareciera ser, en algún sentido, independiente del medio. Los primeros resultados de la computación eran resultados abstractos: hoy por hoy hay computadoras químicas, biológicas, cuánticas; hubo computadoras mecánicas. Si bien su sustrato es altamente diverso, todas parecerían compartir algo.” (http://www.pagina12.com.ar/diario/ciencia/19-218171-2013-04-17.html). Turing modelizó una computadora que puede hacer casi cualquier cosa, como lo deseaba Leibniz (la characteristica universalis). Mejor dicho, casi todo. “Pero es la versión posible del sueño de Leibniz: poder poner todo en un mismo nivel, que haya una solución de cálculo para todas las preguntas” (idem).

  15. Matías Waehner

    Qué capo loco!!! Muy interesante la nota, cada vez me convencés más de ir por el camino de cs de la computación jajaja.
    Aguante el Atlas!

    • Marcos Feole

      Ufff, acabo de leer la nota, muy zarpado lo que están tratando de hacer en lastmile. Y muy completa la nota con las referencias de las cosas ya hechas! Ahora me dieron ganas de investigar el state-of-the-art del asunto. Copado!

      (lo raro es que firmás como maxi, mientras que la nota la escribió un tal alan…)


Publicar un nuevo comentario