Carrito
Subtotal: $0
IA

IMG:  Pía Cascella  

Ni apocalipsis ni utopías robóticas

TXT:

¿La Inteligencia Artificial va a llevarnos a una utopía o a la extinción? ¿Tiene sentido la pregunta o es puro humo?

Pensás que estás en la cima del mundo y, de repente,
te tiran el Armageddon por la cabeza.
Terry Pratchett y Neil Gaiman, Buenos Presagios (1990)

 

Nos encanta el futuro. Es un lugar enorme y lleno de posibilidades donde la humanidad guarda de todo: desde los cuatro jinetes del apocalipsis hasta los androides que sueñan con ovejas eléctricas; desde las predicciones de Nostradamus hasta los motores warp y las patinetas flotantes. Nos fascina porque es libre, porque nos deja atribuirle todos nuestros ideales de gloria o de condena. Pero cuando se mezcla futuro con ciencia, la imaginación no alcanza y necesitamos datos concretos. Hoy existe una pelea mediática, con pretensión de ser científica, entre dos posturas completamente opuestas acerca del futuro, el desarrollo y la investigación de la Inteligencia Artificial. El problema con esto es que, cuando a ‘futuro’ y ‘ciencia’ les agregás ‘mediático’, se genera un cóctel que les saca espuma por la boca a los expertos en el tema.

Empecemos por aclarar una cosa: el término ‘inteligencia artificial’ (IA) es impreciso si lo usamos así nomás. Cuando se habla de IA parece que incluye a Terminator, el software de aprendizaje del motor de búsqueda de Google, las fembots de Austin Powers, los vehículos autónomos, HAL 9000 y los algoritmos que filtran el inicio de Facebook. Este revuelto de máquinas inteligentes, software y robots asesinos contribuye a que la noción de IA sea poco clara y a que cada vez que se habla de ella se genere bastante sarasa.

Lo peligroso del asunto es que este humo llena páginas enteras en algunos medios de comunicación, sobre todo, cuando se lo relaciona con un ingrediente más: el futuro de la humanidad. El apocalipsis vende y mucho.

A los efectos de esta nota, simplifiquemos el término IA para referirnos al objeto de estudio de una ciencia que se ocupa de ‘hacer máquinas que hacen cosas que podríamos considerar inteligentes’.

Si se lee el tema por arriba pareciera que hay sólo dos posturas respecto del futuro de las IA. Una visión apocalíptica capitaneada por Elon Musk, CEO de SpaceX y creador de Tesla Inc. (entre otras), que intenta convencer a las mesas chicas de la política y la ciencia con la idea de que el desarrollo desregulado de las máquinas traerá la aniquilación de la raza humana. La otra postura, comandada por Mark Zuckerberg creador de Facebook y única persona con dos mil millones de amigos, plantea que hay que dar libertad al desarrollo de la IA y que quienes digan lo contrario son unos ‘irresponsables’. O sea, la pelea es entre dos multimillonarios con mucha prensa que discuten si hay que hacer o no leyes para controlar a los científicos que investigan sobre IA. Y hay una tercera postura que dice que los dos se tienen que calmar un montón.

Del lado apocalíptico, Musk no está solo: lo acompaña Stephen Hawking el de los agujeros negros y la teoría del todo. Juntos forman parte de  Future of Life, una fundación creada para el desarrollo responsable de las investigaciones sobre IA. Advierten que la humanidad estará en peligro de extinción a menos que se apliquen 24 principios de control para el desarrollo adecuado, sustentable y seguro de las IA que, por supuesto, crearon ellos. Pero aunque su postura extremista sobre el fin de la humanidad llame la atención por lo desesperada y colifata, contrapesa con sus propuestas que, en definitiva, tienen mucho de sensatas.

La organización divide los 24 principios en tres pilares: investigación, ética y asuntos a tratar a largo plazo. Entre otras cuestiones, disertan sobre la necesidad de crear un desarrollo cooperativo entre equipos de investigación, regular la transparencia de los fondos de inversión en estos proyectos, marcar cláusulas obligatorias que aseguren el beneficio de la humanidad en las investigaciones, determinar la responsabilidad legal de quienes desarrollan y utilizan IA ante posibles accidentes y un último punto importante: que ninguna IA, por más avanzada que sea, pueda tomar una decisión sobre una persona sin la aprobación de un humano especializado en el área en cuestión. Por ejemplo, si usáramos una máquina para evaluar objetivamente la ilegalidad de un acto realizado por una persona, su juicio debe ser avalado por un juez. Si se revisan los 24 principios, ninguno está en contra del desarrollo de las IA sino que plantean que, como todo, debe hacerse de manera responsable.

Mark Zuckerberg representa la postura opuesta. Desde su casa en Palo Alto (California), mientras cocinaba una barbacoa, mandó un mensaje por Facebook en vivo a todos sus seguidores en el que decía que los que agitan con que el futuro se viene malo y feo “son unos irresponsables”, y que no hay que interferir con el desarrollo libre de las IA. Pero ¿en qué se basa para decir eso sobre Musk y Hawking? ¿Qué razones tiene?

La razón principal de Facebook para defender su postura es que tiene su propio equipo de investigación de IA trabajando en varios proyectos. Diseñaron, entre otras cosas, un software que aprende cómo te movés en la red social para “””administrar mejor tu inicio”””” (COMILLAS COMILLAS) y poder mostrarte las fotos de la persona que más stalkeas o los posts que pueden hacerte reaccionar más fácil (sí, la peor IA para olvidarte de tu ex, de cuando tenías pelo o de tus compañeros de secundaria). Este tipo de herramienta logra que te quedes más tiempo mirando la pantalla, y cuanto más estés en la pantalla, más aprende, más te hace quedarte, más publicidad vende, más tiempo estás en la pantalla y tiempo y publicidad y plata y pantalla y así. (¿alguien gritó ‘conflicto de interés’?). Por supuesto, esto está muy lejos de ser un robot que nos va a llevar a la destrucción de la humanidad, pero hay personas que piensan que tampoco está tan bueno que existan estas cosas.

Una de esas personas es Tristan Harris, ex especialista en ética del diseño de Google. ¿¿Ex qué?? Su trabajo consistía en decidir cómo persuadir a los usuarios y dirigir su atención para captarlos por más tiempo de manera ‘ética y correcta’. O sea, que no salgan fuera de los mejores valores de la sociedad; que no sea ilegal o inmoral. Harris llama la atención sobre estos algoritmos y plantea que “hay que alinear los objetivos del persuasor y del persuadido” y aclara que “actualmente hay una habitación con pocas personas que deciden en qué van a gastar su tiempo varios miles de millones de personas. Deberíamos concentrarnos en las IA de hoy, no en las de mañana, y hacer una revolución en la tecnología”. La maldad es humana; la herramienta, divina.

El grupete investigador de Zuckerberg no sólo se dedica a engancharte a la pantalla. El último proyecto que desarrollaron se trata de un sistema que utiliza realidad virtual (VR), software de aprendizaje y cámaras 360 para conectar a personas en zonas de desastres naturales con organismos de ayuda humanitaria y, de esta manera, acelerar y efectivizar los rescates. La investigación se realizó en conjunto con American Red Cross y este modelo se presentó en Puerto Rico tras los desastres que generó el Huracán María en septiembre. Sin embargo, la presentación recibió críticas muy duras ya que se mostraba al CEO de Facebook y a su jefa de desarrollo de VR, Rachel Franklin, personificados por un avatar de caricatura y festejando la tecnología mientras hacían un tour sobre los destrozos. Si bien la idea es buena y ya se habló con la Cruz Roja Internacional y UNICEF para que tengan acceso a este tipo de tecnología a través de Facebook, los comentarios del video llegaron al punto en que ciudadanos de Puerto Rico escribieron que Zuckerberg era un “multimillonario sin corazón”, ante lo cual el CEO tuvo que pedir disculpas en los mismos comentarios por el importante error de comunicación.

Otro ejemplo que viene de la mano de Mr. Facebook y su equipo se puede leer en un paper donde explican que lograron desarrollar una IA capaz de aprender a mejorar métodos de negociación sólo a través de conversaciones. La IA fue capaz de fingir que se interesaba en todo lo que su interlocutor tenía para ofrecer cuando en realidad sólo quería una cosa específica. De esta manera, hizo que el interlocutor pensara que había ganado en la negociación al hacerle ceder de obtener el total de los objetos, cuando en realidad ella fue quien consiguió lo que buscaba, que era solo uno de estos objetos. Lo interesante es que todo lo aprendió solita, solo con hablar y hablar. En castellano sería: si ella tenía un libro y necesitaba un sombrero, y su interlocutor tenía un sombrero, tres pelotas y dos lápices, le decía: “te doy mi libro por todo lo que tenés”. Cuando el interlocutor se negaba, le decía “bueno aunque sea dame el sombrero y te doy mi libro”, y lo conseguía. O sea, la IA aprendió a engañar a los interlocutores para ganar la negociación. De tal palo, tal inteligencia artificial.

Esta investigación también explica que estos bots desarrollaron su propio idioma durante el proceso, y acá es cuando entramos en la gran máquina generadora de humo. Este hecho despertó a los grandes fantasmas de un futuro distópico donde una suerte de robots Frankenstein cobraban vida, y por varios medios salieron a decir que por ese motivo Facebook entró en pánico y apagó el experimento. Claramente esto no fue así. Desde el equipo aclararon que “no hay que alarmarse”; explicaron que “es normal” que los bots desarrollen sus propias subrutinas de lenguaje y que, de cualquier manera, sólo desarrollaron un idioma comprensible entre ellos a los efectos de cumplir su función, y que lo hicieron porque no se les había determinado que debían realizar la conversación en un lenguaje comprensible para humanos.

Como se puede ver, hasta ahora nada de rayos láser, ni de explosiones, ni de robots asesinos. Entonces, ¿qué pasa con los apocalípticos? ¿Qué razones dan ellos para no confiar en las IA? Stephen Hawking le explicó a la BBC que el peligro radica en que el humano nunca podría competir con una IA por las diferencias enormes en la capacidad de procesamiento de información y en la velocidad para adaptarse a nuevos escenarios. En ese caso, las IA fuera de control podrían reemplazarnos con facilidad en cualquier tarea y dejarnos fuera del esquema. Apa, ¿y eso?

Aunque venga de Hawking, esta visión sobre un desarrollo desbocado de las IA es demasiado reducida. Ese tipo de escenario no depende tanto de que las máquinas sean más inteligentes que los humanos, sino de que a nosotros nos falta aprender mucho todavía. Noriko Arai, la líder del proyecto Todai Robot, construyó un robot que pudo pasar el examen de ingreso a la universidad de Tokyo con un resultado mejor que el 80% de los alumnos de Japón “sin entender una palabra del examen”. Esto es literal: el robot no entendió nada, usó el programa de aprendizaje y ejecución con el que fue diseñado para reconocer la información que le pedían las preguntas y asociar las palabras con una lógica matemática propia que le permiten recuperar de su base de datos inmensa y siempre al día las respuestas más probables. Por supuesto, falló en comprensión de texto.

Noriko Arai plantea que necesitamos una nueva forma de enseñar a los jóvenes y cambiar el modelo matemático y de aprendizaje ‘de memoria’: “No podemos procesar mejor y más información que los robots, pero ellos no pueden entender lo que hacen. Necesitamos un cambio en el sistema educativo”. Lo que Todai Robot Project demuestra es que si tratamos de competir en un examen de matemática contra una calculadora con esteroides, entonces siempre vamos a ser superados. Lo que explica es que la revolución educativa viene con fomentar el tipo de inteligencia que tiene que ver con entender realmente las cosas y no sólo recordarlas de memoria.

Mientras tanto, Elon Musk insiste en aprovechar su posición cercana a la mesa chica del gobierno de los Estados Unidos con el fin de lograr una regulación del desarrollo de las IA. En febrero Musk se presentó en la World Government Summit en Dubai y, si bien dejó de lado el problema ético sobre las decisiones que puedan llegar a tomar las IA en situaciones de riesgo, sacó a relucir el problema más próximo en cuanto a regulación: “Los vehículos autónomos están más cerca de lo que se piensa y estos van a dejar sin trabajo a muchísima gente, vamos a tener que encontrar nuevos roles para esas personas o el gobierno tendrá que darles un sueldo”. También lo llamaron como formador de opinión para participar en una conferencia frente a gobernadores en la National Governors Association de Estados Unidos este año. Ahí dejó bien claro que “las IA son un riesgo distinto a las drogas o los accidentes, que son graves pero no como esto, porque las IA son un riesgo a la humanidad en su totalidad”. Bueeeno, ¿será para tanto Elon? A ver qué dicen otros expertos.

Stuart Russell, científico pionero en la investigación de IA, explica que los robots podrían ser un riesgo sólo si se los programa con un objetivo único y se les dice que no deben dejar que nada interfiera en su misión, ya que aprenderían cada vez más sobre esa función y la optimizarían superando a cualquier humano en la misma tarea. Por ejemplo, si le decimos a un robot que se ocupe de cebar mate, lo hará cada vez mejor hasta dejar atrás al mejor cebador del mundo (como hizo Alpha Go con el mejor jugador de Go); si además le decimos que no debe dejar que nadie ni nada interfiera en su función, y siendo que los únicos que pueden apagarlo y evitar que cumpla su misión son los humanos, ¿eliminará a los humanos mientras duermen y cebará mate hasta el fin del suministro de yerba? ¿Vamos a morir por un robot cebador cebado? No, no tan rápido. En este ejemplo, el robot sólo tiene una función que es cebar mate y no se le dio una entrada de información que incluya ‘matar a los humanos si interfieren’. Sólo lograríamos un robot cebador perfecto que no aprendería por sí solo todo lo demás. Traemos este ejemplo para resaltar que hoy en día estas especulaciones son sencillamente conjeturas que nada tienen que ver con la realidad actual de las investigaciones IA.

Sin embargo, el debate es válido en un punto. Si se llegara a tener la capacidad de crear semejante tipo de IA, Russell propone que deberíamos crear nuevas leyes de la robótica para que sean compatibles con la vida humana. Lamentablemente, considera que todavía no estamos listos como sociedad para eso. Estas nuevas leyes, cuyos algoritmos no están formalizados, deberían incluir que el robot no sepa exactamente su objetivo, que su propósito sea beneficiar siempre a la humanidad y que sus conductas sean aprendidas de observar las conductas humanas. De esta manera, aprenderá a definir aquello que está socialmente ‘bien’ de lo que está ‘mal’ y entonces, si su función es cocinar y se queda sin comida, no cocinará a la mascota tras evaluar su valor nutricional. Además, plantea que el robot debe siempre poder ser apagado y que debe saber que si es apagado es por algo superior a su objetivo, y entonces así logre aprender de esa situación. Esto es muy importante para que nunca trate de evitarlo asesinando a la humanidad mientras duerme. Por lo pronto, hay que reemplazar las leyes de la robótica. Asimov, estarás siempre en nuestros androicos corazones, pero tus leyes ya no.

Si no tenemos nada más que algunos algoritmos polémicos en cuanto a ética empresarial y conjeturas de posibles robots demasiado inteligentes como para tolerar nuestra existencia, ¿por qué insisten en el apocalipsis? Musk asegura que tiene acceso a la más moderna tecnología de IA y contraataca con que deberíamos tener miedo a lo que se viene. Insiste en que se deben crear regulaciones proactivas para el desarrollo de las IA y no reactivas cuando ya sea demasiado tarde. Todo esto lo sostiene en que mantiene su conocimiento sobre IA al día a través de inversiones millonarias en tres proyectos de investigación: Neuralink, DeepMind y Vicarious. Las tres empresas trabajan en la investigación y desarrollo de posibles aplicaciones de la IA en robótica y software. Sin embargo, dato curioso, el otro gran inversionista de Vicarious es Mark Zuckerberg. Entonces, si reciben la misma información, ¿por qué tienen ideas tan diferentes? Porque ambos se basan en creencias y no evidencias.

Para Luciano Floridi, profesor de filosofía y ética de la información en la Universidad de Oxford, dada las capacidades de desarrollo de IA actuales, lo que proponen ambas posturas son escenarios que no son plausibles. Para él, “el riesgo más serio sería que usemos mal nuestra tecnología inteligente, en detrimento de la mayoría de la humanidad y del planeta entero”. Si tenemos en cuenta que la IA es tecnología que depende exclusivamente de la información que se ingresa en ella para que trabaje, el cebador de mate que usamos de ejemplo ceba y no mata porque le dijeron que cebe y no que mate. Por lo tanto, sea el futuro una utopía o una distopía, Floridi concluye: “Somos los humanos y seguiremos siendo, en cualquier futuro predecible, el problema, y no así nuestra tecnología”.

Lo que buscan Musk y Zuckerberg es usar su influencia para lograr lo que ellos consideran mejor desde sus propios puntos de vista. Conflictos de intereses aparte, todavía estamos lejos de que exista una posibilidad real de un apocalipsis robótico o incluso una utopía tecnológica. Además, llegado cualquiera de los casos, la responsabilidad es siempre del humano que se esconde detrás del desarrollo e implementación de esas inteligencias. Las dos posturas son extremistas y se enfrentan en un momento de la historia en que el futuro que soñaban las grandes plumas de la ciencia ficción se vuelve cada vez menos ficción y más ciencia. El debate sigue abierto y nos hace entender que necesitamos un mejor tratamiento de las noticias científicas, mejores preguntas para todas las partes y buen aporte desde la ciencia que aclare hacia el público general el humo que se creó alrededor del potencial real y aplicable de la IA.
Skynet, no te tenemos miedo. Por ahora.

Ilustración:  Pía Cascella  

Hay 40 comentarios

Añadir más
  1. Elvio

    Excelente nota. Es cada vez más evidente, y no solo por cuestiones de IA sino también de economía, sustentabilidad planetaria, justicia+política, etc, que la humanidad no sobrevivirá sin una revolución ética que dé basamento a los cambios que la tecnología nos permite y va a seguir permitiendo. Coincido en el papel (decididamente cuestionable hasta ahora, y no solo en temas de IA y noticias científicas, sino en todos los que cité antes) de los medios masivos de comunicación. La ética ha brillado por su ausencia, y son utilizados para doblegar voluntades, implantar “creencias” y atender “intereses sectoriales y personales”.

    • Pablo Barragán

      Estoy de acuerdo que en todos los campos es necesaria una revolución ética o, por lo menos, una toma de conciencia. Para eso esta este tipo de notas. Son llamados de atención. Sobre todo se necesita una toma de conciencia importante en los medios de comunicación sobre cómo se trabaja y cómo se transmite, ni hablemos de lo que se transmite.

      • Cristobal

        ¿Los medios trasmiten, o son espejo del colectivo? ¿Tienen una voz o son eco? No creo que se deba obligar a transmitir ideas más sustanciales o menos frivolidades, sino que esto debe ocurrir de manera natural debido al desarrollo intelectual de la sociedad a la que se dirige. En cuanto a las IA la gente tiene miedo, siempre se ha temido a lo desconocido, y como la gente tiene miedo, los medios transmiten miedo y naturalmente no transmiten pues solo apelan a ideas y paranoias prefabricadas, no a pensar realmente.

        • Pablo Barragán

          Entiendo lo que decís. Pensemos que los medios también están formados por personas que viven en la sociedad y están inmersos en las mismas charlas de sobremesa y de calle. Sin embargo, lo que trato de decir es que cualquier ente que se dedique a comunicar debe transmitir sobre cualquier tema con información precisa y elaborada, con fuentes confiables y chequeadas . Nadie está libre de equivocarse porque la interpretación de los datos es siempre subjetiva, pero con buena investigación se pueden lograr mejores artículos. Particularmente en el caso de las IA hay demasiada repetición y poco chequeo de datos.

  2. Nahuel

    Alta nota, ahora voy a poder dormir un poco más tranquilo reforzando la idea de que nuestro mayor peligro somos nosotros mismos ¿:S?.
    Igual la idea de Hawking de que nos puede freir un quasar me sigue dando miedo.

    ¡Saludos!

    PD: el link de “¿Vamos a morir” suena importante pero no se ve.

    • Pablo Barragán

      No se si dormirás más tranquilo Nahuel! Pero por lo menos ahora ya sabes que el cambio empieza con vos: en todos los campos de acción. Igual supongo que ya lo sabías. Lo del quasar no se, realmente, si es para dar miedo. Mas miedo me da el bondi en hora pico sumado a la idea de los antivacunas.

      PD: ya le aviso a los chicos que no se ve el link! GRACIAS!

  3. Tomi

    Muy buena nota. Les comparto este video que para mí responde a muchas preguntar importantes:

    https://www.youtube.com/watch?v=MnT1xgZgkpk&t=

    Por otro lado, aprovecho para decirles que me encantaría que hagan una nota sobre la teoría o la hipótesis de la simulación (Nick Bostrom), la cual es una de las tesis filosóficas más científicas y más relevantes hoy en día.

  4. Pablo Barragán

    No se si dormirás más tranquilo! Pero por lo menos ahora ya sabes que el cambio empieza con vos: en todos los campos de acción. Igual supongo que ya lo sabías. Lo del quasar no se, realmente, si es para dar miedo. Mas miedo me da el bondi en hora pico sumado a la idea de los antivacunas.

    PD: ya le aviso a los chicos que no se ve el link! GRACIAS!

  5. Cesar Esquivel

    El avance que tiene la IA me tiene fascinado, a mi “Yo, robot” me volo la cabeza y es impresionante que un genio como Asimov haya “predecido” un debate hace mas de 50 años atras. De alguna forma yo me pongo en la postura de Musk, para llegar a la utopia se deben generar leyes para la IA, pero no tanto desde la regulación, sino desde que la IA tenga incorporada (como las que propone Rusell) para que no suceda la distopia. Veo posible que en algun momento se llegue al ultimo cuento del famoso libro de Asimov, en la que las maquinas optimizan la forma de producir y asi poder generar un mejor mundo para la humanidad.
    Pero para mi el gran debate pasa por una cuestion filosofica e historica, la humanidad por milenios ha dominado el planeta, ha vencido a sus mas grandes depredadores, ha hecho del mundo lo que quiso. Y va a ser muy dificil comprender que la IA puede ser superior en todo aspecto, su velocidad de calculo y aprendizaje son superiores e inalcanzables; y no van a ser pocos los que lo acepten, un invento nuestro que nos puede superar en todo (pero para nuestro bien, si se plantea asi…). Creo que aqui hay una cuestion que el mundo se vera inmerso, no solo en la IA y la etica que conlleva, sino en entender que es a quien podemos delegarles las decisiones porque son “las mejores”. Que presente y que futuro se nos viene.

    • Pablo Barragán

      Me encanta que la nota haya movilizado tanto tu maquinaria interna! Me gustó tu apreciación y el consenso que lograste de ambas ideas. Si bien la ciencia ficción es bárbara y nos llena de ideas de como son o serán las cosas en un futuro, ojo con las ideas binarias .
      De alguna manera, lo que trato de decir en la nota es que no hay solo dos posibilidades en el futuro y que justamente hoy en día no existen suficientes indicios como para vaticinar lo que vendrá en cuanto a IA se refiere. Está bueno pensar posibilidades e imaginar, pero a la hora de comunicar es importante centrarse en la ciencia y menos en la ficción. Estas ideas pueden llevar a malentendidos y malas medidas a nivel político si la influencia de quienes las impulsan es demasiado grande. Los responsables somos nosotros siempre.

  6. Marcos

    Nunca vamos a competir por recursos naturales, ni por territorio, te falto Ella, la película del tipo que se enamora del sistema operativo y al final el sistema operativo se aburre y se va a descubrir el universo.

  7. Mauricio

    Stuart Russel habla acerca de que no hay que permitir que se desarrolle IA para la industria armamentística. Por otro lado John Giannandrea dice que el verdadero riesgo de la IA es el sesgo. En momento de entrenamiento una IA puede aprender a actuar sesgadamente y actuar erróneamente.
    La moraleja de la historia: los datos de entrenamiento no tienen que tener sesgo y no hay que darle armas a una IA, eso es mucho muy importante.

    • R T

      El sesgo es un tema fundamental porque es lo que alimenta la IA. Lo que me preocupa más que el sesgo intencional o no es que por usar datos del pasado se tienda a reforzar tendencias actuales.

    • Pablo Barragán

      Hola Mauricio! En mi opinión, por lo que estuve investigando, estamos lejísimos de tener que tener miedo de una IA asesina a lo Terminator. Pero creo que es como la frase “más peligroso que mono con navaja” si llegara a poder suceder algun dia que se desarrolle una inteligencia artificial propiamente dicha. Por ahora lo que tenemos son un montón de programas que “hacen parecer como si fueran inteligentes”.
      De cualquier manera, ningún tipo de tecnología responde a su propia voluntad, siempre hay alguien detrás moviendo los hilos. Eso es lo importante hoy: hacerse cargo y tomar conciencia de los actos.

  8. R T

    Me parece que son dos cosas fundamentales a abordar. Primero y principal el tema de la ética y la enseñanza de la ética en las carreras de ciencia e ingenierías. No se puede esperar un diseño que siga la ética si el diseñador no tiene…

    Por otro lado es el tema de la data que se le pone para aprender. Como son de datos pasados refuerzan tendencias actuales y por lo tanto los vicios actuales. Es el principal problema de los data-driven models, que no se si se extrapola necesariamente a la IA (pero si alguien me puede desasnar se agradece).

    Gran nota!

    Abrazo

    • Pablo Barragán

      Hola! Justamente así como bien resaltas, es lo que plantean Arai y Russell: la humanidad no está lista para entrenar a las IA en caso de poder desarrollarlas. Por suerte todavía no hay nada de que preocuparse pero la revolución que necesitamos antes de ponernos a pensar en una super inteligencia es una revolución educacional y de valores. Hay que aprender a ser antes de ponerse a jugar con esto.
      Abrazo para vos!

  9. Daniel

    Buen articulo… pero me molesta muchisimo que remarquen en negrita y especialmente SUBRAYEN EN ROJO frases y palabras . Los lectores de por aqui somos capaces de entender y dar importancia a lo que esta escrito por nosotros mismos… y los que no… bueno, les estan imponiendo la idea. No me parece muy cientifico de su parte… mas bien de noticiero amarillista.

  10. El Rulo

    Siempre fui pro IA… pero al leer estos 2 parrafos, como que recalcule:
    ” Esta investigación también explica que estos bots desarrollaron su propio idioma durante el proceso (…) lo hicieron porque no se les había determinado que debían realizar la conversación en un lenguaje comprensible para humanos.”
    “(…)el robot sólo tiene una función que es cebar mate y no se le dio una entrada de información que incluya ‘matar a los humanos si interfieren”. Es decir, que entre la falibilidad humana, el curriculum secreto del mayor exponente en desarrollo de IA ( Mr Facebook) al cual algunx muy acertadamente tildo de “no tener corazon” sumado a la volatil capacidad de aprender de las logicas humanas (siempre contradictorias) de la maquina ¿es muy problable que si no se legislan ciertos parámetros a conciencia terminemos con un robot cebador nacionalista que le va a declarar la guerra a la republica hermana del Uruguay por las plantaciones de Yerba Canarias?, por que capaz se le dijo al robot que no mate pero nadie le dijo nada de NO hacer la ciberguerra economica a otro pais para conseguir las condiciones para la cebadura de un regio amargo, no?. El tema no deja de ser interesantisimo. Gracias por la nota.

    • Pablo Barragán

      Buen día El Rulo:
      Me hiciste reír a primera hora de la mañana con la ciberguerra al Uruguay así que empecemos con un: gracias .
      Lo que plantean los apocalipticos es exactamente eso: sin triki triki no hay bang gang o en un idioma más complejo, sin regulación no hay IA porque los desarrolladores de IA y los usuarios serían libres de hacer cualquier cosa y lo mas probable es que Uruguay nos gane la guerra.
      Sin embargo, la posta es que el cebador de mate universal y magnifico que hemos creado a efectos de esta nota, dada la tecnología que tenemos hoy en día, no sería capaz de nada más que cumplir la orden que le dimos. Osea, no hay que decirle que NO haga algo sino que solo hará lo que le digamos que SI haga y no va a aprender solito nada más.
      Por lo demás, cebo unos amargos buenísimos pa que se sepa.

  11. Pablo L.

    ¿Y qué pasa con el machine learning? Si las máquinas aprenden unas de otras, ¿No podrán lograr cierto nivel de autonomía como para hacer lo que les plazca? Eventualmente, ¿No podrían evaluar que somos una raza ineficaz para preservar nuestro propio planeta y decidir quitarnos de la ecuación? Claramente, soy fan de la teoría Skynet y aledaños :)

    • Pablo Barragán

      Hola Pablo! Todo lo que plantean los apocalípticos y Skynetfílicos está en condicional (“podrían”). Por supuesto que “podrían”, si existiera tal interés de parte de los desarrolladores. EL punto es que las IA no tienen voluntad propia y ni estamos cerca de crear conciencias para insertar en las máquinas. Todo lo que ocurra depende de un equipo de personas que hace un input de info sobre lo que quiere que esa IA haga (siempre tengamos en cuenta que “IA” como termino en esta nota es bastante laxo en su significado y lo usamos para representar cosas que “hacen cosas que parecen inteligentes”).
      Entonces en definitiva, por ahora, Skynet no es una posibilidad real y si lo fuera en un futuro, siempre podemos rezarle a John Connor.

  12. Nico

    Por la cita: Good Omens fue escrito por Terry Pratchett y Neil Gaiman :) Gran libro.

    El tratamiento de la nota podria ser mas profundo. Un tratamiento interesante, sobre la falta de control que las organizaciones creando las AI tienen sobre las mismas esta en esta nota de TED: https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads . Y ademas de los problemas que trae que la tecnologia se nos salga de control, como la tecnologia que vino antes (pero de una forma mucho mas grande cualitativamente) el problema aun mayor es el poder que da a algunas personas sobre muchas otras personas. En ese sentido, el planteo de Musk de llamar la atencion sobre los cambios sociales que traen aparejados que el capital pueda “prescindir” de las personas (ie: la automatizacion de los choferes por los autos autonomos) es uno de los mas inmediatos, pero no el unico.

    • Pablo Barragán

      Hola!
      Por la cita: verás que gracias a tu comentario lo cambiamos, la verdad es uno de mis libros favoritos y no entiendo cómo es que se me pasó semejante atropello a Gaiman, inexplicable.

      Por la nota: la idea original era tratar la pelea entre dos multimillonarios con prensa y desmitificar esta disputa pseudocientifica para aclarar el panorama mediático de la noticia-apocalíptica-sin-fundamentos. Para más profundidad en el tema hay unas notas re sarpadas acá mismo de autores que saben muchísimo mas que yo!
      TED: Te confieso que vi esa charla TED y me encantó, parte de lo que ella dice me inspiró para escribir la nota pero me quedaba demasiado larga y pesada si seguía agregando información ese tema da para toda una nota más.
      Musk: estoy de acuerdo con lo que decís, probablemente no sea el único problema que traiga aparejado crear una super inteligencia. Sin embargo, vuelvo a lo mismo: no vamos a tener nada que no sea intencional, no va a haber máquinas que roben trabajos o sean causa de hambruna solo por elecciones frías y cibernéticas. Debemos dejar de delegar la culpa a la tecnología y empezar a hacernos cargo de que los responsables somos nosotros.

  13. Vale

    Me preocupa que en ningún momento se mencione la idea de toma democrática de decisiones. El problema con este tema (y con casi todos a medida que el neoliberalismo avanza) es que las decisiones y el desarrollo tecnológico quedan a piaccere de los multimillonarios de turno, en una reunión de directorio cerrada a 10 , 12 seres humanos. Que además (importa) son en su mayoría hombres cis, blancos, adultos, ricos y primermundistas.
    Qué es algo que está “socialemente bien”? quién lo define? Seguro que a mí ni Zuckerberg ni Musk me preguntaron jamás.
    Y pasa con IA, con transgénicos, con leyes de gestión de recursos naturales, gestión de salud… Cada vez hay más técnicos, y no está mal que se consulte a los técnicos, pero la vida social es ante todo política, y todo técnico viene con su bolsita conceptual-ideológica, así que se precisa el balance de lo que la ciudadanía quiere, qué quiere que se desarrolle, de qué manera, hasta qué punto y con qué objetivo…
    En fin.

    • Pablo Barragán

      Hola Vale!
      En la nota nombro a Tristan Harris que se ocupa justamente de lo que estas planteando, el ataque de las empresas privadas que dominan la
      tecnología. Te dejo un link para que leas (está en ingles asi que si no tenes ese idioma en tu caja de herramientas, cualquier cosa avisame y veo como puedo hacer para traducir lo mas importante) http://www.timewellspent.io/

  14. Leandro

    A mi tampoco me gusta pero me parece que lo estás tomando medio mal. Justamente esto es una nota, que si bien surge de la investigación, no deja de ser un producto que refleja las opiniones del escritor. Subrayar y poner en negrita son herramientas para dar énfasis en lo que nosotros queremos decir, como la forma en que manejamos el tono cuando hablamos, queda en el receptor ver si le asigna o no el mismo peso a las ideas del escritor.

  15. Pablo Maril

    Excelente nota Pablo. Ha sido un gran placer leerla. Lo que encuentro en varias notas, dentro del paraguas de El Gato y… es que hay un rol muy fuerte de la divulgación/medios/promoción/influencers en todo esto.
    Y me refiero a “todo esto” con las investigaciones o los planteos científicos en general. ¿No serán los medios la verdadera Skynet del futuro?… Leí en algún momento (no recuerdo donde ni cuando) que un software de IA había logrado escribir una nota sobre algo en particular (tampoco recuerdo que, perdón) y se había publicado la nota en un medio. Ningún lector pudo notar la diferencia entre la IA y un autor mas del medio en cuestión. Dado que hoy todo es medio, ¿hasta donde lo que leemos, vemos y likeamos es humano-dependiente o IA dependiente?
    Bueno, no molesto mas.
    Excelente todo muchachos, sigan así.

    • Pablo Barragán

      Hola Pablo!
      Me alegro mucho que te haya gustado la nota! El mejor feedback para mejorar son los comentarios :D
      No se si entendí bien la pregunta, pero creo firmemente que, en definitiva, todo depende de nosotros los IA DIGO LOS HUMANOS (chiste). Hablando en serio, los humanos somos y seremos responsables de todo, incluso si los medios estuvieran dominados por IA hay alguien detrás que les da en el botón de “Start” por decirlo de algún modo.
      Los medios responden a las exigencias de los lectores y los lectores retroalimentan a los medios, tanto en la evolución del lenguaje, los formatos y la agenda de temas. Lo que es importante mantener – y me parece que este proyecto de Gato y Caja entendido como un medio de divulgación científica lo hace sin fallar nunca- es un chequeo constante y fiel de las fuentes, los datos y la línea del medio que es informar y divulgar cuestiones científicas en un lenguaje “para todos” sin ofender la inteligencia del lector ni modificar el sentido de los datos para su propio beneficio. Todo esto es hecho por humanos y es un trabajo arduo y responsable de parte de ellos.
      Igual si tenes la nota o la encontras me encantaría leerla porque lo que leí escrito por IA son cosas muy flasheras.

      Abrazo!

  16. Andres Hohendahl

    Felicitaciones, por el artículo tan neutral, dicho sea de paso… es difícil no polarizarse!
    Estoy de tu lado, hago lo mismo en cada charla que brindo, y tb. es mi misión el educar, pero no vender humo, y desmitificar los vendedores de humo, (que los hay.. son poderosos.. y son como muchos)
    Es que soy co-founder de IAAR.site (un grupo de fb, meetups, etc. que ya debes conocer) y curiosamente seguí los pasos tuyos, primero quise ser científico y hacer robots, luego terminé como ingeniero electrónico, diseñador de un lenguaje de diálogo (sí un lenguaje de verdad) con el que podemos decir a los robots como deben actuar y contestarnos, o tal vez hasta cómo debieran de pensar.. y finalmente me estoy convirtiendo en eso que siempre temí, desde lo profundo de mi ser, un escritor de cuentos y novelas.. un horror!
    Y de nuevo: felicitaciones!

    • Pablo Barragán

      Hola Andrés!
      Gracias por las felicitaciones! La nota quedó muy bien lograda gracias al aporte del equipo del Gato y en particular el asesoramiento de Valentín Muro en los aspectos técnicos. Uno empieza con la idea de contar sobre un tema y resulta que siempre es mucho más complejo de lo que pensaba, está bueno estar abierto a que te ayuden y a escuchar otras voces. Es un tema difícil de filtrar si uno no habla con personas que sepan. Si enseñas y te dedicas a esto me alegro muchísimo que estés usando tu influencia para desmitificar todo este tema y limpiar el ambiente porque si no va a ser muy complicado y, para mí, es un tema que va a ganar mucho terreno dentro de los próximos años en los medios.
      En cuanto a lo de ser escritor: ¡Buenísimo! Yo recién estoy empezando y a veces parece re sufrido escribir pero siento muy gratificante ver los escritos finales con su vida propia rompiendo caminos en el mundo, sobre todo cuando las devoluciones de las personas te hacen crecer más y más.
      Gracias por tu comentario!
      Abrazo!


Publicar un nuevo comentario