Breve historia de la IA

50min

¿Qué es la IA?

El término inteligencia artificial (IA) realmente no dice nada significativo, y justamente por eso es que existen tantas discusiones y desacuerdos sobre este término. De hecho, incluso ha significado cosas diferentes a lo largo del tiempo. 

Si le preguntamos a una empresa de marketing qué es la IA, va a decir que es lo que permite targetear mejor a sus consumidores para seguir dándoles lo que quieren. Si se lo preguntamos a una investigadora o a un computólogo, quizás pueda dar una respuesta técnica sobre cómo las redes neuronales están organizadas en decenas de capas que reciben datos etiquetados, y cómo pueden clasificar esos datos de maneras que aún no se explican completamente. Y si le preguntamos a un filósofo —cosa que hace este libro más adelante—, empezará a hablar de la naturaleza de la inteligencia hasta los aspectos éticos, sociales y futuros de la relación entre la humanidad y las máquinas. De hecho, hay autores que argumentan que la inteligencia artificial no es ni inteligente ni artificial en el sentido convencional. Más bien, la IA se ve como una entidad que combina aspectos físicos y materiales, compuesta de recursos naturales, combustibles, mano de obra, infraestructuras, logística, historias y clasificaciones. 

Enredarnos en debates sobre quién tiene la razón podría hacernos caer en una discusión sin fin. En realidad, todos tienen un punto válido. Pero, en la actualidad, cuando la mayoría de las personas usa el término, se refiere a un enfoque de las ciencias de la computación en el que les enseñamos a las máquinas a aprender y a tomar decisiones autónomas a partir de ese aprendizaje. A esto lo llamamos aprendizaje automático

Un algoritmo es un conjunto finito de instrucciones que puede seguir una máquina para lograr un determinado objetivo. Un algoritmo de aprendizaje mejora su desempeño (P) en una clase de tarea (T) mediante la acumulación y análisis de datos (D).

El aprendizaje automático implica que los humanos alimentan con enormes cantidades de datos un [algoritmo de aprendizaje] que extrae patrones y reglas, y que usa esas reglas para hacer predicciones. Hasta no hace tanto, las aplicaciones más comunes de este aprendizaje servían para que la computadora tomara decisiones basadas en reglas predefinidas (desarrolladas por humanos) o aprendiera a partir de datos (generados por humanos), pero no para que creara contenido nuevo por sí misma. Hoy sabemos que una computadora puede generar contenido nuevo, de manera automática, con mucha menos intervención humana de la que necesitaba hasta hace pocos años. Crear texto, imágenes, música u otros tipos de datos que no existían previamente es una capacidad que hoy las computadoras tienen. 

Sin embargo, no es cierto que “la máquina hace”. Más bien, “a través de la máquina, hacemos”. Claro, aunque estemos deslumbrados por lo rápido que una computadora nos ayuda a resolver una tarea, seguimos siendo nosotros quienes tomamos la decisión. Y deberíamos tener conciencia de que si la decisión no la estamos tomando nosotros, la está tomando, indirectamente, otro agente. Aunque digamos que lo hizo “la computadora”, en realidad hay personas creando esos algoritmos y generando esos datos. Es importante recordar que estos sistemas, creados por seres humanos, no son ni tan autónomos ni tan confiables; no pueden discernir por sí solos sin un extenso entrenamiento computacional con grandes conjuntos de datos, reglas y recompensas predefinidas. De hecho, la IA, tal como la conocemos, depende en gran medida de un contexto mucho más amplio de estructuras políticas y sociales. Además, debido a las considerables inversiones necesarias para desarrollar la IA a gran escala y a los objetivos que se persiguen, los sistemas de IA, en última instancia, se diseñan para servir a los intereses dominantes existentes y, en este sentido, la inteligencia artificial es un reflejo del poder y la influencia en la sociedad.

Inteligencias

Tan importante es la inteligencia para nuestra especie que nos llamamos a nosotros mismos Homo sapiens. El resultado de toda nuestra historia de actividad cerebral ha producido mucha belleza, placer y un sinfín de cosas magníficas. También nos puso frente a un problema espiralado: durante miles de años, hemos intentado comprender cómo pensamos y actuamos, es decir, cómo nuestro cerebro puede percibir, comprender y manipular un mundo mucho más grande y complicado que él mismo. No contentos con sólo intentar comprender la inteligencia, también hemos buscado replicarla. 

Es entendible que no podamos ponernos de acuerdo acerca de qué es la IA y hacia dónde se dirige su desarrollo si un problema fundamental en la inteligencia artificial es que realmente nadie sabe qué es la inteligencia. Claro está que muchas de las definiciones están fuertemente relacionadas entre sí y muestran coincidencias, como por ejemplo al caracterizar la inteligencia  como la capacidad para lograr objetivos en una amplia gama de entornos. Pero las personas diferimos entre nosotras en nuestra capacidad para comprender ideas complejas, adaptarnos eficazmente al entorno, aprender de la experiencia, participar en diversas formas de razonamiento y superar obstáculos mediante el pensamiento. Aunque estas diferencias individuales pueden ser sustanciales, nunca son completamente consistentes, debido a que nuestro rendimiento intelectual varía en diferentes ocasiones, en diferentes dominios y según diferentes criterios. Las formas de conceptualizar la inteligencia son intentos de aclarar y organizar este conjunto complejo de fenómenos.

La psicología ha estado lidiando con este problema desde que los seres humanos nos fascinamos por la naturaleza de nuestra mente. Los debates han oscilado en torno a encontrar la definición “correcta” de inteligencia y dar con la mejor manera de medirla. A lo largo de la historia se han desarrollado muchos tests o pruebas para evaluarla, pero aún es objeto de debate si estas pruebas miden un único aspecto de la inteligencia o si están de alguna manera sesgadas hacia un conjunto particular de habilidades mentales. En consecuencia, se han creado varios modelos teóricos. Uno de estos modelos sugiere que, aunque existen muchas habilidades específicas, habría algo subyacente influyendo en todas ellas: el ingrediente principal, conocido como factor G o factor general de inteligencia, un elemento en común —un algo— que estaría contribuyendo al desempeño en todas las áreas de la inteligencia. Otros modelos, en cambio, consideran que las habilidades o dimensiones de la inteligencia son independientes entre sí y que esta no es una dimensión única, sino un espacio ricamente estructurado de diversas capacidades de procesamiento de información. El debate sobre la definición de la inteligencia en el contexto de las máquinas se construyó sobre esta base endeble y esta falta de consenso. 

Dentro de estos últimos modelos, está el de Howard Gardner, quien en 1983 propuso la teoría de las inteligencias múltiples, que postula la existencia de diferentes tipos de inteligencia. Si lo tomamos como referencia, debemos admitir que los desarrollos tecnológicos han sido exitosos emulando alguna de las habilidades producto de esas inteligencias. Por ejemplo:

- La inteligencia lógica-matemática usa números, matemáticas y lógica para encontrar y comprender los diversos patrones que ocurren en nuestras vidas (patrones de pensamiento, patrones numéricos, patrones visuales, patrones de color, y así sucesivamente). Hoy las computadoras tienen capacidad para realizar cálculos lógico-matemáticos a un nivel excepcional. Calcular un resultado, realizar comparaciones y considerar relaciones son todas áreas en las que  sobresalen.

- La inteligencia verbal-lingüística implica el conocimiento que se adquiere a través del lenguaje, ya sea a través de la lectura, la escritura o el habla. Con este tipo de inteligencia podemos relacionar los avances en Procesamiento de Lenguaje Natural, un área que estudia las interacciones entre las computadoras y el lenguaje humano.

- La inteligencia corporal-kinestésica se produce a través del movimiento físico y mediante el conocimiento de nuestro cuerpo. El cuerpo “sabe” muchas cosas que no son necesariamente conocidas por la mente consciente y lógica: andar en bicicleta, bailar el vals, patear una pelota, tomar mate, o recordar dónde están las teclas en un teclado de computadora sin mirar. Los robots suelen replicar este tipo de inteligencia para realizar tareas repetitivas, a veces con una precisión superior a la de los humanos. Pueden hacer movimientos basados en sensores, algoritmos y datos, e incluso mapear su propio “cuerpo”. 

- La inteligencia visual-espacial intenta definir el conocimiento que se adquiere a través de las formas, imágenes, patrones, diseños y texturas que vemos con nuestros ojos, pero también incluye todas las imágenes que somos capaces de proyectar en nuestra mente. La IA ha logrado simular ciertos aspectos de la inteligencia visual-espacial en varios contextos. Algunos ejemplos de esto son el análisis de grandes conjuntos de datos visuales para identificar patrones, las aplicaciones de realidad aumentada y virtual para rastrear elementos visuales en tiempo real, el desarrollo de vehículos autónomos o el reconocimiento de escritura a mano. Hoy la IA también puede generar imágenes inéditas, incluso imitando estilos artísticos y creando ilustraciones basadas en datos.  

- Algo similar sucede con la generación de música inédita, capacidad que según el modelo de Gardner involucra a la inteligencia musical, que es la aptitud que tiene una persona de apreciar, diferenciar, transformar y expresar formas musicales. Hoy existen herramientas que pueden generar música nueva imitando géneros, estilos, e incluso voces.

Gardner también incluye otras inteligencias, como la naturalista, la intrapersonal o la interpersonal, que —según la definición que ofrece el modelo— tienen un fuerte componente emocional y social, incluso mayor que en el resto de las inteligencias descriptas, y que aún resultan desafiantes para las máquinas. Actualmente este modelo está mucho menos aceptado: la idea de una inteligencia general como fenómeno emergente (el mencionado factor G) es más representativa de la realidad. Pero la oposición entre estos dos modos de concebir y reformular aquello que llamamos inteligencia es relevante para entender la historia de la IA, porque si bien en algún momento se buscó crear una inteligencia artificial de propósito general, ese fue un experimento que se despriorizó para dar lugar a la exploración de habilidades humanas específicas y cómo emularlas artificialmente.01Despriorizada, pero no abandonada. Si bien imitar habilidades intelectuales humanas cobró mayor popularidad, el desarrollo de una inteligencia artificial general es un objetivo vigente. El capítulo 4 de este libro desarrolla las implicancias de estos desarrollos. De allí se desprende que hayamos tenido en las últimas décadas avances tan grandes en campos tan específicos de la IA, al mismo tiempo que esos mismos avances nos pusieron de frente (una vez más) ante el dilema de tratar de definir qué es exactamente la inteligencia humana y si esta es, de algún modo, distinta a otras. Dilema que, por supuesto, aún no está resuelto. 

¿Es la IA entonces inteligente? Depende. No hay dudas de que se ha avanzado significativamente en los últimos años. Una máquina puede mostrar algunas habilidades que equiparamos con la inteligencia humana, y en tales casos algunos autores creen razonable describir a la máquina como inteligente. Sin embargo, en muchas otras situaciones, esta visión es limitada. Por ejemplo, se ha logrado un gran avance en procesamiento de lenguaje natural, pero al menos hasta hoy las máquinas sólo pueden manejar conversaciones superficiales, y tienden a ser menos efectivas cuando se demanda una comprensión profunda o sostener conversaciones extensas. Por ello muchos autores, ante la misma pregunta, argumentan que se están dejando de lado elementos fundamentales para describir la inteligencia: cómo nos ubicamos y relacionamos en contextos más amplios, cómo influyen nuestras sensaciones, emociones y creatividad, así como también la influencia de las fuerzas sociales, culturales, históricas y políticas. 

De lo que sí podemos estar seguros es que, a medida que avance la tecnología, nuestro concepto de inteligencia continuará evolucionando con ella. Por lo pronto, en el caso de la IA, tenemos que tener presente que si bien estamos frente a algoritmos que hemos mejorado a lo largo de la historia, no dejan de ser algoritmos. De hecho, a la gente del mundo de la inteligencia artificial (las personas de computación que se dedican a esta área), no les gusta mucho que se use la palabra inteligencia. Medio que fue un chiste y quedó. 

Aspiración humana

La inteligencia artificial ha tenido varios intentos fallidos y pausas a lo largo de los años. En parte, porque las personas a menudo no entendemos realmente de qué se trata. Las películas, programas de televisión y libros han conspirado para dar falsas esperanzas sobre lo que vamos a poder lograr a través de ella. Por ejemplo, creemos que deben tener una comprensión completa del contexto social o tomar decisiones éticas y morales complejas de manera autónoma y totalmente neutral. 02Puede ser interesante detenerse en la doble vara con la que establecemos estas expectativas. Nuestra tendencia a antropomorfizar la tecnología (atribuirle características humanas) nos hace creer que la IA debería cumplir ciertos estándares que claramente no tiene a su alcance, a la vez que le ponemos objetivos que nosotros tampoco somos capaces de cumplir. Otra parte del problema es que hay muchas personas que están recibiendo grandes subvenciones con la falsa premisa de que están creando mentes artificiales. Pero ni estos sesgos, ni estos imaginarios, ni estas aspiraciones son realmente nuevos. ​​La idea de crear máquinas que puedan imitar la inteligencia humana se remonta a la Antigüedad. Desde hace muchísimos años encontramos historias, mitos y leyendas que sugieren el interés en la creación de seres no orgánicos con inteligencia o apariencia humana. Un ejemplo es Talos, personaje de la mitología griega que se parece a una máquina o ser artificial animado: un autómata. Aunque esta figura es mitológica, y no una creación real, su historia presenta elementos que se relacionan con la idea de la automatización y la creación de seres con capacidades similares a las humanas. Diseñado y fabricado por Hefesto para repeler las invasiones de Creta, Talos era un gigante de bronce “programado” para detectar extraños y recoger y tirar piedras, así como hundir cualquier barco extranjero que se acercase a las costas de la isla. Lo que hace que Talos sea interesante en el contexto de la historia de la IA es que se trata de una figura artificial con atributos humanoides, como la capacidad de moverse y actuar de manera autónoma para proteger la isla. Según algunas versiones del mito, incluso tenía una única vena que lo recorría del cuello al tobillo, remachada por un clavo que evitaba que perdiera su “fluido vital” y de esa manera fuera desactivado, lo que sugiere ciertos paralelos con las ideas de control y programación.  

En la tradición judía surge el mito del gólem, una criatura antropomorfa creada de arcilla o barro, y luego animada mediante rituales místicos o inscripciones mágicas. El propósito del gólem era proteger a la comunidad judía de amenazas externas. Paracelso, un renombrado alquimista del Renacimiento, aporta al imaginario con el homúnculo, un ser diminuto creado a partir de carbón, mercurio y fragmentos de piel, al cual se le daba vida a través de procesos alquímicos. Estas historias refuerzan la milenaria aspiración humana de crear seres con habilidades y funciones específicas, similar a cómo los humanos programamos y diseñamos sistemas de inteligencia artificial para realizar tareas particulares.

Un poquito más cerca en la historia, la novela Frankenstein de Mary Shelley, publicada en 1818, es un ejemplo icónico de la creación de un ser artificial. El Dr. Frankenstein crea un ser humano artificial a partir de partes de cadáveres y lo trae a la vida a través de la electricidad. Este relato pionero explora las consecuencias éticas y morales de la creación artificial y la responsabilidad del creador sobre su criatura, estableciendo las bases para futuras obras literarias y cinematográficas que abordan la relación entre la humanidad y sus creaciones. En un contexto más contemporáneo, la obra Blade Runner de Philip K. Dick, publicada en 1968, y su adaptación cinematográfica exploran la complejidad de la inteligencia artificial a través de los replicantes. Estos seres bioingenierizados son diseñados para emular a los humanos en apariencia y habilidades, pero nace un conflicto a partir de la cuestión de su autonomía y conciencia. Los replicantes buscan respuestas sobre su propia existencia y luchan por escapar de la limitación impuesta por sus creadores. Esta historia refleja las preocupaciones modernas sobre la inteligencia artificial, incluida la autonomía de las creaciones, la posibilidad de la conciencia y la responsabilidad ética de los que las diseñan. 

Sin embargo, hasta aquí son sólo mitos e historias. Siempre hubo una curiosidad por crear criaturas artificiales con inteligencia humana, pero para conocer mejor el devenir de la IA, necesitamos establecer un principio. Y ese principio es Alan Turing. 

El juego de imitación

Alan Turing fue un matemático, lógico y computólogo británico que vivió en el siglo XX y es ampliamente reconocido como una de las figuras más influyentes en la historia de las ciencias de la computación y la inteligencia artificial. 

Si bien la primera programadora fue Ada Lovelace, quien en pleno siglo XIX vio el potencial de las computadoras más allá de las matemáticas, fue Alan Turing quien, en 1936, publicó un paper en que sentó las bases de la computación moderna. Allí se introduce la idea de la máquina de Turing, un concepto abstracto, una máquina teórica que puede leer y escribir símbolos en una cinta infinita, moverse hacia la izquierda o la derecha en la cinta y tomar decisiones basadas en reglas predefinidas: el modelo fundamental de una computadora universal.

En 1950, Turing marcó un punto de inflexión en la disciplina, al hacer una simple pregunta: ¿puede pensar una máquina? Como era una pregunta demasiado filosófica para tener valor práctico, Turing propuso un modo concreto de abordarla: el juego de imitación. En este juego intervienen dos personas y una computadora. Una persona, el interrogador, se sienta en una sala y escribe preguntas en la terminal de una computadora. Cuando aparecen las respuestas en la terminal, el interrogador tiene que determinar si fueron dadas por la otra persona o por la computadora. Esto es lo que se conoce como la prueba o test de Turing.  

El test de Turing se basa en la idea de que una máquina es considerada “inteligente” si puede sostener una conversación de tal manera que un observador humano no pueda diferenciarla de una conversación con otro ser humano. Esta prueba se ha debatido y se sigue cuestionando muchísimo en el campo de la inteligencia artificial, ya que no es una evidencia definitiva de que una máquina pueda ser inteligente. Pero si bien no tuvo el valor práctico que se esperaba, sus repercusiones teóricas son fundamentales, y sigue siendo un concepto influyente en la evaluación de sistemas de IA. 

La conferencia de Dartmouth

Aunque fue Turing quien propuso esta prueba para determinar si una máquina era o no inteligente, recién en 1956 se acuñó el término inteligencia artificial y, lamentablemente, Turing no vivió para verlo. En junio de 1954, fue encontrado muerto en su casa, junto a su cama. Tras los exámenes correspondientes, se dictaminó que la causa de su muerte había sido envenenamiento con cianuro. Oficialmente, el hecho fue catalogado como suicidio, aunque también se debate la teoría de que puede haber sido producto de la castración química a la que estaba sometido como “tratamiento” para su homosexualidad. 03En ese entonces, la homosexualidad era considerada un delito en el Reino Unido, y Turing fue condenado en 1952. En diciembre de 2013, la Reina Isabel II le concedió el indulto a modo de homenaje por sus contribuciones.  

Dos años después de su muerte, sin Turing, pero construyendo sobre sus bases teóricas, se celebró la Conferencia de Dartmouth, un evento fundacional en la historia de la inteligencia artificial que marcó el inicio oficial de la disciplina como un campo de estudio y desarrollo tecnológico. La idea de la conferencia surgió de John McCarthy, un destacado matemático y científico de la computación estadounidense. McCarthy se dio cuenta de que varios investigadores estaban trabajando en problemas relacionados con la simulación de procesos de pensamiento humano a través de máquinas electrónicas. Esto incluía a científicos como Marvin Minsky, Nathaniel Rochester, Claude Shannon y otros. Entonces, se encargó de reunirlos para discutir sus avances y colaborar en el desarrollo de lo que él mismo, en un escrito, nombró como inteligencia artificial.

El objetivo principal de la Conferencia de Dartmouth era explorar la factibilidad de desarrollar máquinas capaces de realizar tareas que requerían aspectos de la inteligencia humana, como el razonamiento, la resolución de problemas, el aprendizaje y la comprensión del lenguaje natural

Cualquier forma de interacción comunicacional surgida espontáneamente entre humanos. El Procesamiento de Lenguaje Natural es el área del conocimiento que estudia las interacciones entre las computadoras y los humanos a partir de adecuar aquellas al lenguaje de estos.
.

Se discutieron ideas y se presentaron proyectos. Y si bien no se lograron avances significativos en ese momento, se sentaron las bases para la colaboración futura. Actualmente, se considera que la Conferencia de Darmouth es el punto de partida oficial de la inteligencia artificial como disciplina, campo de investigación y de desarrollo. A partir de ese momento, la IA comenzó a atraer la atención de académicos, científicos y financiadores.

Niños entusiasmados

La élite intelectual de la década de 1950, en su mayoría, exponía que “una máquina nunca puede hacer X”. Los investigadores en inteligencia artificial, naturalmente, respondían demostrando X tras X. Así, se concentraron en tareas consideradas —hasta el momento— propias de la inteligencia humana, como resolver juegos, rompecabezas y problemas matemáticos. John McCarthy se refirió a este período como la era de “Look, ma, no hands!” (“¡Mira, mamá, lo hago sin manos!”).

Minsky, uno de los científicos que participó en la Conferencia de Darmouth, armó su laboratorio de investigación en el MIT (Massachusetts Institute of Technology, uno de los institutos más prestigiosos en desarrollo de tecnología), y con su grupo atacó varias de esas X, o dominios limitados, que llamó micromundos. Entre los proyectos que lideró Minsky en este período, se destacan los programas SAINT, ANALOGY y STUDENT. SAINT pudo resolver problemas matemáticos de cálculo de integración simbólica “aproximadamente al nivel de un buen estudiante de primer año de universidad”, y utilizando los mismos métodos, según el artículo científico que lo presenta. ANALOGY resolvía problemas de analogía geométrica, preguntas que se incluían en los tests de coeficiente intelectual. Por su parte, STUDENT resolvía problemas algebraicos de enunciado, típicamente del estilo “si la cantidad de manzanas que Daniel cosecha es el doble del cuadrado del 20% de la cantidad de árboles que tiene, y tiene 10 árboles, ¿cuántas manzanas cosecha?”. Este programa fue muy importante porque fue el primero en procesar lenguaje natural, ya que entendía y resolvía enunciados en inglés. 

Otros trabajos, como el General Problem Solver (GPS, o Solucionador de problemas de propósito general), desarrollado por Newell y Simon en 1959, marcaron las bases para posteriores desarrollos. El GPS se basa en la idea de la búsqueda heurística, que implica la exploración de soluciones posibles mediante la aplicación de reglas heurísticas o estrategias basadas en la experiencia y el conocimiento. Por cada problema, se le daba un conjunto de operaciones, precondiciones y poscondiciones, y a partir de ello GPS intentaba reducir las diferencias entre el estado inicial y el objetivo. Como en otras historias de ciencia, GPS no cumplió las expectativas de sus creadores, pero dejó muchos beneficios. Fue el programa precursor de lo que luego conoceremos como sistemas expertos

Ampliación de los algoritmos para decirle a una computadora lo que tiene que hacer de formas más flexibles que las instrucciones paso a paso. Los sistemas expertos recopilan el conocimiento de expertos humanos para emular su razonamiento.

De los trabajos que emergieron en este período, uno de los más influyentes a largo plazo fue un programa —desarrollado por Arthur Samuel en 1959— que podía jugar a las damas. Usaba métodos muy revolucionarios para la época, muy similares a lo que hoy llamamos aprendizaje por refuerzo

Tipo de aprendizaje que implica que la máquina aprenda a través de la interacción con un entorno dinámico. Un programa toma decisiones y recibe recompensas o penalizaciones en función de las acciones que realiza. El objetivo es que aprenda a maximizar la recompensa total a lo largo del tiempo.
, y si bien nunca pudo ganarle a la persona más experta en ese juego,  desafió la idea establecida de que las computadoras solamente podían hacer lo que se les decía: lo más interesante de este programa es que era capaz de mejorar su nivel de juego a medida que jugaba.  

Un largo invierno

Para sorpresa de nadie, en ese entusiasmo precoz por la inteligencia artificial y durante esos primeros intentos por lograr que las máquinas “piensen”, se hicieron muchas promesas futuristas bastante difíciles de cumplir. Por ejemplo, en 1957, el economista e informático teórico Herbert Simon prometió que, en diez años, una computadora iba a ser campeona mundial de ajedrez (si el reglamento lo permitía) y que las computadoras iban a ser capaces de descubrir y demostrar nuevos teoremas matemáticos. Sobre estas promesas, a principios de los años 90, los libros sobre inteligencia artificial reclamaban que “el campeón mundial de ajedrez sigue siendo un ser humano. El premio de cien mil dólares a una computadora por el descubrimiento de un nuevo teorema matemático sigue sin ser reclamado”. 

Lo que ocurrió fue que, en los años 50 y 60, hubo una excesiva confianza en los desarrollos a futuro. Confianza fundada en un rendimiento muy prometedor de los primeros sistemas de IA y la emocionante creencia de estar creando mentes. Sin embargo, en casi todos los casos, cuando se probaron en problemas más difíciles, estos primeros sistemas resultaron ser un fracaso. El primer tipo de dificultad surgió porque los programas no sabían nada sobre el problema que estaban resolviendo. Estos programas lograban completar una tarea, principalmente, interpretando y manipulando la estructura gramatical de la información con la que estaban trabajando. Lamentablemente, estas técnicas no resuelven problemas más complejos que requieren, al menos, entender un contexto. Un ejemplo de este fracaso estrepitoso fue el desarrollo de los traductores automáticos de idiomas. A fines de los 60, los científicos de la IA ya se habían topado con el desafío de la traducción automática. Como para ese entonces, las computadoras ya traducían cifrados de códigos secretos (aplicación que sirvió en la Segunda Guerra Mundial), los científicos pensaban que traducir idiomas no podía ser tan complicado. ​​Sin embargo, el procesamiento del lenguaje natural, a diferencia de los lenguajes artificiales de cifrado y los lenguajes de programación, resultó ser mucho más difícil. Los resultados que estas computadoras proponían eran sumamente ridículos. Cuenta la historia que la frase en inglés “The spirit is willing, but the flesh is weak” (“el espíritu está dispuesto, pero la carne es débil”) fue traducida al ruso y luego traducida de nuevo al inglés como “The whiskey is strong, but the meat is rotten” (“el whisky es fuerte, pero la carne está podrida”). Así, esta línea de investigación, financiada principalmente por el departamento de Defensa de Estados Unidos, fue dramáticamente cerrada y desfinanciada. 

La segunda dificultad fue la intratabilidad de muchos de los problemas que la inteligencia artificial intentaba resolver. La mayoría de los primeros programas de IA resolvían problemas probando diferentes combinaciones de pasos hasta encontrar la solución. Esta estrategia funcionaba inicialmente porque los micromundos a los que se dedicaban contenían muy pocos objetos y, por lo tanto, muy pocas acciones posibles y secuencias de soluciones muy cortas. En ese momento se pensaba que “escalar” a problemas más grandes era simplemente cuestión de hardware más rápido y memorias más grandes. El optimismo duró poco: cuando intentaron usar estas técnicas combinatorias para la resolución de teoremas con más de apenas cuarenta o cincuenta proposiciones, fracasaron. El hecho de que un programa pudiera encontrar una solución a un problema no significaba que el programa tuviera los mecanismos necesarios para abordar problemas del mismo tipo, pero mucho más complejos. Esta complejidad, en algunos casos, generaba una “explosión combinatoria”, donde la cantidad de combinaciones posibles para poder resolver un problema crecía de manera exponencial. Aunque las malas lenguas dicen que la historia tiene más que ver con ambiciones políticas y animosidades personales, al parecer el gobierno británico basó su decisión de quitar la mayor parte del apoyo a la investigación en inteligencia artificial en un informe publicado en 1973 por el Consejo Británico de Ciencia e Investigación, el cual, justamente, advertía sobre esta incapacidad de resolver problemas más complejos. 

Si bien no hay consenso absoluto sobre las fechas, a este período de desfinanciamiento y decepciones se lo conoce como el AI Winter

Concepto que se utiliza para referir a cualquier período medianamente sostenido de reducción de fondos e interés en la investigación de la inteligencia artificial. Funciona en resonancia con el término <em>invierno nuclear</em>.
o el invierno de la inteligencia artificial. Sin embargo, a pesar del desaliento, muchos investigadores siguieron empujando una agenda hacia la creación de máquinas que permitieran a las personas hacer tareas “sin las manos”. 

Sistemas expertos

El enfoque de buscar y crear soluciones genéricas a problemas no escaló. La alternativa fue generar sistemas con conocimiento específico que permitieran razonamientos más extensos y pudieran manejar con mayor facilidad casos que suelen ocurrir en áreas especializadas. Podría decirse que, para resolver un problema difícil con una computadora, casi que tenías que conocer la respuesta de antemano. Además, el almacenamiento de datos era muy costoso y limitado, y seleccionar conocimiento específico y validado era una forma de usar con mayor eficiencia los recursos de memoria de una computadora. Es a partir de este nuevo enfoque que surgen los sistemas expertos. 

Los sistemas expertos fueron el primer intento de ampliar el concepto de algoritmo. Hasta ese momento, se conocía que un algoritmo era un conjunto ordenado de operaciones y de pasos, con instrucciones fijas y específicas. Tradicionalmente, para escribir una aplicación, teníamos que decirle a una computadora exactamente qué hacer, paso a paso. Después la computadora se encargaba de ejecutar ese programa, siguiendo cada paso mecánicamente para lograr el objetivo final. No le decíamos solamente qué hacer, sino también cómo hacerlo. Lo que se buscó con los sistemas expertos fue crear formas más flexibles de decirle a una computadora lo que tenía que hacer. Los sistemas eran expertos porque se especializaban en un área particular, recopilando el conocimiento de expertos humanos que volcaban en el sistema información clave sobre un área específica de conocimiento, tomándola de libros, del aprendizaje de otras personas o del conocimiento propio. Básicamente, fue una forma que se encontró de externalizar o inmortalizar el conocimiento experto en una máquina. 

Un ejemplo de uno de los primeros sistemas de este tipo es MYCIN, un sistema para diagnosticar enfermedades relacionadas con la

coagulación sanguínea o infecciones causadas por algunas bacterias. MYCIN recomendaba la dosis correcta de antibióticos usando más de 500 reglas. Cuando no había suficiente información —por ejemplo, cuando faltaban pruebas de laboratorio— MYCIN iniciaba un diálogo consultivo haciendo preguntas relevantes para llegar a un diagnóstico y tratamiento seguros.

Los sistemas expertos persisten hasta el día de hoy. Existen en sistemas de diagnóstico médico y en sistemas de análisis financiero. También en usos más cotidianos como los asistentes virtuales o sistemas de recomendación de viajes. Cuando un sistema experto toma una decisión, es importante mirar cómo el sistema llegó a esa respuesta. Esto es especialmente importante en situaciones como la calificación crediticia o la detección de fraudes, por ejemplo, donde las personas necesitan entender por qué se tomó una decisión que puede tener un impacto significativo en sus vidas. Por eso, la transparencia en el proceso de toma de decisiones es esencial para quienes se ven impactados por esas respuestas, pero también para quienes toman decisiones a partir de esa información. Todo esto para decir que, aunque contemos con multitud de sistemas expertos, en la actualidad aún necesitamos de una persona de carne y hueso tomando decisiones a partir de las respuestas que esos sistemas ofrecen. 

Invierno otra vez

Hasta este momento de la historia, los sistemas de IA se reducían al ámbito científico y a fantasías futuristas. Esto es esperable, dado que hasta ese momento las computadoras estaban confinadas al ámbito académico. Pero a fines de los 70 y comienzos de los 80, las computadoras empezaron a popularizarse, a salir de los laboratorios y a llegar primero a las empresas y después a las casas de las personas para convertirse, finalmente, en un dispositivo electrónico de consumo masivo. 

La IA naturalmente se subió a esta ola, y a principios de los 80 ya se empezaron a hacer los primeros experimentos comerciales de programas de IA. Lo curioso de esta historia es la recursividad: el primer sistema experto comercial exitoso (lanzado en 1982) tenía la función de asistir a los pedidos de los sistemas de computadoras de la empresa DEC (Digital Equipment Corporation), seleccionando los componentes del sistema de acuerdo a los requerimientos del cliente. Es decir, se usaba para vender computadoras y de esa manera subir las ganancias de la empresa.  

En general, la industria de la inteligencia artificial pasó de unos pocos millones de dólares en 1980 a miles de millones de dólares en 1988, incluyendo cientos de empresas que construían sistemas expertos, robots, software y hardware especializados para estos fines. 

Aunque, después de épocas de vacas gordas, se vino un segundo invierno. Otra vez, por no cumplir con promesas extravagantes. La contracara de estas grandes promesas fueron grandes críticas y escepticismo. De hecho, los sistemas expertos estaban lejos de ser considerados inteligentes. Un artículo de 1984 de la revista Forbes (revista popular del mundo de los negocios) decía: 

A pesar de sus orígenes en la investigación de inteligencia artificial, los sistemas expertos no son mucho más “inteligentes” que muchos programas informáticos convencionales. De hecho, los sistemas expertos muestran menos de las características clásicamente asociadas con la inteligencia, como la capacidad de aprender o discernir patrones en medio de la confusión, en comparación con los programas de descifrado y ayuda en la toma de decisiones que surgieron por primera vez durante la Segunda Guerra Mundial… Los tipos de aplicaciones en los que es probable que los sistemas expertos mejoren a los expertos humanos son muy especializados y muy pocos.

De nuevo, los fríos y los calores estuvieron decretados por intereses económicos, ahora no sólo de gobiernos, sino también, desde entonces, fuertemente influenciados por empresarios e inversionistas. Sin embargo, en medio de esta última ola polar, el área se sometió a una transformación importante: la de enmarcarse dentro del método científico. A fines de los 80, se volvió más común construir sobre teorías existentes en lugar de proponer nuevas, enfocándose los esfuerzos en respaldar afirmaciones con teoremas rigurosos o una metodología experimental sólida. Este fue el escalón necesario para el avance de la historia. 

Las máquinas de aprender

Para principios de los 90, los hielos invernales se empezaron a descongelar y el terreno se puso más fértil para nuevos desarrollos. Paralelamente al desarrollo de la IA simbólica —la que buscaba imitar la inteligencia humana como si fuese una computadora procesadora de símbolos (la línea de investigación que se seguía para los traductores automáticos, por ejemplo)—, se desarrolló otra línea de investigación que se basaba en modelar la estructura biológica del cerebro humano, compuesto por redes neuronales

Si bien las primeras investigaciones se hicieron en la época de fervor e incipiente entusiasmo por la IA, el primer invierno frenó esos avances, que vieron su resurgir a fines de los 80. En ese entonces, científicos no sólo del campo de las ciencias de la computación, sino también de la psicología, redescubrieron y popularizaron un método llamado retropropagación

Una pequeña pausa aquí para aclarar algunos conceptos antes de seguir avanzando en la historia: una red neuronal artificial es exactamente lo que el nombre indica, un montón de neuronas conectadas, con la salvedad de que esas neuronas son artificiales y viven en una computadora, al igual que sus conexiones. 04Claro que las neuronas artificiales no son neuronas realmente, sino que utilizamos esta palabra para poder describirlas de algún modo, más o menos metafórico, a partir de la función que cumplen. En el próximo capítulo, Tomás Balmaceda ahonda sobre el problema de utilizar conceptos del orden de lo humano para nombrar estas tecnologías. Las [redes neuronales] se organizan en capas. La capa de entrada recibe datos, la capa de salida produce la respuesta de la red y las capas intermedias, llamadas capas ocultas, procesan la información entre la entrada y la salida. Es decir, estas redes aprenden a partir de datos de entrada, para predecir una salida. 

Lo revolucionario del método de retropropagación fue que el algoritmo permitía a la red neuronal “ir para atrás” y aprender de sus propios errores, retroalimentándose de su propia experiencia. Este avance resolvió muchas de las limitaciones del campo hasta el momento y creó un resurgimiento en la investigación del aprendizaje profundo.      

Para principios de los 90, ya habíamos creado máquinas con neuronas (artificiales) que podían aprender a partir de datos y de su propia experiencia. Todo ese conocimiento obtenido y avanzado sobre máquinas capaces de aprender hizo florecer una verdadera primavera en la historia de la IA. En esta década surge el aprendizaje automático, reconocido como un campo propio, que se abrió camino y se diferenció del objetivo de lograr imitar la inteligencia humana en su totalidad. Su objetivo pasó a ser, en cambio, el de abordar problemas solucionables de naturaleza práctica. Se abandonaron los enfoques simbólicos que se habían heredado de los comienzos de los trabajos en inteligencia artificial y se buscó centrarse en métodos y modelos tomados de la estadística, la lógica difusa y la teoría de la probabilidad.

Llegamos a 1997, momento en el que una computadora, la Deep Blue, derrotó al campeón de ajedrez Garry Kasparov. Esa promesa a diez años que había hecho Simon en 1957 finalmente tardó cuarenta años en hacerse realidad. Pero sucedió. 05Es importante destacar que la victoria de Deep Blue fue conseguida después de una primera derrota frente al ajedrecista, y fue el resultado de una combinación de hardware y software especializados, así como de una estrategia específica para enfrentarse a Kasparov. Y aunque para ese entonces el campo de la IA había conseguido algunos de sus objetivos más antiguos, había poco acuerdo sobre las razones por las que la IA no lograba cumplir el objetivo de una inteligencia a nivel humano con la que se soñaba en la década del 60. Estos factores ayudaron a que la investigación se dividiera en subcampos con enfoques particulares. Así, la IA se volvió más cautelosa y exitosa que nunca.   

En la década de los 90 el aprendizaje automático comenzó a usarse en la industria tecnológica, pero muy detrás de escena. Aun así, estaba bastante lejos de ser popular en el mundo empresarial. Algunos algoritmos desarrollados originalmente por investigadores en IA empezaron a aparecer como partes de sistemas más grandes. La IA había resuelto problemas muy difíciles, y sus soluciones resultaron ser útiles para nuevos desarrollos de la industria tecnológica, como en el área de logística, diagnósticos médicos y el motor de búsqueda de Google. 

El aprendizaje automático permite a las máquinas mejorar su rendimiento a medida que adquieren más datos y más experiencia. Esto significa que la capacidad de una máquina para resolver un problema sin intervención humana constante puede adaptarse y mejorar con el tiempo. Contrario a los algoritmos tradicionales, no está diseñado como una serie de pasos predefinidos aptos para resolver un problema, sino que, por lo general, el aprendizaje automático se ocupa de problemas que los humanos no sabemos cómo detallar en pasos, pero que resolvemos naturalmente. Un ejemplo es diferenciar muffins de chihuahuas en imágenes o palabras determinadas (digamos, adjetivos) en una conversación hablada. 

La idea central detrás del aprendizaje automático es la posibilidad de representar la realidad usando una función matemática que el algoritmo no conoce de antemano, pero que puede adivinar después de ver algunos datos. El aprendizaje es puramente matemático y termina asociando ciertas entradas con ciertas salidas. A este proceso de aprendizaje, muchas veces, se lo conoce como entrenamiento porque el algoritmo se entrena para coincidir cada vez más con cada entrada ofrecida. 

En el pasado, por ejemplo, un programa Sumar recibía dos números, el 1 y el 2, y como resultado te devolvía un 3. Conocemos el proceso (la suma) y le pedimos al algoritmo que nos devuelva un resultado. El aprendizaje automático da vuelta este proceso. En este caso, sabría que tiene entradas, como 1 y 2, y sabría que el resultado es 3. Sin embargo, no sabría qué función aplicar para crear el resultado deseado. Durante el entrenamiento, se le daría a un algoritmo aprendiz muchísimos ejemplos de pares de entradas y resultados esperados, y gracias al aprendizaje automático, el algoritmo usaría esa data para crear una función. 

Todo en el aprendizaje automático gira en torno a los algoritmos. El dominio y la complejidad del problema que queremos resolver va a determinar el tipo de algoritmo necesario, pero la premisa básica es siempre la misma: resolver algún tipo de problema, como conducir un vehículo o jugar al dominó. En este momento de la historia, con los algoritmos de aprendizaje automático como estrellas, la IA se aleja un poco de su carácter de “artificial”: son grandes equipos de profesionales de carne y hueso los que trabajan desarrollando estos sistemas, la gran mayoría financiados por corporaciones, todas ellas lideradas por personas de carne y hueso, mayoritariamente hombres blancos viviendo en el norte global.

El petróleo del siglo XXI

Con la revolución del aprendizaje automático, los datos pasaron a ser el corazón de la IA. Hace quizás unos veinte o treinta años teníamos un poco de datos. Pero con la cantidad de dispositivos y aplicaciones, y principalmente, con la popularización de internet, esta cantidad de datos empezó a crecer a magnitudes monstruosas. Algunos ejemplos de datos son texto, imágenes, o sonidos. Esto nos suena más intuitivo, ya que somos un poco más conscientes de que generamos datos cuando llenamos un formulario, grabamos un audio, o enviamos una foto. Pero también, en nuestras interacciones con cualquier dispositivo, una computadora o un celular, estamos generando datos. El tiempo que nos quedamos mirando la foto de la persona famosa que nos gusta, la cantidad de veces que miramos eso que nos queremos comprar, si seguimos en determinada pantalla o si salimos de ahí, todo el tiempo estamos generando datos, información que detalla casi todos los aspectos de nuestra interacción con los dispositivos, y lo hacemos casi sin darnos cuenta.

En 1998, a estos grandes volúmenes de datos se les dio el nombre de big data. Desde una perspectiva técnica, big data se refiere a cantidades grandes y complejas de datos generados por computadoras, tan grandes y complejas que las aplicaciones no pueden lidiar con ellas simplemente agregando capacidad de almacenamiento o procesamiento de una computadora. 

Esta revolución de los datos ha derivado en el desarrollo de algoritmos de aprendizaje diseñados especialmente para aprovechar conjuntos de datos muy grandes. Estos datos pueden venir etiquetados, es decir, con un trabajo humano previo de categorización, o no etiquetados, es decir, el dato crudo. Esto generó el desarrollo de algoritmos de aprendizaje supervisado y no supervisado. 

​​El aprendizaje no supervisado es parecido a los métodos usados por los humanos para determinar que ciertos objetos o eventos pertenecen a la misma clase. Algunos sistemas de recomendación de productos usados en marketing se basan en este tipo de aprendizaje. El algoritmo de automatización de marketing deriva sus sugerencias de lo que compramos en el pasado o miramos en redes sociales. Las recomendaciones se basan en una estimación de a qué grupo de clientes el usuario se parece más y después se infieren sus preferencias probables en función de ese grupo.

En cambio, en el aprendizaje supervisado un algoritmo aprende a partir de datos de ejemplo y respuestas objetivo asociadas. Esta respuesta puede ser un valor numérico o una etiqueta de texto, como clases o categorías, con el fin de predecir más adelante la respuesta correcta cuando se le proveen nuevos ejemplos. Por ejemplo, lo que se usa para detectar fotos pornográficas que no están autorizadas en aplicaciones. En este mismo ejemplo, son humanos quienes categorizan los datos de entrada para que el algoritmo pueda aprender a reconocer aquellas fotos que tiene que filtrar. 

El uso de conjuntos de datos más grandes en el aprendizaje automático trajo beneficios significativos. Los modelos de aprendizaje automático suelen mejorar su capacidad de generalización cuando se entrenan con conjuntos de datos más grandes,06Es importante destacar que el hecho de tener un conjunto de datos más grande no garantiza automáticamente mejores resultados. También es crucial contar con un diseño experimental sólido, selección adecuada de características, optimización de parámetros y otros aspectos relacionados con la configuración del modelo y el proceso de entrenamiento. y pueden aprender patrones más complejos y capturar una mayor variedad de características y escenarios, lo que permite a los modelos aprender de manera más completa y representativa. Sin embargo, toda esta explicación está aquí para conducirnos a dos cuestiones interesantes que aparecen en este momento de la historia de la IA, junto con la disponibilidad de grandes cantidades de datos y el potencial económico de estos desarrollos. Primero, con la masividad de datos se empiezan a evidenciar los sesgos. Y segundo, con el crecimiento económico del área, los desafíos de poder. 

El concepto de sesgo viene de la estadística y hace referencia a errores o asimetrías sistemáticas que distorsionan los datos o los análisis sobre ellos. Es un término usado para describir estadísticas que no proporcionan una representación precisa de la población. Los sesgos también pueden generarse de manera inconsciente, por omitir o por asumir ciertos supuestos como verdades, y pueden originarse en cualquiera de las etapas de la recolección de determinados datos. En la fase inicial del proceso, el diseño del proyecto juega un papel muy importante, ya que la formulación de preguntas sesgadas —es decir, que favorezcan determinada respuesta— o la falta de consideración de ciertos factores pueden influir en la calidad de los datos recopilados. La identificación de la muestra también es clave, ya que una selección inadecuada puede llevar a una “representación no representativa” de la población objetivo. Además, los sesgos pueden generarse durante el análisis de los datos, donde la elección de determinadas variables o métodos estadísticos puede sesgar los resultados. La falta de uniformidad en la recopilación o presentación de datos también puede distorsionar las conclusiones y limitar la generalización de los resultados.

En algunos casos, la recopilación de datos en sí misma puede estar sesgada. Por ejemplo, si un algoritmo de reconocimiento facial se entrena principalmente con imágenes de personas de una determinada etnia o género, seguramente tendrá dificultades para reconocer con precisión a personas de otras etnias o géneros. En 2010, una familia taiwanesa americana reportó un error en su cámara de fotos Nikon: cada vez que se sacaban una foto sonriendo, aparecía en la pantalla un mensaje preguntando “¿Alguien parpadeó?”. Nadie lo había hecho, así que asumieron que la cámara estaba rota. La cámara no estaba exactamente “rota”, pero su software de detección de rostros era muy inexacto. El algoritmo probablemente había aprendido a determinar el parpadeo a partir de un conjunto de datos de mayoría de rostros caucásicos. 

Un mensaje de error en una cámara hogareña puede ser algo relativamente inofensivo, pero es síntoma de un problema más grande. Los sistemas de IA que se usan para identificar, por ejemplo, a una persona potencialmente criminal en una estación de tren se tuvieron que entrenar con descripciones de personas que alguna vez cometieron actos criminales. Estos datos están, generalmente, cargados de prejuicios que reflejan desigualdades históricas, y por lo tanto, los sistemas que se alimentan de ellos están sesgados. En este caso en particular el fenómeno es más grave, dado que se trata de sistemas con los cuales vamos a tomar decisiones del orden público. Para citar un ejemplo, en 2016, la organización ProPublica denunció groseros sesgos raciales en los resultados del software COMPAS, que se utiliza para informar las decisiones sobre quién puede ser liberado en cada etapa del sistema de justicia penal, desde la asignación de pagos de fianza, hasta decisiones aun más fundamentales sobre la libertad de los acusados. Estos sistemas, que se alimentan de archivos criminales históricos, toman datos personales (entre ellos, las fotos de las personas) para asignar un puntaje a las personas que acaban de cometer un crimen. Ese puntaje intenta predecir la probabilidad de que una persona reincida. En algunos estados de Estados Unidos, los resultados de tales evaluaciones se daban a los jueces durante la sentencia penal. Analizaron el puntaje asignado a más de 7000 personas arrestadas en Broward County, en Florida, y contrastaron contra la cantidad de personas que efectivamente fueron acusadas por nuevos cargos en los años siguientes. Solamente el 20% de las personas a las cuales el sistema acusó de futuros reincidentes efectivamente cometieron algún crimen. Sumado a este elevado número de falsos positivos (en este caso, indicar erróneamente la reincidencia), existía mayor probabilidad de que la fórmula señalara falsamente a los acusados negros como futuros delincuentes, etiquetándolos de forma errónea de esta manera a casi el doble de tasa que los acusados blancos. Como si esto no fuera suficientemente discriminatorio, los acusados blancos fueron mal etiquetados como de bajo riesgo con mayor frecuencia que los acusados negros. 

Esto no es en absoluto un problema lejano, atribuible únicamente a Estados Unidos. Estos sistemas se usan actualmente en muchas ciudades del mundo para reducir la criminalidad, reproduciendo similares sesgos. En Brasil, el 90% de las personas arrestadas porque fueron capturadas en cámaras y sistemas de reconocimiento facial eran negras.

Echarles la culpa a las máquinas que aprenden sería la salida fácil. El sesgo de los sistemas de inteligencia artificial se puede prevenir y también arreglar. Para ello es necesario que quienes crean y usan estos sistemas monitoreen continuamente la calidad de sus resultados y estén dispuestos a “ajustar” las técnicas a través de las cuales la máquina aprende. Pero las máquinas están construidas por personas. ¿Quiénes son estos humanos? Los datos que se usan para alimentar estos sistemas están cargadísimos de patrones históricos de discriminación, sí, pero a eso se le suma que los equipos que construyen tecnología son muy poco diversos. A fines del 2023, la empresa Google reportó que sólo el 33% de sus colaboradores son mujeres, 07Entendemos que el género de una persona puede asumir valores no binarios, pero no todas las instituciones y empresas reportan géneros diferentes al femenino o masculino. Para más detalles, se puede visitar el reporte anual de diversidad de Google. y la junta directiva de OpenAI (la empresa detrás de las famosas herramientas ChatGPT y Dall-e)08A fines de 2022, OpenAI lanzó su producto ChatGPT, una herramienta capaz de entender y generar texto en lenguaje natural. Se trata de un chatbot (un programa de conversación automatizada) que puede responder preguntas, mantener conversaciones y generar contenido coherente y relevante. Si bien los usuarios ya veníamos interactuado con chatbots (uno de sus usos más comunes son los chats automáticos de centros de ayuda o los asistentes virtuales), teníamos que usar instrucciones o palabras específicas para que el programa pudiera cumplir con la tarea solicitada, mientras que con ChatGPT la interacción se volvió más natural y contextual, permitiendo conversaciones más fluidas y comprensión intuitiva. Para febrero de 2023, ChatGPT ya había llegado a los 100 millones de usuarios, obteniendo el récord de adopción en la historia de la industria tecnológica. Con menos popularidad que ChatGPT, pero igual de revolucionario, en 2021 la empresa había lanzado Dall-e, un sistema que genera imágenes a partir de texto, donde solamente es necesario describir lo que uno quiere para que genere una imagen de la nada (bueno, en realidad a partir de miles y miles de datos). está compuesta sólo por hombres blancos. En consecuencia, por lo general, no hay gente en esos equipos que pueda detectar esos errores. Faltan miradas, perspectivas y puntos de vista en cada una de las actividades de construcción de tecnología, que van desde la identificación de un problema o necesidad, hasta la distribución e implementación, pasando por varias etapas de desarrollo en la que intervienen, en su gran mayoría, equipos técnicos.

Se dice que los datos son el petróleo del siglo XXI. La analogía es certera: del mismo modo en que el petróleo crudo tiene que refinarse para convertirse en productos útiles, los datos crudos necesitan procesamiento y análisis para obtener información valiosa y aplicable. Hace un siglo, los que pudieron sacar el petróleo del suelo acumularon gran riqueza, establecieron cuasimonopolios y construyeron la economía futura a partir de su propio recurso precioso. Hoy, las grandes empresas tecnológicas (que tienen a disposición cantidades colosales de datos) están haciendo algo similar, aunque con una diferencia: hay una cantidad finita de petróleo en el mundo. Los datos, en cambio, son virtualmente infinitos.

Millones de personas

Las aplicaciones del aprendizaje automático y otras áreas derivadas de la inteligencia artificial, como la robótica, se expandieron vertiginosamente hasta llegar a usos muy populares. En 2002 se creó el primer robot para el hogar con éxito comercial: una aspiradora llamada Roomba, que a partir de una serie de sensores (táctiles, ópticos y acústicos) puede, entre otras cosas, detectar obstáculos, acumulaciones de residuos en el suelo y escalones. Y también mandar a la central un montón de información sobre la distribución interna de departamentos y muebles, aspirando muchos más datos que polvo. 

En la década del 2010 hubo varios factores que alentaron la creación de algoritmos más potentes, conocidos como deep learning o de aprendizaje profundo, nombre que viene del uso de muchísimas capas para desarrollar ese aprendizaje. Estos factores fueron, por un lado, el avance de hardware especializado, con menos costo de energía, y por el otro, el aumento de datos abiertos y el surgimiento de call centers (servicios que emplean personas trabajando por muy poco dinero para hacer una tarea muy repetitiva de etiquetado de datos). 

Aplicaciones como las de reconocimiento facial, de traducción de idiomas o asistentes virtuales cobraron popularidad y atractivo en este momento. En 2016, el sistema AlphaGo de DeepMind se coronó maestro de go tras vencer al campeón mundial, Lee Sedol. Este solo hecho pone en perspectiva la explosión que tuvo el desarrollo de IA porque permite compararlo con la victoria que tuvo DeepBlue ante el campeón de ajedrez en 1997: mientras que en el ajedrez hay alrededor de 30 movimientos posibles por cada turno, en el go hay un promedio de 300. 

Los avances en aprendizaje profundo y la precisión en los resultados de estos algoritmos dependen en gran medida de un hardware más potente y de la disponibilidad de grandes cantidades de datos de entrenamiento. Ambas cosas requieren recursos computacionales gigantes que, a su vez, requieren un consumo de energía igualmente sustancial. Como resultado, estos modelos son costosos de entrenar y desarrollar, tanto desde el punto de vista financiero (debido al costo del hardware, electricidad o tiempo de procesamiento) como desde el punto de vista ambiental (debido a la huella de carbono necesaria para alimentar el hardware de procesamiento). Un estudio del año 2019 demostró que entrenar solamente un modelo de procesamiento de lenguaje natural emite más de 300.000 kilogramos de dióxido de carbono, equivalente a lo consumido por cinco autos durante toda su vida útil (incluida su fabricación) o 120 vuelos ida y vuelta de Buenos Aires a Londres. 

Con la proliferación de usos de deep learning comenzó a evidenciarse la relación directa que hay entre la IA y el mundo físico. En contraposición, lo que se ha invisibilizado son las personas. Por ejemplo, se popularizaron plataformas como Amazon Mechanical Turk, cuyo objetivo es resolver grandes volúmenes de trabajo que demandan mucho tiempo, divididos en tareas más pequeñas que pueden ser completadas rápidamente por millones de personas de todo el mundo. Etiquetar a mano un millón de imágenes puede ser ejecutado por mil personas anónimas trabajando en paralelo, a razón de mil imágenes por persona.09Las personas que revisan contenido de asesinatos, suicidios o abusos sexuales pueden llegar a sufrir ansiedad, depresión y trastorno de estrés postraumático debido a la exposición constante a estos contenidos perturbadores.   0 Y más aún, a un precio asequible incluso para una universidad: esta plataforma paga apenas pocos centavos por cada tarea completada. Detrás de esos algoritmos —lejos de la artificialidad, pero muy fuera de nuestra vista— hay miles de personas trabajando y, en general, en condiciones laborales precarizadas.  

Las máquinas de inventar

El éxito del aprendizaje profundo provocó un fuerte interés por la IA entre empresas, inversores, estudiantes, universidades, gobiernos, medios de comunicación y el público en general. Hoy, parece que cada semana hay noticias de una nueva aplicación de IA que se acerca o supera el rendimiento humano. 

En 2014 se corrió un poco el límite de lo posible y se les enseñó a las máquinas a inventar. lan Goodfellow, un científico estadounidense, presentó las redes generativas adversarias (GAN) que utilizan dos redes neuronales enfrentándose una contra la otra para generar nuevas instancias de datos. Hasta entonces, a través de las máquinas podíamos clasificar, detectar, ordenar, traducir, pero la generación de nuevo contenido era algo exclusivo de los humanos. Con una disponibilidad abismal de datos, a la fecha de la publicación de este libro, los últimos desarrollos de IA accesibles al público general permiten generar texto, código, imágenes, canciones, sonidos, voces, entre otras cosas. Contenido inédito, basado en los millones de datos de entrada disponibles. Y, por supuesto, esto vino con un precio: la creciente preocupación por la privacidad y la ética, ya que el uso masivo de datos para alimentar los algoritmos de inteligencia artificial plantea interrogantes sobre la seguridad de la información personal y la toma de decisiones automatizada sin un análisis humano adecuado. A su vez, la proliferación de herramientas de generación de contenido ha desencadenado una crisis en la propiedad intelectual, con desafíos legales para determinar la autoría y autenticidad de obras generadas por inteligencia artificial. Además, la difusión de noticias falsas y la manipulación de imágenes plantean serios dilemas éticos y sociales, y destacan la necesidad de desarrollar mecanismos efectivos para detectar y mitigar la propagación de información engañosa en la era de la IA. 

Este último avance también ha llevado a extensos debates sobre el impacto en el empleo, con la automatización desplazando ciertos roles laborales y generando una continua reevaluación de la formación y la preparación para el futuro. Estos cambios en el paradigma del trabajo no son nuevos. Cuando surgió la fotografía, los pintores especializados en retratos comenzaron a experimentar una disminución en la demanda de sus habilidades, pero, a diferencia del auge de la IA, la transición fue más lenta, lo que permitió cierta adaptación en la industria artística. En la era actual de inteligencia artificial, los cambios son notoriamente más rápidos y abruptos, desafían la capacidad de adaptación de los profesionales y generan una urgente necesidad de repensar los paradigmas tradicionales en la formación y la empleabilidad. 

Queramos o no, la inteligencia artificial está en muchos lugares de nuestra vida, tanto en el uso cotidiano de herramientas que tenemos en nuestro celular, como en decisiones que marcan hitos en el rumbo de nuestras vidas —el acceso a un crédito hipotecario, un tratamiento médico o una condena penal—. Como estos sistemas funcionan a partir de algoritmos, predomina el imaginario de que son objetivos y neutrales, y que, en consecuencia, van a tomar mejores decisiones y con más imparcialidad que si las tomara una persona. Que hacen lo “correcto”. Pero los sistemas de IA están desarrollados por personas y usan como base datos generados por nosotros mismos, cargados de sesgos y estructuras sociales que no son ni imparciales ni neutrales. Al modelar el mundo a través de los datos, los sistemas de IA necesariamente producen y reflejan una visión normativa del mundo. En esta visión hay sesgos y estereotipos que se replican y reproducen con mayor intensidad a través de la tecnología, y existen cada vez más grupos demográficos que quedan afuera de las aplicaciones, usos, e incluso la seguridad considerada por los sistemas de IA. Basta un ejemplo: si los autos autónomos no están debidamente entrenados, tienen mayor probabilidad de atropellar a personas en silla de ruedas al no identificarlas como peatones. 

La idea de que esta omnipresencia de la IA pueda llevarse adelante con procesos absolutamente transparentes es, además, utópica. Recordemos que no hay una única caja negra. Hay una multitud de sistemas entrelazados, cada uno con sus desafíos técnicos y sus políticas, y la transparencia completa es una meta inalcanzable. Por eso es necesario incorporar criterios y miradas al desarrollo de estos sistemas —que son muy prometedores en términos de modernización, pero que rara vez son neutrales—, y al mismo tiempo cuidar el proceso de implementación de estos sistemas en los diferentes organismos públicos. 

A todos estos desafíos se les suman los propios de la industria tecnológica: el gran predominio de hombres blancos en posiciones clave y los desarrollos financiados mayormente por países del norte global. Esta disparidad en la representación de género también se refleja en la historia de la computación, donde, a pesar de la presencia de mujeres pioneras, sus contribuciones han sido muchas veces invisibilizadas. La participación de mujeres y otras identidades de género en la generación de tecnología, y específicamente en el campo de la inteligencia artificial, sigue siendo minoritaria. Tampoco hay que perder de vista que, al igual que en los orígenes de las ciencias de la computación, muchos desarrollos en tecnología fueron impulsados por organismos y ministerios de defensa, lo que plantea interrogantes éticos sobre el propósito y el uso de estas innovaciones.

Afortunadamente, han surgido organizaciones como el Distributed AI Research Institute, el AI Now Research Institute y en Argentina, DataGénero, que buscan abordar estos problemas éticos y de representación, trabajando hacia un futuro más inclusivo y equitativo en el ámbito tecnológico. Es importante estar alertas a otras voces, a más perspectivas que las que venden la IA como la “revolución”. Es importante entender en qué estamos confiando, a qué estamos apostando y en qué estamos invirtiendo. 

En medio de este pronóstico alarmista, también creo que hay un futuro alentador. Así como en la Revolución Industrial, gracias a las máquinas, extendimos nuestras capacidades motrices pudiendo realizar tareas con mucha menos fuerza física, ahora, gracias a la IA, podemos ampliar nuestra capacidad cognitiva. Las herramientas dan más posibilidades a los seres humanos y permiten automatizar tareas repetitivas para, de esta manera, poder concentrarnos en las tareas que requieran de nuestro ingenio y creatividad. Esto, por supuesto, requiere un uso responsable y consciente, reconociendo que somos nosotros mismos quienes tomamos la última decisión en las acciones. 

Desde que Turing preguntó “¿puede pensar una máquina?” hasta hoy, la respuesta fue tomando diferentes formas, abriendo más interrogantes que certezas. Pero de algo estamos seguros: la respuesta va a seguir redefiniéndose, planteando continuos desafíos y cuestionamientos. En este libro, se presentan diversas opiniones sobre el presente y el futuro de la inteligencia artificial. La incertidumbre que rodea a este fenómeno destaca la importancia de abordarlo con una mente abierta, reconocer la diversidad de perspectivas y estar preparados para adaptarnos a medida que evolucionan las tecnologías y sus implicaciones en la sociedad.