Archive for May, 2023

    La inteligencia artificial lleva meses formando parte de debates sostenidos a nivel mundial en todas las esferas de discusión. Desde titulares en diarios y revistas de todo tipo, hasta opiniones de intelectuales prestigioses e incluso referentes polítiques, por todo el mundo se especula con cuestiones como el reemplazo de seres humanos por inteligencias artificiales en ámbitos laborales, los cambios sociales que se nos avecinan con la explotación de estas tecnologías, o hasta francas ideas apocalípticas. Y en el corazón de este fenómeno está un proyecto que se abrió al público general para su uso, y tuvo muchísima prensa: ChatGPT. Nosotres tenemos algunas cosas para decir al respecto, así que esta vez escribimos directamente una tesis, titulada “de máquinas y revoluciones”.

    

Disclaimer

    Antes de comenzar, corresponde una breve explicación de este video: porque ciertamente es larguísimo para los estándares de consumo actual, y tememos entonces que los momentos menos llevaderos sean pedirle demasiado a cualquier audiencia. Este video pretende dar un panorama de la cuestión Inteligencia Artificial desde diferentes perspectivas, todas mezcladas. La primera de ellas es una perspectiva histórica, y principalmente por eso se hace largo: aquí narramos una historia de la Inteligencia Artificial, seleccionada por nosotres, en sus puntos vinculados a la tecnología, la cultura, las sociedades de cada momento, y el espíritu de época. En segundo lugar, yo que escribí y relato esto soy trabajador de la Informática, y entonces este relato tiene mucho de perspectiva gremial: la Inteligencia Artificial tiene una íntima relación con la Informática, y quienes trabajamos de ello podemos brindar algunos detalles desde la cocina de esas cosas, además de que personalmente me interesa también que por esa vía otres compañeres del gremio tengan contactos con los relatos históricos o historicistas. En tercer lugar, este canal se dedica al contacto entre epistemología, sentimientos, y política, de modo que también el relato concentra buena parte de su cuerpo en tales cuestiones, para nosotres centrales.

    Con todo eso, lo que se pretende es un trabajo de divulgación, que al ser heterogéneo en su contenido pueda ofrecerles datos o temas interesantes a diferentes personas. Si une curiosea la historia de la Inteligencia Artificial por internet, frecuentemente se encuentra con planteos por demás técnicos, vinculados a técnicas matemáticas y estadísticas que pueden decirle mucho a la persona informada pero prácticamente nada a todes les demás. Nosotres quisimos evitar eso. Sin embargo, el video es largo, y va paseando entre tema y tema, época tras época, dando lugar a que muchas partes puedan ser más bien aburridas para diferentes personas. Por ejemplo, para alguien culte en política, los planteos que aquí hacemos pueden ser más bien del orden del sentido común, y por lo tanto aburrido; pero para obreres de la informática quizás no sea el caso. Del mismo modo, cuando hablemos de historia de desarrollos informáticos, especialmente la historia más reciente, probablemente muches de informática no tengan ganas de estar una hora escuchando cosas que ya conocen: pero a la gente que trabaja con política tal vez le resulte conocimiento nuevo, y por qué no hasta interesante. Lo mismo sucede con quienes estén formades en Arte, en Filosofía, en Historia, o en Ingeniería: van a haber partes más llevaderas que otras. Desde esa idea les pedimos paciencia para con las partes que requieran más trabajo seguir prestando atención.

    Nadie va a salir siendo especialista en nada luego de ver este video, por largo que sea. Pero sí nos gustaría generar algunas curiosidades en la audiencia: acerca de temas, de eventos históricos, de detalles en los que se puede ahondar. Nuestro intento con este ensayo fué el de llenar algunos huecos entre disciplinas, intentar tender puentes interdisciplinarios. Esto es muy especialmente el caso entre informática, historia, y política: pero en realidad son muchas las incumbencias aquí incluidas. Y también tenemos la fantasía de, tal vez, en alguna medida, poder incluso despertar algún interés entre la gente más jóven sobre alguno de los tantos temas que mencionamos: mostrar las relaciones interdisciplinarias, estamos convencides, da lugar a tomar conciencia de la importancia de nuestras actividades en un plano más general de cosas, que excede lo que llegamos a percibir en nuestro día a día, y que abre mucho los horizontes de imaginación.

    De modo que les invitamos a que lo vean con un espíritu tolerante y sin apuro. Para ello separamos el video en partes, de modo tal que puedan verlo también en diferentes momentos. Y si sienten que el relato se vuelve tedioso o les excede, supongo que también pueden saltar directamente hacia las conclusiones: aunque difícilmente tengan sentido pleno sin considerar todo el resto del relato, pero en una de esas les sirve para ver si les interesa el por qué alguien diría esas cosas, y entonces sí ver el trabajo completo. Eso lo dejamos a su criterio.

    

Introducción

    Ahora sí, comencemos por el principio. ChatGPT es un servicio online y gratuito de diálogo con un programa (o “chat bot”), que implementa los modelos grandes de lenguaje natural GPT-3 y GPT-4, todo esto desarrollado por la organización OpenAI. Y ya solamente esa oración requiere que hagamos una pausa y la analicemos más en detalle.

    En primer lugar, cabe la pregunta de por qué alguien querría voluntariamente tener un diálogo con un “chat bot”. No lo mencionamos antes, pero sí: la gente voluntariamente se pone a charlar con ese programa. Teniendo en cuenta que ese tipo de programas ya se encuentran presentes en nuestras sociedades desde hace tiempo, en lugares como “atención al cliente” o en “buscadores” más bien inútiles, y no son particularmente celebrados sino más bien todo lo contrario, cabe indagar por qué en este otro caso sí parece ser un fenómeno popular celebrado. Y la respuesta a esto es afortunadamente muy sencilla.

    Sucede que los diálogos con ChatGPT son sorprendentemente sofisticados, al punto tal que no se siente como un diálogo con un programa sino con otro ser humano. Y no sólo eso, sino que este programa parece ser capaz de responder sobre cualquier cosa. Además, sus respuestas son productivas: une le puede pedir que escriba una canción, un programa de computadora, un argumento para una novela u otro proyecto multimedial, y lo realiza con inquietante facilidad y precisión. Y así como ChatGPT trabaja mayormente con texto, otras inteligencias artificiales permiten crear imágenes a partir de frases escritas, transformar imágenes en otras imágenes modificadas, y muchas otras tareas donde también sorprenden los resultados y la facilidad con la que parecen llegar a ellos.

    Por supuesto que frente a ese fenómeno, las especulaciones sobre su potencial y su lugar en la sociedad son absolutamente legítimas, aún cuando tal vez un tanto superficiales. Más allá de qué tan cierto termine siendo lo que suceda con este desarrollo, está claro que, una vez vistos los resultados, no se trata de ninguna discusión ni idiota ni fantasiosa, sino que más bien se está tratando de dimensionar al fenómeno.

    Pero ya vamos a tener oportunidad de ahondar en ese aspecto. Volvamos ahora a los detalles de aquella definición. ChatGPT es “un servicio online y gratuito”. “Servicio” se refiere ambiguamente a un modo de software y a una relación comercial: por un lado, en términos computacionales, “servicio” responde a “lo que provee un servidor”, donde “el servidor” es alguna computadora con algún programa funcionando. Pero por otro lado refiere al hecho de que allí se involucra una transacción comercial como con cualquier otro bien o servicio. De hecho, la aclaración de “gratuito” es muy pertinente al caso de eso último, porque también hay modos de uso de este mismo servicio que no son gratuitos. Algunos ejemplos de “servicios gratuitos” como este pueden ser al mismísimo buscador de Google, o cualquier servicio de e-mail gratuito como los históricos de Yahoo o Hotmail. Pero cualquiera de estos servicios también están disponibles en diversos formatos arancelados.

    Allí se vuelve pertinente otro detalle: “desarrollado por la organización OpenAI”. Esta es una organización originalmente sin fines de lucro, que en 2019 mutó en una corporación bastante lucrativa. Su historia es fácil de acceder por internet, y no queremos dedicarle demasiado tiempo a los detalles, de modo que la resumimos muy brevemente. A mediados de la década pasada, OpenAI fué creada como organización sin fines de lucro y financiada por un grupo de reconocides empresaries, con el fín de concentrar y acelerar el desarrollo de la inteligencia artificial, y hacerlo de manera colaborativa con diferentes instituciones. Cabe aclarar que, en el contexto de la tecnología, y muy especialmente de la informática, “open” unánimemente remite a “open source”: que viene al caso precisamente de permitir acceder a los debates detrás de una tecnología y, en última instancia, cuando se trata de software, acceder también a su código original. Ciertamente, el nombre “OpenAI” y aquel espíritu colaborativo rememora todo eso. Pero cerrado ese paréntesis, OpenAI comenzó su historia en 2015 con una inversión de mil millones de dólares de parte de varias fuentes. Y en 2019 se convirtió en organización con fines de lucro, con otra inversión de mil millones de dólares, pero esta vez proveniente de una sola fuente: Microsoft. Y en Enero de 2023, después de diversas otras inversiones y “partnerships”, Microsoft anunció un plan de inversiones en OpenAI por diez mil millones de dólares.

    Pero más allá del nombre de la empresa que lo creó, ChatGPT no es “open source” en absoluto, al ser un “servicio online” no se puede descargar y ejecutar en una computadora propia, y básicamente es el caballito de batalla de Microsoft para competir con Google, Amazon, Facebook, y otras empresas del área, en productos vinculados a inteligencia artificial.

    Y con eso en mente, hagamos un poco de memoria: yo tengo 40 años, y desde Juegos de Guerra y Terminator me crié en un mundo donde la inteligencia artificial fue siempre parte de nuestra mitología, aún viviendo en un lugar del planeta absolutamente periférico. Un año antes de ChatGPT el mundo jugaba a hacer imágenes desde textos con DALL-E, unos años antes los deepfakes eran una amenaza que al final terminaron reviviendo actores y actrices fallecides, por esa misma época había películas como Her, o Ex Machina, o Trascendence, y salía a la calle una remake de Westworld, antes de eso los drones norteamericanos eran un tema al mismo tiempo que por internet veíamos a los robots esos de Boston Dynamics… ya hace rato que se insiste con la inminencia de la inteligencia artificial, y todos sus problemas. ¿Tan excepcionalmente radical es el cambio con ChatGPT? ¿Tan pendiente de ese cambio está la gente en todo el mundo, que de repente esto es un tema? El punto de estos comentarios es que, si bien es cierto que este software puede dar resultados sorprendentes, es igualmente cierto que buena parte de su popularidad se sostiene en una muy intensa campaña publicitaria.

    Pero esto es una introducción. Ya veremos más en detalles algunas de las cosas que comentamos aquí. Antes de enredarnos en eso, volvamos a aquella primera definición, y a la parte de la que todavía no hablamos, que resulta ser la más importante: “implementa los modelos grandes de lenguaje natural GPT-3 y GPT-4”. ¿Qué es todo eso?

    Que “implementa” significa que es algo que ChatGPT usa a nivel software. Es decir: sean lo que sean esos “modelos”, son en rigor componentes de software. Pero son algo más sofisticado que simplemente software, y aquí es donde aparecen las particularidades de esta forma de inteligencia artificial tan en boga.

    “Modelos de lenguaje natural”, por ejemplo, remite a trabajos de la lingüística, donde desde hace ya más de 100 años se trabaja investigando los pormenores del lenguaje en sus múltiples dimensiones de análisis; e incluso existe formalmente el área de “lingüística computacional”, y hasta más exactamente la de “natural language processing”, o “procesamiento del lenguaje natural”. Allí, un referente histórico del área es Noam Chomsky, actualmente más reconocido como referente intelectual de izquierda estadounidense, pero que en su momento fuera vanguardia en la lingüística formal y en el camino hacia la actualidad pasó por múltiples áreas: filosofía, ciencia cognitiva, historia, política. Y lo primero que podemos decir acerca de la experiencia histórica de Chomsky es que la reflexión sobre el lenguaje casi inevitablemente deriva en reflexiones sobre la comunicación, la mente, la relación con la realidad, y lógicamente la política.

    Sin embargo, GPT-3 y GPT-4 no son esa clase de “modelos” como los que hacía Chomsky en su momento en el MIT, y decenas de miles de científiques alrededor de todo el mundo luego. Estos modelos son otra cosa, mucho más relacionada con software, y de hecho con un modo muy particular de software. Son el producto de una serie de estrategias matemáticas aplicadas en software, que en su conjunto se llaman “Machine Learning”, o “aprendizaje de máquinas”. Es un área de inteligencia artificial que desde finales de los noventas ha ganado mucho impulso a través de inversiones y desarrollos tanto tecnológicos como científicos, y que hoy se muestra como la vanguardia en términos de resultados. Y tiene la particularidad de ser tan flexible que permite generar “modelos” para muchos casos de uso radicalmente diferentes entre sí: desde identificar e interpretar voces humanas, hasta emular la capacidad humana para detectar objetos, crear imágenes a partir de planteos, o cosas tanto más sofisticadas como banales como pueden ser bots para videojuegos. Esa clase de desarrollos de inteligencia artificial, en otros momentos podía requerir de años o décadas de trabajo coordinado entre científiques de múltiples áreas: pero Machine Learning viene a reducir todo eso a una lista finita de técnicas matemáticas e informáticas, aplicadas al consumo masivo de datos, para identificar y explotar patrones en esos datos. Y es precisamente de allí que se llaman “grandes modelos”: porque en rigor estas técnicas se pueden aplicar a conjuntos de datos pequeños sin ningún problema, pero los modelos como los de ChatGPT manejan una cantidad tal de datos que sólo pueden ser procesados por supercomputadoras o grandes infraestructuras, convirtiéndose en un desafío importante de ingeniería: que es a donde van a parar todos aquellos millones de dólares, además de usarlos en publicidad.

    Lo que estamos viendo, entonces, no es el auge de la inteligencia artificial, sino del machine learning: un área muy particular de la inteligencia artificial, que hoy se roba la atención de todes. Y es muy importante entender esto, y sus detalles, antes de ponerse a hablar de sus posibles consecuencias o sus peligros. Por ejemplo, una de las diferencias más notorias entre los modelos científicos y los modelos de machine learning, es que los últimos no pretenden ni explicar nada ni dar cuenta de los pormenores detrás de aquello que se modela: donde Chomsky y compañía pretendían comprender y explicar el lenguaje, punto desde donde se pretendía además interactuar e intervenir en muchos temas relacionados, al Machine Learning esas cosas le son sumamente accesorias y se concentra fundamentalmente en resultados lo suficientemente productivos. Y para esto, Machine Learning aplica técnicas de estadística sobre sus datos, dando lugar a la identificación de patrones y la generación de resultados adecuados a curvas de distribución de indicadores en esos patrones. Los modelos de Machine Learning operan como “cajas negras”, a las que se les brinda un input y con eso ofrecen un output: si ese output es útil o válido, al modelo se lo considera exitoso, y el cómo exactamente se llegó a ese output será otro problema separado al de la productividad.

    Machine Learning está permitiendo que, con una lista finita de técnicas, y utilizando hardware actualmente ya existente, lograr software mucho más “generalista” de lo que lograban inteligencias artificiales de antaño. Si bien tenemos computadoras que derrotan a campeones de ajedréz, o bien tenemos otras que traducen palabras o detectan cosas que se les programa detectar, ahora emergen inteligencias artificiales que parecen ser capaces de hacer muchas cosas más y sin un límite claro aparente. Y como nos tiene acostumbrades la tecnología, todo se siente que sucede demasiado rápido.

    Entonces, con esta introducción ya planteada, vamos a ahondarnos un poco más en detalles de esta actualidad de la inteligencia artificial, que mantiene al mundo entre diferentes ansiedades. Y para ello, como es costumbre, vamos a darle contexto a la cuestión mediante un paseo por la historia: del tema, y de sus ideas.

    

El tren de la historia

    La historia de la inteligencia artificial, como sucede con todo, es la historia también de otro montón de cosas. Y cuando se la pretende contar, los problema historiográficos comienzan a aparecer muy rápidamente. Por las dudas, mejor lo aclaramos desde el principio: mucho más que una historia exahustiva y meticulosa que se utilice como referencia, esto se pretende un relato coherente que permita a cualquier interesade ir a revisar las cuestiones por sus propios medios, al mismo tiempo que abre temas de discusión que nosotres pretendemos instalar. No miramos con buenos ojos que nuestro relato tenga datos falsos (si los hubiera), pero sí somos tolerantes con el hecho de que dejemos de lado mil cuestiones relacionadas, eventos, y personajes de diferente trascendencia en la historia real del tema. Tenemos plena conciencia de que un simple ensayo nunca va a poder abarcar ninguna cuestión por completo, y entonces el objetivo no es tanto hacer historia en términos rigurosos. Pero ello no quita que valoremos al rol de la historia como un eje fundamental para entender la realidad actual, y por ello la ofrecemos siempre como una parte constitutiva de nuestras propuestas de discusiones. Una historia rigurosa será tarea de historiadores e historiadoras, mientras que nuestra tarea aquí es otra.

    Aclarado eso, si tuviéramos que ponerle un punto de inicio a la historia de la inteligencia artificial como la conocemos hoy, diríamos aquí que arranca con las dos grandes guerras a principios del siglo pasado. Aunque debemos ir más atrás en el tiempo para hablar de los eventos que llevaron a la primera y segunda guerra mundial, por razones que lamentablemente sólo pueden quedar claras después de tener presente al relato ya planteado. Pero les pedimos nos crean, y nos tengan paciencia: si no contamos algunas cosas que parecen no tener nada qué ver, lamentablemente no se va a entender tampoco lo que está pasando con la inteligencia artificial en toda su dimensión.

    De modo que, como suele suceder en este canal, una vez más se trata de una historia de la modernidad. Y “modernidad” significa un montón de cosas diferentes dependiendo a quién se le pregunte. Hay un concenso generalizado de que se trata de un momento histórico, pero ese concenso muy rápidamente empieza a diluirse cuando se indaga en los pormenores de su definición. Por ejemplo, no hay muchas dudas de que en tanto momento histórico comienza con fenómenos culturales y políticos tales como el Renacimiento o la Ilustración, allá por los siglos XVII o XVIII; pero no hay un concenso preciso sobre un sólo evento, un sólo momento particular, un conjunto de eventos siquiera, o una fecha. Del mismo modo, hay personas que miden la modernidad en sus patrones culturales, otras personas en sus organizaciones económicas y políticas, otras en lineamientos filosóficos, y en su defecto hoy en día contínua un debate desde hace décadas al respecto de si la modernidad no ha efectivamente finalizado y estamos entonces en otro momento histórico diferente. Nosotres en este canal hablamos de una modernidad ya finalizada, pero muches intelectuales no consideran válido a ese razonamiento, o hasta lo consideran incluso dañino. De modo que es un concepto repleto de dificultades.

    En cualquier caso, está claro que por aquellos siglos hubo un antes y un después en el mundo. “El mundo”, en principio, sería lo que coloquialmente se llama “occidente”; pero en rigor los eventos que sucedieron en Europa y sus colonias tuvieron impacto en el planeta entero. Y todo comenzó con los eventos que dieron lugar a grandes cambios políticos y culturales en Europa, inicialmente en relación a lo que fuera por aquel entonces el rol de la religión en la articulación de las sociedades. Múltiples fisuras en el status quo de por aquel entonces llevaron a múltiples fenómenos sociales, a veces encadenados, otras veces paralelos: como pueden serlo la emergencia del protestantismo contra la iglesia católica, del racionalismo en filosofía, o de un antropocentrismo más generalizado en diversas praxis humanas que diera prioridad al ser humano incluso por sobre los textos sagrados. Y las consecuencias fueron muchas: aparecieron la ciencia, el capitalismo, el estado republicano liberal, el industrialismo, y muchos otros eventos y conceptos que harían a este ensayo básicamente infinito si se pretendiera abarcarlo todo. Por eso mejor le prestamos atención a dos grandes eventos históricos, canónicos como puntos de inflexión: las revoluciones francesa y norteamericana, por un lado, y la revolución industrial por el otro.

    La idea de que diferentes personas podían simplemente ponerse a pensar cómo funciona el universo, cómo puede funcionar de otras maneras, y qué en definitiva es bueno o malo, sin tener que rendir cuentas formalmente a ningún poder superior al caso de todo esto sino articulando las ideas entre pares de manera crítica, dió lugar a que los órdenes sociales de aquel momento fueran estudiados y criticados, dando a su vez lugar a la creación de órdenes sociales alternativos. Durante la revolución francesa, que duró unos diez años, el “antiguo régimen” fué cuestionado y rechazado en términos políticos, culturales, económicos, y religiosos. Por ese entonces ya se hablaba de “leyes de la naturaleza” (en contraste a los mandatos divinos) en todas las áreas del pensamiento, y las ideas de lo que más tarde fuera llamado “liberalismo” ya estaban lo suficientemente maduras como para empezar a requerir con fuerza articulaciones sociales que las pusieran en práctica. Y en el mismo momento que en Francia, aunque comenzando algunos años antes, en América se vivía una revolución paralela y similar contra la corona británica, que llevaría a la instauración de la primer democracia liberal en el mundo.

    Y también en paralelo, y también algunos años antes de la Revolución Francesa, sucedía otro evento histórico en Europa profundamente transformador de las sociedades del momento, y del curso de la historia hasta la fecha: la revolución industrial. Esto tuvo su origen mayormente en Gran Bretaña, aunque fue un proceso que se extendiera durante décadas y se propagara por el resto de Europa, así como también a los Estados Unidos de América. Lo que sucedió fue que algunos desarrollos tecnológicos fueron implementados en procesos de producción, resultando en índices de productividad sin precedentes hasta la fecha, y con muchas otras consecuencias relacionadas: sorprendente generación de riqueza, impensable crecimiento poblacional, cambios drásticos en la logística y diagramación de pueblos que pronto pasaban a ser ciudades… el mundo comenzó a transformarse muy rápidamente.

    Por ese entonces las ideas de Adam Smith ya eran influenciales, y representaban bastante el espíritu de la época: mediante el uso del pensamiento científico como fuerza liberadora, se daba al mismo tiempo una nueva explicación del universo, así como también justificaciones para transformaciones sociales futuras pensables. Y así, al mismo tiempo que aparecía la industrialización, en “la riqueza de las naciones” se discutían los supuestos límites en la producción de riqueza que por aquel entonces se comprendían como naturales o hasta divinos, y se articulaban los principios de lo que velozmente se tornaría ideología.

    La Revolución Francesa fue entonces una revolución capitalista. Y sin embargo, curiosamente, de la revolución francesa nos queda también una categoría política hoy más bien antitética al capitalismo: “la izquierda”. Durante las sesiones de los cuerpos legislativos de aquella Francia, les conservadores (defensores del antiguo régimen, o bien resistentes a los cambios revolucionarios) se sentaban del lado derecho del establecimiento parlamentario, mientras que les revolucionaries se sentaban a la izquierda. Y así sucedió que la primer “izquierda revolucionaria” de la historia fue liberal y capitalista.

    Pero muy pronto en la historia, apenas al llegar la siguiente generación, otra figura por lo menos tan influyente como Adam Smith se puso a discutir sus ideas, esta vez además con algunos datos empíricos extra de qué pasaba en el mundo con aquello de la riqueza y las naciones. Por supuesto nos referimos a Karl Marx, cuyos trabajos no sólo marcaron para siempre a la historia del pensamiento, sino que de hecho hasta el día de hoy es prácticamente sinónimo de “izquierda”. Y entre muchas otras cosas, lo que hizo Marx fué diseccionar y analizar en detalle al capitalismo, poniéndolo además en el contexto de su historia, y planteando otros horizontes de sociedades posibles muy diferentes a los propiciados por Smith. Marx dijo que la historia de las sociedades es la historia de sus conflictos entre clases sociales, que una característica fundamental del capitalismo es la propiedad privada de los medios de producción, que la división del trabajo que Smith leía como productiva era también profundamente alienante, y que básicamente la revolución francesa reemplazó una aristocracia por otra pero las clases sociales superiores e inferiores siguen estando allí: “libertad, igualdad, y fraternidad”, que era el slogan de la revolución francesa, podía ser posible sólo para los burgueses, y ni siquiera se daba entre ellos.

    Y acá hagamos una breve pausa, para tomar un poquito de aire y pensar de qué estamos hablando. Hay dos hilos unificadores en este bosquejo de relato histórico. Uno de ellos es la impresión de que, casi de repente, en algún momento de la historia pareciera que algunas personas se pusieron a criticar el estado de las cosas, y eso convenció a muchas otras de tomar medidas drásticas al respecto. El segundo, es que las cosas empezaron a cambiar muy rápido, y muy radicalmente. Y esas son precisamente las dos sensaciones unánimes de la mordernidad. Encontrar una definición indiscutible de lo moderno es una tarea imposible, por la cantidad de factores que se requiere y los infinitos disensos: pero la influencia explosiva del pensamiento crítico, y la sensación de aceleración de la historia, han de ser unánimes. Y lo mencionamos casi como aviso: porque a partir de este punto al que llegamos, todo se vuelve todavía más sofisticado, más rápido, y mucho más explosivo.

    Además, mencionamos a la religión casi como una cosa del pasado, pero la realidad es que no se fué a ningún lado, y de hecho acompañó a todo este proceso. Las religiones frecuentemente eran ya antropocentristas desde antes, en el sentido de que no era raro encontrar escrituras sagradas donde el ser humano era el hijo predilecto de los dioses, y entonces era elemental para cualquiera que todo lo demás en el universo existiera para ser sometido por la voluntad humana. Y este supremacismo antropocentrista se vió mayormente inalterado cuando las religiones comenzaron a perder poder ante el racionalismo y el liberalismo: no porque Dios exista o deje de existir, ni porque el mundo se volviera ateo (cosa que jamás sucedió), sino porque la humanidad se emancipaba de los dogmas escritos en textos sagrados e interpretados por elites religiosas para luego ser implementados como normas sociales. Reivindicar la inteligencia racional como característica suprema del ser humano se vivió como una experiencia profundamente liberadora.

    Pero atención, que eso no sucedió por virtud y gracia del racionalismo solamente. Fueron múltiples condiciones las que dieron lugar a que cambios tan radicales y rápidos fueran posibles. Por ejemplo, la decadencia de un status quo que no respondía con adecuada pericia a los problemas de sus épocas. Pero también muchos descubrimientos, muchos intercambios culturales, muchos eventos históricos… hay hasta quienes indican como un factor importante al hecho de que en Europa se comenzara a tomar más café y menos alcohol, dando lugar a la proliferación de la actividad intelectual. En cualquier caso, las ideas asociadas al racionalismo traían resultados: explicaban cosas que hasta el momento eran difíciles o imposibles de explicar, resolvían problemas irresolubles, y brindaban horizontes de nuevas sociedades posibles. Y esa cuestión del futuro era tan estimulante, porque del racionalismo surgían no sólo explicaciones, sino también predicciones: aquello que eventualmente pasara a llamarse “leyes científicas”, eran nuevas formas de certezas sobre las cuales construir infinidad de cosas, y por lo tanto eran muy valoradas; razón por la cuál la actividad científica también comenzaba a gozar de más y más prestigio.

    Así arrancó la modernidad: con mucho optimismo, y con una mirada más puesta en el futuro que en el pasado. Smith y Marx son apenas dos referencias contundentes y fáciles de citar, pero en realidad el mundo se revolucionaba por todos lados al compás de la ciencia y la tecnología, tanto antes como después de ellos. Y los mismos fenómenos sucedían en todas las áreas de praxis humanas: una división del trabajo similar a la del industrialismo de repente se replicaba en la especialización de las ciencias (que arrancaran siendo casi todas “filosofía”), una generación de personas se dedicaba a tareas que en la generación anterior no existían, un mundo que décadas antes era enorme comenzaba a sentirse cada vez más pequeño, y todo ello (con todos sus innumerables pormenores) al mismo tiempo alimentaba a las ciencias y filosofías e ideologías que seguían agregándole velocidad a esa rueda, generando en iguales cuotas ímpetus revolucionarios y resistencias más bien inquebrantables.

    Al mismo tiempo que Marx, por ejemplo, aparecía Darwin. Darwin de repente dijo que el humano desciende de otras especies, que la razón de ello es algo llamado evolución, que toma millones de años (por lo cuál la tierra era mucho más vieja de lo que el común de la gente creía), y que la evolución además se rige por un mecanismo llamado “selección natural”. Esa “selección natural” se opone a la “selección artificial” (que sería aquella determinada por criterios humanos), y consiste en millones de años de variaciones pequeñitas y arbitrarias entre descendientes: dando lugar a diferencias entre sujetos, y eventualmente a la emergencia de diferentes especies. Las extinciones se explican porque, en situaciones de crisis (típicamente cambio climático, enfermedades contagiosas, o escases de recursos), esas diferencias pueden constituir ventajas relativas al contexto, y entonces así sobreviven los sujetos que mejor se adaptan al ambiente: “supervivencia del más apto”.

    Todo eso de Darwin, lejos de cerrar ninguna cuestión anterior como la religión o la supremacía, las volvió todavía más virulentas. La religión y la ciencia ya no podían ser amigas, donde el texto de Darwin es un elogio de la diversidad les supremacistes interpretaron la “supervivencia del más apto” como un elogio de la competencia, la cuestión de la exclavitud pasó a estar científicamente fundamentada tanto a favor como en contra (les racistes cómodamente pueden afirmar que la gente de diferente color de piel es sencillamente otra especie, y por lo tanto no son seres humanos), y así aparecían nuevas y más urgentes razones para separar el trabajo intelectual en especializaciones, separar los grupos sociales a partir de creencias, o pretender más cambios radicales con iguales magnitudes de resistencias.

    Y de cambio en cambio y revolución en revolución, se pasó volando el siglo XIX y el incipiente siglo XX encontró un mundo entre vanguardias tecnológicas e intelectuales y conservadurismos más bien medievales y recalcitrantes. Al mismo tiempo convivía gente que se rehusaba a resignar el uso del caballo como transporte con gente que pretendía hacer máquinas voladoras. En paralelo convivían feudalistas con monarquistas con capitalistas con socialistas. Y por ese entonces ya empezaban a hacer lío Freud y Einstein: uno diciendo que la racionalidad tenía límites más bien evidentes, y el otro pensando cosas raras sobre el tiempo y el espacio. Todo podía ser un evento histórico: desde una nueva forma de propulsión, hasta el descubrimiento de cómo funcionan las plantas, pasando por el rol de las mujeres en las sociedades o alguna nueva herramienta matemática. Y esto, por supuesto, tenía infinitas consecuencias sociales y políticas.

    Una característica de la modernidad que pretendimos dejar al alcance de la vista con nuestro relato, es el hecho de que esas cosas llamadas “progreso” o “revolución” no eran una especie de “paso de página”. Hay una concepción ingenua de la historia, muy frecuente entre las personas que no reflexionan mucho al respecto de todo esto, por la cuál se imagina algo como lo siguiente: dado un hito de progreso, aquello anterior a ese progreso queda más o menos inmediatamente obsoleto y olvidado, ciertamente superado. Pero la historia se parece mucho más a un agregado de capas que a un salto de página: más que una vuelta de página en un libro, es algo más parecido a la acción de agregar capas de papel transparente, con tan sólo algunos componentes dibujados, sobre otras capas y capas y capas anteriores. El punto es que lo nuevo no elimina lo viejo, sino que conviven. Y entonces, si una persona vive problemas del siglo XVIII, los problemas del siglo XIX no quitan a aquellos problemas viejos sino que más bien ahora tiene problemas nuevos agregados. Y lo mismo va a seguir pasando en los siglos siguientes.

    

Cambalache

    Y así llegó el siglo XX: un momento de la humanidad con iguales cuotas de maravilla y de horror. Cosas cuasi-mitológicas o hasta otrora divinas fueron logradas por la humanidad durante el siglo XX, y siempre bajo la figura del “progreso científico”. Por izquierda y por derecha, entre clases altas y clases bajas, en oriente y en occidente, la figura de la ciencia gozaba de un prestigio y una trascendencia difícil de comparar con ninguna otra institución humana del momento. De modo que todo lo que se hacía por aquel entonces intentó ser “científico”, y tratar de meter ciencia en cualquier actividad era el espíritu de la época. Y, por supuesto, en un contexto como ese, tanto para entender sus pormenores como para protegerla de usos espúrios o falsificaciones, la ciencia en sí fue estudiada cada vez más en detalle. Así nacían filosofías que plantearan metodologías para los quehaceres científicos, sus límites, o sus cualificaciones, bajo el nombre de “epistemología”. Para esta altura, no sólo la ciencia era prestigiosa, sino que el mecanismo inverso también se aplicaba: todo lo que no fuera científico era visto como alguna forma de razonamiento de segunda o tercera categoría, nada meramente racional estaba a la altura de lo científico, y las pruebas de ello eran las ya incontables manifestaciones del progreso. Ciertamente, la ciencia requería se le preste una atención especial.

    Así que se creaban ciencias para todo, dividiendo más y más el conocimiento científico en ciencias “especializadas”. Y una de esas ciencias tenía como objeto de estudio los pormenores en la toma de decisiones a nivel estatal, para lo cuál se requerían analizar grandes cantidades de datos provenientes de paises enteros. Esta “ciencia del Estado” se llamó “Estadística”. Y si bien (como todas las otras ciencias) levaba siglos de hitos en su desarrollo en diferentes lugares del mundo y diferentes momentos históricos, dió grandes pasos en los primeros años del siglo XX y se consolidó como disciplina formal y autónoma. Pero las técnicas estadísticas, que nacieron en el contexto de utilizar a las por demás prestigiosas matemáticas en el proceso de toma de decisiones estatales, rápidamente pasaron a utilizarse como herramienta para el proceso de toma de decisiones de cualquier otro contexto: negocios, confirmación o refutación de hipótesis científicas, diagnósticos, construcción de tesis históricas o antropológicas, etc. Y en el corazón de la “toma de decisiones en base a la estadística” estaba la predicción de eventos futuros: mientras de la mano de la predicción de eventos futuros mediante técnicas matemáticas aparecían los “modelos” de como funcionaban ciertos objetos de estudio, ya fueran componentes de la materia o sociedades humanas. Modelos que podían ponerse a prueba. Modelos estadísticos.

    En ese contexto, el análisis de datos, o a veces también llamados información, tuvo otro compinche con el cuál hicieron las veces de “dúo dinámico” de la historia científica y tecnológica del siglo XX: la informática, o “ciencia de la información”; otra disciplina también incipiente y también descendiente de las matemáticas, aunque más cercana a la tecnología, y por lo tanto la física, y la electrónica, y la ingeniería. Al mismo tiempo que aparecían necesidades de trabajar grandes cantidades de datos con grandes procesos matemáticos, aparecían sofisticados aparatos de vanguardia ingenieril que eran capaces de ejecutar procesos matemáticos mucho más rápido de lo que los seres humanos podríamos llegar a hacerlo. Y esto a su vez alimentaba al trabajo científico, que ahora tenía herramientas para trabajar sus complicadas hipótesis sobre la realidad, que requerían cálculos enormes para considerar las muchas variables involucradas en sistemas cercanos a lo real, y a su vez permitían producir predicciones que luego podrían ponerse a prueba. La existencia misma de computadoras generó una demanda inmediata en ciertos círculos muy especializados, y allí nacieron algunas de las hoy grandes empresas informáticas: como ser la otrora dominante IBM. Así, la estadística, de la mano de la informática, comenzaba a constituirse como un espacio de la ciencia y la tecnología tan prometedor como esotérico, y las fantasías sobre aparatos que tomen sus propias decisiones no tardaron en emerger en la cultura popular.

    Aunque “aparatos tomando sus propias decisiones” tampoco era algo estrictamente vinculado a las estadísticas tampoco, ni a la informática. Si bien estadística era casi sinónimo de “toma de decisiones”, también existía otro concepto igualmente incipiente y persistente desde hacía ya mucho tiempo: “control”. Y como ya había radio, y ya había electrónica, emergieron ideas tanto teóricas como puestas a prueba de cómo controlar aparatos a distancia con diferentes fines: y si bien estos aparatos no tomaban sus propias decisiones, la fantasía de que pudieran eventualmente hacerlo y la problematización del cómo lograrlo era moneda corriente en esas áreas de la ingeniería. Un ejemplo paradigmático fue el llamado “telekino”: hoy nombre de lotería por televisión, pero por aquel entonces una combinación de los términos griegos “remoto” y “movimiento”. El telekino fue un sistema por el cuál se podían enviar comandos, mediante ondas de radio, utilizando un aparato transmisor hacia otro aparato receptor. Este aparato receptor tenía un componente llamado “memoria”, donde persistía temporalmente los comandos que se le enviaban, para eventualmente ejecutarlos de diferentes maneras luego de interpretarlos. Y las primeras pruebas exitosas en público fueron, precisamente, controlar un bote a distancia. Aquí no hay tanto ni informática ni estadística, sino más bien ingeniería electromecánica; pero sin embargo, alcanzaba ya sólo con eso para empezar a hablar de metáforas metafísicas sofisticadas como “memoria” o “interpretación”.

    Es fácil imaginar que el espíritu moderno podía hacerse delicias de fantasías con estos desarrollos. Pero todos los cuidados del mundo no lograron evitar que la ciencia fuera utilizada, además de para maravillas, también para horribles desastres. Todo esto del control o la estadística no fueron la excepción. Y es que la ciencia y la tecnología nunca existieron aisladas de sus sociedades, y todas las fuerzas sociales e históricas interviniendo en ellas.

    En las primeras décadas del siglo XX tuvo lugar un evento que resultó un cachetazo de realidad para los optimismos tecnológicos y cientificistas: la primera guerra mundial. Con todo lo que ya dijimos sobre el tren de la historia moderno, los detalles sobre la guerra son triviales y tienen poco sentido, mientras que las razones del conflicto fueron, como siempre, puramente humanas. Los paises de Europa entraron rápidamente todos en una misma guerra, y esta guerra tuvo como novedad muchos cambios en la forma de llevarse a cabo. Los modos de la guerra ya estaban influenciados por nuevas ideologías, nuevas morales, nuevas concepciones de lo social y lo nacional, o hasta de lo humano. Pero muy especialmente estaban influenciados por nuevas tecnologías. La ciencia y tecnología aplicadas a los actos de guerra dieron nacimiento a armamento tan novedoso como aterrador: ametralladoras, tanques de guerra, aviones de guerra, armamento químico, y explosivos poderosos de todo tipo. La devastación de la primera guerra mundial fue shockeante, lo cuál se expresó de forma más contundente en la cifra de muertos y heridos, que se contaban por decenas de millones: algo nunca antes visto en la historia de la humanidad.

    Fue prontamente rotulada “la gran guerra”, y constituyó una aterradora contrapartida al optimismo de comienzo de siglo. La tecnología bélica fue protagonista central de uno de los eventos más oscuros jamás vividos en ningún otro momento que se tuviera registro, y detrás de esa tecnología estaba la constante y hasta ese momento “neutral” o hasta “benefactora” figura de la ciencia. No hubo nada de neutral en esa guerra: la ciencia y tecnología fueron decididamente contrarias a cualquier forma de beneficio de ninguna sociedad, cualquier forma de moral o ética ni académica ni religiosa, cualquier forma de “bien”; la ciencia fué antihumana. Aún cuando críticas a la ciencia y la tecnología pudieron existir desde siempre, fué después de la gran guerra que se comenzó a cuestionar con seriedad y contundencia al optimismo científico y tecnológico que se venía propagando e intensificando por todo el planeta desde el nacimiento de la modernidad. El único atisbo de optimismo luego de la gran guerra fue la ilusión de que esta habría sido la última, “la guerra que ponga fín a todas las guerras”.

    Y una vez más, nada de esto detuvo al tren de la historia, sino que lo aceleró todavía más. El moderno aparato productor liberal que ya llevaba bastante tiempo explotando trabajadores hasta niveles francamente retorcidos, y sin nunca mostrar un límite concreto en el horizonte sino más bien prometiendo para siempre más de lo mismo, hizo más y más y más intensos los clamores de una nueva revolución. Pero esta vez no una capitalista, burguesa, comerciante, sino una obrera y socialista. El fantasma del socialismo sin dudas recorría Europa desde Marx mismo, pero estaba cada vez más cerca de dejar de ser inmaterial. Y así se llegó a la revolución rusa de 1917, que eventualmente llevara a la creación de la Unión Soviética en 1922, sobreviviendo no sólo al daño de la gran guerra sino a su propio conflicto civil. Esto, ciertamente, no tranquilizó a la Europa liberal, que se volvió furibundamente antirevolucionaria, y en ese caldo de cultivo nació también el fascismo.

    Pero las heridas de la guerra no terminaron de sanar, y el planeta no llegó a olvidar: muy pronto llegó la segunda guerra mundial, cuyo desastre opacó incluso a la anterior, y hasta la hizo ver pequeña en comparación. Se pueden hablar horas y horas sobre los detalles sociopolíticos, históricos, económicos, e ideológicos del conflicto, tanto antes como después de que sucediera. Pero esto es un ensayo sobre inteligencia artificial, ¿recuerdan?. De modo que tenemos que concentrarnos en lo que nos importa. Y para el caso, no hay nada más elocuente que prestarle atención a cómo terminó.

    El 6 y 9 de Agosto de 1945, los liberales y liberadores Estados Unidos de América, en consenso previo con sus parientes europeos del Reino Unido, lanzaron dos bomas atómicas sobre las ciudades japonesas de Hiroshima y Nagasaki, matando centenas de miles de civiles. Casi como si la devastación de las dos guerras no hubiera sido suficiente dolor, desamparo, y pánico, ahora el mundo podía ver de repente el absoluto colmo: armas de destrucción masiva, tan absurdamente poderosas y mortales que por primera vez en la historia de la humanidad aprendieron a compartir el mismo pesimismo fatalista y apocalíptico tanto gente creyente como gente atea; por primera vez, la humanidad se enfrentaba objetiva e incuestionablemente con la posibilidad de su propia extinción. Y no sólo eso, sino que la posibilidad venía de la mano de las “maravillosas” ciencia y tecnología.

    Para muches, estos fueron los días donde la modernidad se terminó: no tanto porque sus prácticas en órdenes productivos o socioeconómicos hayan dejado lugar a otras diferentes, o porque las instituciones de la época hayan cambiado de alguna manera radical, sino por el hecho incuestionable de que a partir de ese momento ya nadie en el mundo volvió a ver a la ciencia y tecnología con los mismos ojos. Mientras la ansiedad nuclear llenaba el corazón de personas en todo el planeta, el optimismo se evaporó rápidamente, y la sensación unánime fue que al tren de la historia había que ponerle frenos. Para muches, estos días dan lugar al comienzo de una nueva “era atómica”, mientras que muches otres simplemente se refieren a todo lo posterior como “post-modernidad”. Muchas, pero muchas cosas sucedieron antes, durante, y después de la segunda guerra, vinculadas a ciencia y tecnología, y al cómo se relaciona eso con las sociedades. Y fue en esta era, con todo ese baggage que contamos y bajo ningún punto de vista aislada de ello, donde nació finalmente la inteligencia artificial.

    Durante las dos grandes guerras, y especialmente durante la segunda, la informática y las disciplinas vinculadas a la “toma de decisiones” vieron grandes desarrollos. Es de conocimiento popular, por ejemplo, la figura de Turing (uno de los “padres” de la computación) descifrando mensajes nazis. Pero las matemáticas, estadísticas, y su compañera la informática, eran protagonistas silenciosas en muchas áreas. Lógicamente todo lo que remitiera a armamento novedoso tenía mucho de física involucrado, y frecuentemente requería cálculos muy rápidos, ya solamente por las urgencias del momento. Todes pueden imaginar la cantidad de cálculos que se necesitaron durante el Proyecto Manhattan, que diera lugar a las primeras bombas atómicas. Y no hacía falta tampoco irse tan a los extremos: ¿recueran al “telekino”, que se usó para controlar botes a control remoto a principios del siglo XX? El mismo ingeniero que lo creó intentó continuar sus investigaciones aplicándolo a torpedos. Fue antes de la primera guerra y no consiguió financiamiento, pero el cómo se usarían esas tecnologías era más o menos evidente para cualquiera, y de hecho dió lugar precisamente a la creación de los misiles teledirigidos durante la segunda guerra.

    Pero la vanguardia tecnológica militar traía nuevos problemas a les ingenieres del momento, y uno de ellos fué una de las personas más importantes en la historia de la inteligencia artificial. Este hombre cuenta en sus libros cómo, por aquel entonces, se enfrentaba con un problema tecnológico complicado: los aviones de guerra comenzaban a ser demasiado veloces. Si los aviones eran demasiado veloces, ningún ser humano podía apuntarles con armamento antiaéreo para detenerlos. Y si eso era imposible, entonces no existiría manera de detener a los aviones, y no existiría pues zona segura contra ellos. El desafío de ingeniería que se enfrentaba, entonces, era desarrollar defensas automáticas, que detectaran a los aviones enemigos y tuvieran la capacidad de derribarlos, lógicamente apuntando y disparando a velocidades que ningún humano era capaz de ejecutar. Estos fueron problemas típicos, si bien de vanguardia, en una disciplina llamada ingeniería de control.

    Este ingeniero entonces relata que, en sus investigaciones al respecto de cómo lograr esa defensa automática, tuvo oportunidad de reflexionar acerca de cómo funciona todo aquello que es autónomo. Es decir: los mismos principios que se aplican a una torreta antiaérea que apunta y dispara hacia aviones demasiado rápidos para la interacción humana, son principios de autonomía de sistemas que se pueden generalizar a cualquier otro sistema. Y rápidamente se dió cuenta que esos otros “sistemas” excedían a las máquinas, y también incluían a seres vivos. La mecánica fundamental estaba en los mensajes que se enviaban entre componentes del sistema, así como también las fronteras con los límites del sistema y las maneras de identificar variables de su contexto.

    Por ejemplo, en el caso de la torreta, de alguna manera era necesario detectar los aviones, que a tales velocidades no se podía simplemente esperar a que vuele por encima sino que habría de ser detectado desde lejos: sensores adecuados eran necesarios, o caso contrario el avión era “invisible” a la torreta; pero luego era necesario también hacer interpretaciones de los datos de esos sensores, de modo tal que se anticipara la trayectoria del avión enemigo, y entonces se pudiera apuntar a los puntos de intersección correctos con los proyectiles defensivos. Nada menor, dicho sea de paso, especialmente teniendo en cuenta que era todo electromecánica, y las computadoras como las conocemos hoy no existían. Pero en esa aventura, una de las condiciones elementales que prontamente aparecían eran detalles tales como que no se puede apuntar con un sólo dato, sino que se necesitan varios: una historia de datos, guardados en alguna forma de memoria del sistema sobre la que luego se realizan operaciones que permitan predecir eventos futuros. En el corazón de estos mecanismos se encontraba, según este ingeniero, la noción de “bucles de retroalimentación”, o “feedback loops”, que refieren a ciertos ciclos de trabajo en los que las acciones de un sistema van calibrando acciones futuras en relación a los resultados de acciones en tiempos anteriores. Y esos bucles de retroalimentación se podían encontrar por todos lados en el universo.

    El ingeniero en cuestión se trata de Norbert Wiener, y relata todo esto en la introducción de su primer libro: “Cybernetics: Or Control and Communication in the Animal and the Machine”, publicado en 1948, apenas tres años después de los bombardeos nucleares. Ese libro constituye la fundación formal de una nueva disciplina científica llamada Cibernética. Y cuando usamos una palabra como esa, intuitivamente y en seguida nos damos cuenta que dejamos de divagar por la historia social y política del mundo y ya estamos yendo al grano. Pero en realidad la cibernética venía desarrollándose desde hacía tiempo, y ahí es donde importa mucho la historia de la ciencia. Wiener cuenta cómo su libro fue el producto de años de discusiones técnicas y filosóficas con científiques de diferentes áreas, poniendo especial énfasis no sólo en matemáticas o física o ingeniería, sino también muchísimo en medicina. Sucede que Wiener veía a la ciencia misma (y sus científiques) como sistemas, y también vió la necesidad de comunicación y retroalimentación entre ellos, para lo cuál constituyó un lenguaje común inter-disciplinario que permitiera encontrar problemas cibernéticos en múltiples áreas. Y entonces, entre las muchas repercusiones del trabajo de Wiener, la Cibernética tuvo la característica de ser la primera ciencia formalmente inter-disciplinaria.

    La historia de la ciencia era importante, porque desde la epistemología se decían constantemente un montón de cosas, y entre ellas ya se había llamado la atención acerca de la sobreespecialización de las ciencias que tal vez podía estar formando científiques con conocimientos demasiado especializados: un efecto similar a la alienación del trabajo que Marx supiera denunciar en su época. Y esto se había hecho más, y más, y más notorio con el paso de las décadas, a medida que aparecían diferentes especialistas en diversas disciplinas que se permitían sostener teorías basadas en tecnicismos que parecían ignorar casi cualquier otra dimensión de análisis, muy especialmente la histórica y política. Por supuesto, todo esto sólo se veía profundizado frente a la urgente pregunta de cómo podía ser que la ciencia hubiera tenido el rol que tuvo en las dos guerras. Y aunque al marxismo canónicamente se lo suele acotar a “teoría económica” o “teoría política”, constituye en sí también una rama de la epistemología, muy enfática en lo que respecta al rol de la historia en el desarrollo de los sistemas económicos y sociales.

    Es decir que en paralelo a que gente como Wiener reflexionaba sobre el rol de la historia en los sistemas de comunicación y control, las escuelas marxistas de pensamiento llamaban la atención sobre el rol de la historia en el desarrollo de la ciencia y la sociedad; así como también Wiener desarrollaba un lenguaje trans-científico y una teoría inter-disciplinaria al mismo tiempo que desde el marxismo llamaban la atención sobre la alienación en la sobreespecialización. Y estos debates no fueron casualidad. Sucede que el marxismo seguía y sigue siendo muy influencial tanto en filosofía como en ciencias humanas de todo tipo, incluyendo a la economía pero excediéndola por mucho. Pero además, en el marxismo seguía existiendo una alternativa a la cosmovisión liberal que se expandiera desde las revoluciones francesa y norteamericana: una que se pretendía más humanista y más justa, en medio de un mundo donde la humanidad se veía en peligro y la calamidad llegaba antes que cualquier justicia. Tan poderoso era el marxismo en el pensamiento del momento, que dividió al mundo en dos, cuando luego de la segunda guerra se instauraron los Estados Unidos de América y la Unión de Repúblicas Socialistas Soviéticas como dos superpotencias mundiales en pugna por una hegemonía ideológica mundial, dando lugar a la llamada “guerra fría”.

    La guerra fría era una época tan novedosa como inquietante. El campo de batalla pasó muy velozmente de lo estratégico productivo a lo psicológico, y de repente todo lo que se pensara o se dejara de pensar era sospechoso de ser aliado o enemigo, occidental u oriental: capitalista o comunista. Las otras ideologías como el fascismo o el anarquismo rápidamente perdían centralidad y cuerpo para dar lugar a un infinito combate ideológico mundial como nunca se había tenido registro. Fiel al espíritu moderno, la guerra fría era una experiencia nueva e intensa y se metía por la fuerza en la vida de cada persona de las maneras más impensadas (aunque siempre compulsivas), como ya había pasado con tantas cuestiones modernas antes. Aunque para esta altura, aquel optimismo moderno de otras épocas era mucho más difícil de encontrar por ningún lado.

    Y la cibernética es hija de su época. En su introducción a “Cybernetics”, Wiener predecía cómo las máquinas autónomas venían a reemplazar al trabajo humano, por dos razones. La primera era la obviedad de que las máquinas podían tener regímenes de rendimiento que los seres humanos eran incapaces de implementar ni sostener: como sucedía con aquella torreta defensiva contra aquellos aviones tan rápidos. Pero además, las máquinas no se cansan, no se deprimen, no hacen huelgas, no hay que pagarles un salario… son, en las propias palabras de Wiener, trabajo esclavo. Y también en palabras de Wiener, teniendo todo aquello en cuenta, en términos de costos es imposible para los trabajadores asalariados competir con trabajo esclavo, y encima uno con la potencialidad de ser más productivo. De modo que, relata también Wiener, se acercó a contarle estas cosas a diferentes líderes sindicales de su momento, para que los trabajadores pudieran al menos estar al tanto de lo que se venía: pero, aunque lo trataron cordialmente y lo escucharon, no parecían tener herramientas intelectuales para asimilarlo en toda su complejidad, ni entonces comprender nada de esto como algo que requiera la atención de los sindicatos; las urgencias eran otras.

    Insisto en que eso sucedió en 1948. Tómense por favor un momento para reflexionar qué pudo haber pasado en el camino para que hoy, año 2023, tanta gente se muestre sorprendida por la inteligencia artificial y la inquietud laboral como si fuera alguna súbita novedad. Porque es muy, muy importante este detalle, y después vamos a hablar sobre eso.

    Como fuera, Wiener no era un tipo al que no le importara qué iba a suceder con la sociedad. Él pretendía que la cibernética fuera una fuerza fundamentalmente liberadora. A esa altura ya no se podía ser ingenuo con las consecuencias de los desarrollos científicos y tecnológicos. Entonces, de aquella anécdota vinculada al sindicalismo y el valor del trabajo, concluyó que la solución sería cambiar a un sistema donde el principio rector no fuera la competencia, ni el andar comprando y vendiendo cosas; una vez más, en curiosa sintonía con las típicas interpretaciones sobre la sociedad de cualquier marxismo vulgar. Y no fué la última coincidencia, ni mucho menos. Después de la trascendencia que tuvo su libro “cybernetics”, escribió otro al poco tiempo, orientado hacia un público más general, y concentrado precisamente en el impacto social de su trabajo. Este segundo libro se llamó “el uso humano de seres humanos”, en sospechosa sintonía con el célebre concepto de Marx, crítico hacia el capitalismo, de “explotación del hombre por el hombre”.

    ¿Acaso Norbert Wiener era un marxista? No, no lo era. Wiener era un científico, un filósofo, un intelectual. Sus planteos no eran el producto de un pliegue y subordinación políticos hacia un lado de un conflicto, sino el resultado de sus propias experiencias y reflexiones. Era un librepensador: algo eminentemente mucho más liberal que marxista, muy especialmente por aquel entonces. Pero en tanto que libre, no tenía ningún problema en cuestionar los límites o hasta fracasos del capitalismo: él no tenía compromiso alguno con el capitalismo, a pesar de la ya insistente propaganda que pretendía asimilar los conceptos de capitalismo y de libertad. Y esto es algo que en un mundo polarizado e ideológicamente competitivo es muy difícil de comprender. En América en general, y muy especialmente en Estados Unidos, la influencia del marxismo fué mucho menor a la que se experimentó en Europa y Asia: América siempre fué mayormente liberal. Eso no es nuevo: el marxismo como movimiento político suele ser profundamente eurocéntrico, y al caso alcanza con revisar las opiniones de Marx mismo sobre figuras hoy canónicas de “izquierda” en América, como Simón Bolivar. Y el punto es que, además de marxismo, en América siempre tuvimos otras “izquierdas”, otres revolucionaries diferentes a les de Europa. En particular, Estados Unidos tiene mucho un concepto que hoy suena casi oximorónico, pero que si contemplamos sus orígenes históricos no tienen nada de raro: “izquierda liberal”.

    Wiener era ciertamente “de izquierda”: levantó la voz contra el racismo, contra el anti-semitismo, contra los abusos ecológicos, contra el financiamiento militar, y contra el anti-humanismo capitalista. Pero Estados Unidos nunca fué un buen lugar para ponerse a criticar al capitalismo, y menos todavía lo era por ese entonces, cuando la guerra fría se volvía más y más virulenta. Al poco tiempo de publicado su segundo libro, en Estados Unidos emergían el Macartismo y la segunda ola de “miedo rojo”: dos tendencias conspiranóicas muy intensas que operaban bajo sospechas constantes de que cualquiera pueda ser comunista, de que ser comunista era ser un agente enemigo, y de que secretamente estos agentes comunistas estaban infectando las estructuras estatales norteamericanas.

    ¿A qué viene esto de historia y marxismo y tantas otras cosas que no parecen tener mucho qué ver con nada? A que cuestiones políticas del momento fueron profundamente dañinas en la capacidad de Wiener para conseguir financiamientos para sus investigaciones en cibernética, y de esa manera sucedieron otro montón de cosas. Por un lado, muches empezaron a tener reparos en quedar asociados a la figura de Wiener, razón por la cuál tomaban distancia. Y por el otro, mucha gente seguía de una manera u otra profundamente interesada en los planteos de la cibernética, que en ningún momento dejó de mostrarse como una disciplina seria y poderosa: razón por la cuál comenzaron a plantear diferentes áreas de estudio más especializadas que la cibernética, que en la práctica competirían con ella en la búsqueda de financiamientos para las investigaciones. Sistemas de control, ciencias de la computación, teoría de juegos, y otros espacios de las ciencias y las ingenierías, eran revalorizados o creados en el contexto del auge de la cibernética. Y entre ellos tuvo lugar la creación de un área de estudio nueva, hija directa de la cibernética, pero esta ya con el único objetivo de replicar la inteligencia humana por medios tecnológicos: “inteligencia artificial”.

    Es irónico que una disciplina concebida para combatir la sobreespecialización termine condenada a la sobreespecialización, ¿verdad?. Pero es más irónico todavía si consideramos que en buena medida sucedió “por ser de izquierda”, y al mismo tiempo miramos cómo le fué en el hipotético paraiso izquierdista que debía ser la Unión Soviética, en ese momento con Stalin y Lysenko. Allí, la cibernética fue vista con sospecha y sometida al aparato de propaganda anti-occidental, razón por la cuál rápidamente se la caracterizó de “pseudo-ciencia”. Ese es un término técnico de la epistemología normativa, que se utiliza para distinguir qué es ciencia y qué no lo es: algo que, como mencionamos antes, era de suma importancia y por muchas razones. Hoy nosotres sabemos, por el paso del tiempo, que tanto “occidente” como “oriente” fueron tan reaccionarios como dogmáticos en muchas cuestiones, incluida esta; pero por aquel entonces esas cosas todavía eran discutidas, y que en la Unión Soviética desacreditaran a la cibernética le hizo más daño que favores a Wiener.

    Y entre paréntesis, ya sea por lysenkoismo o por macartismo, esta historia nos hace pasar por una pregunta: ¿quién controla a la ciencia? Tal vez para no ser paranoiques corresponda no un quién, sino un cómo. Y tengan en cuenta que en un mundo con cosas como bombas nucleares y gas mostaza asesinando a decenas de millones de personas, y viviendo básicamente en un estado de constante ansiedad y pánico gracias a ello, esta no era ninguna pregunta ociosa. ¿Cómo es eso de que una ciencia prospere o deje de prosperar por motivos políticos? ¿Cómo prosperan entonces las ciencias? ¿No eran autónomas y libres y queseyó?

    Como sea, a mediados de la década de 1950 nace “inteligencia artificial” como disciplina académica. Y con las iteraciones de experimentos sorprendentes, si bien humildes para nuestros estándares actuales, no tardó en conseguir financiamiento del Departamento de Defensa: ese al que Wiener le escapaba después de él mismo haber formado parte de los esfuerzos de la segunda guerra. Pero aquellas cosas que sucedían alrededor de máquinas y matemáticas en el prestigioso MIT no eran las únicas que sucedían alrededor de la inteligencia artificial. Todas las ciencias en todo el planeta avanzaban de manera tan sorprendente como convulsionada, con diferentes intereses. Y en este momento de la historia, todo empieza a retroalimentarse.

    Por ejemplo, la lingüística y la filosofía del lenguaje tuvieron sus propias revoluciones durante estos tiempos de guerras y modernidad tardía. Y desde esas áreas tenían un montón de cosas para decir sobre la sociedad y el ser humano: cómo pensamos, cómo nos comunicamos, cómo eso nos hace humanos. Nutrido de ello fue que emergió la jóven figura de Noam Chomsky en los mismos años que nacía la inteligencia artificial.

    Realmente no hay forma de hacerle justicia a todo lo que pasaba por ese entonces: al mismo tiempo que aparecía la pastilla anticonceptiva, la iglesia católica se amigaba con la evolución darwiniana, se utilizaba el primer corazón mecánico en un ser humano, y aparecía la televisión a color; la biblia junto al calefón, nunca mejor dicho. Todo se mezclaba con todo: ese era el clima de época. Turing podía publicar textos sobre máquinas que piensan, pero también sobre morfogénesis celular, o sobre problemas matemáticos que probablemente no le importaban ni a los matemáticos. La guerra fría era aterradora, pero poquito a poquito el clima de posguerra comenzaba a sentirse más y más ameno en la medida que progresaban los esfuerzos de reconstrucción (léase keynesianismo y redistribución) y la ciencia y tecnología volvía a dedicarse más a las maravillas que a los desastres.

    De hecho, aquella cuestión del macartismo no duró mucho qué digamos, y a los poquitos años ya podía haber otro McCarthy como referente de la inteligencia artificial: irónicamente, esta vez uno criado explícitamente comunista y con muchos amigos soviéticos declarados. Y del mismo modo, al morir Stalin, rápidamente la Unión Soviética revalorizó a la cibernética y más bien se volvió furor. No debería extrañar a nadie que, el mismo año, mientras por un lado se reconciliaba con Darwin, la iglesia católica también exigía a les científiques que eviten concentrarse en estudiar al alma: casi como negociando a plena conciencia de lo que se venía en el futuro. Y esto era todavía 1953.

    Los problemas de Wiener pues, y de financiamiento de la cibernética, no fueron solamente por sesgos ideológicos; o al menos no de ese tipo que todes conocemos. La cuestión del generalismo e interdisciplinareidad era también muy costosa, porque el financiamiento generalmente está sujeto a resultados, y la cibernética estaba más apurada en crear cuerpos intelectuales que den lugar a costumbres científicas novedosas antes que en máquinas que jugaran ajedréz. Lo cuál, por supuesto, no quitaba que querían máquinas que jugaran ajedréz: ¿quién no quiere máquinas que jueguen ajedréz? Pero la manera de conseguir financiamiento para eso ciertamente no es ponerse a cuestionar teoría del valor y de relaciones laborales. Ejemplificar este problema con aquellos comentarios sobre el trabajo puede ser elocuente, pero el otro sesgo del que hablaba antes pasaba por otras cuestiones: por ejemplo, les cibernetistes encaraban el estudio de la inteligencia artificial curioseando la jóven noción de “redes neuronales”, a partir de un modelo de neurona y de la aplicación de técnicas matemáticas e ingenieriles para articular diferentes relaciones entre ellas, poniendo foco en una idea general de inteligencia y en la comunicación entre componentes de un sistema. O bien se concentraban en sistemas auto-organizados, programación evolutiva, biónica, o computación biológica, por mencionar algunos temas. Todo esto era caro, lento, y mucho más difícil de aplicar o explicar que el simplemente hacer una máquina con algún uso particular. Ahí hay un sesgo mucho más instrumental que capitalista o comunista. Y si a eso le agregamos la carrera espacial, es fácil esperar sesgos de financiamientos.

    La carrera espacial es útil para apreciar cómo en la historia podemos ver sesgos compartidos por la Unión Soviética y los Estados Unidos. Los mismos sesgos afloran independientemente de los principios ideológicos canónicos, cuando la competencia escala hacia el supremacismo. Y el supremacismo de posguerra, encarnado en la mismísima guerra fría, pasó a manifestarse en la idea de “qué proyecto de sociedad es mejor para la humanidad”.

    Para les supremacistes, no hay coexistencia: sólo hay sometimiento y subordinación, cuando no directamente exterminio. Y el siglo XX fué una era dorada del supremacismo. Es fácil pensar en fenómenos como el nazismo, y es fácil también ver la competencia globalizadora entre el capitalismo y el socialismo, pero en el camino se nos escapan muchas cosas si no prestamos atención. Por ejemplo, a principio de siglo era furor el fordismo, que se pretendía la mejor manera de articular la producción: y cuando alguien dice “la mejor manera”, lo que está haciendo es desvalorizar cualquier otra, dando lugar a que rápidamente se entiendan como “equivocadas” u “obsoletas”. Por supuesto que el fordismo fracasó miserable y rápidamente, generando con aquel optimismo de “descubrimiento del método definitivo” una crisis de acumulación y sobreproducción como nunca se había visto. Pero eso de los “modos definitivos” pasaba por todos lados, constantemente: método definitivo de hacer ciencia, modo definitivo de organización de la sociedad, forma definitiva de entender al ser humano… mil y una veces, la humanidad se obstinó en pretender ponerle un fín a la historia en la fantasía de haber entendido todo lo que se debía y podía entender. Todas esas veces se volvió urgente establecer aquellas grandes ideas, y la urgencia siempre fué la excusa perfecta para intentar establecerlo por la fuerza. Así, la razón instrumental fue un sesgo inter-ideológico que se encontraba por todos lados y durante el siglo XX se volvió el mejor amigo de los supremacismos.

    Pero la interdisciplinareidad era una idea que no tan lentamente se convertía en fenómeno primero, tendencia luego, y finalmente en movimiento. No es que alguna de estas tendencias “fracasaba” o las otras “prosperaban”: a todas les iba más o menos bien si se las miraba con el paso del tiempo. Por ejemplo, a la década de la fundación de “inteligencia artificial” hubo una segunda ola de cibernética, al mismo tiempo que el constructivismo radical de Piaget gozaban de mucho prestigio. Para ese momento Wiener ya había muerto, pero muchas otras personas alrededor de todo el mundo se sumaban a las prácticas e ideas de la cibernética. Sin embargo, esta segunda ola cibernética estaba más lejos de lo tecnológico (que seguía acaparando el financiamiento) y mucho más cerca de las ciencias humanas. Para esta altura, estas cuestiones ya desbordaban los ámbitos especializados, y para finales de los sesentas se comenzaba a filtrarse en otra área de la que todavía no dijimos casi nada: la cultura.

    

La revolución televisada

    Desde esclavos eficientes hasta gente desafiando a los dioses, pasando por demonios haciendo lo que se les antoja, la historia está llena de registros de criaturas o dispositivos como los que hoy llamaríamos robot, androide, o cyborg. Estas cosas aparecen ya en los cuentos de Homero, y siempre que se escarba esta historia aparecen El Golem y Fránkestein. Aunque este último merece una rápida mención, por ser considerado por muches el primer trabajo de ciencia ficción. No es casual que el subtítulo sea “el prometeo moderno”. Fránkestein ya tenía a la ciencia y la modernidad como eje central de su trama, más allá de lo que dijera al respecto. Y el fuego prometéico de Fránkestein era la electricidad: esa cosa tan esotérica que allá por el siglo XIX permitía fantasear tantas cosas, y hoy da vida a la inteligencia artificial.

    La ciencia ficción, depende a quién le preguntes, se pretende más especulación cientificista que literatura en sí; no es que no fuera literatura, o el medio que se pretenda (cine, teatro, y demás), sino que la especulación sobre el futuro de la humanidad de la mano de la ciencia y la tecnología sencillamente no es secundaria. La ciencia ficción en general tiene algunos temas recurrentes, que por supuesto serían grandes hitos de la ciencia y de la humanidad si algún día fueran logrados: inmortalidad, viajes en el tiempo, viajes por el espacio, etcétera. Entre ellos están también la creación de vida artificial, y otras cosas que sucederían con la humanidad si acaso la comenzáramos a modificar por medios tecnológicos. Fránkestein de nuevo, claramente. Y si medimos a Fránkestein con esa vara, yo diría que algunos detalles se le escaparon, pero en líneas generales no estaba tan desviado en lo que se venía: tanto los desarrollos científicos, como algunas reacciones sociales vinculadas a ellos, y algunos comportamientos de la comunidad científica también.

    El Doctor Fránkestein no fue el primer “científico loco” ni mucho menos: ya por el 1500 había personajes de ese estilo. Y viceversa también: científiques reales y cuerdes se ponían a imaginar cosas, las escribían, y esas ficciones claramente han de valer algo en esta historia. Pero es común que se ponga en Fránkestein un antes y un después, que francamente es cómodo para nuestro relato. Y las especulaciones cientificistas sobre futuros posibles, así como las novelas y cuentos inevitablemente imbuídas del espíritu moderno, no hicieron más que crecer desde aquel momento.

    No nos interesa aquí ser minucioces en el recuento de items y condiciones de la ciencia ficción, porque es un trabajo que le queda muy grande a este ensayo. Pero sí nos es importante mostrarla como hija predilecta de una modernidad que afectaba directamente a las culturas de todo el mundo. Todas la eras tuvieron y tienen sus mitos y relatos, así como también diferentes roles para las diferentes artes, y diferentes medios técnicos y tecnológicos. La modernidad aceleró la heterogeneidad de medios técnicos a partir del desarrollo tecnológico de la imprenta, que a su vez tuvo impacto y contexto político en las incipientes ideas liberales, que a su vez daban lentamente lugar a una idea de arte más cercana al entretenimiento que a la artesanía o la filosofía, a su vez influenciado por los costos de materiales y legislaciones de propiedades intelectuales, dando lugar por esa vía nuevas técnicas y tecnologías… Es una historia enorme, que visto desde lejos nos permite abstraer sistemas retroalimentándose entre la política, la cultura, la filosofía, el arte, la ciencia, y la tecnología, entre muchos otros y con todos sus pormenores. Y así, para el siglo XX, “de repente” teníamos radio, y cine, y hasta televisión, donde los “géneros” se volvían una idea cada vez más difusa, y cada vez tenían más vínculos con sus “medios”.

    Y además de “géneros” nuevos, aparecían también conceptos nuevos, propios de su época. La ciencia ficción no daba solamente historias sobre el futuro de la humanidad o lo que hacen “científicos locos”, sino también personajes de fantasía que convivían con las sociedades actuales y daban lugar a conflictos de todo tipo: meta-humanes, más coloquialmente conocidos como “super-héroes”. Entre las tantas fantasías que la ciencia y la tecnología nos permitían, una de las más insistentes era la posibilidad superar los límites del ser humano, literalmente. Y así emergieron extraterrestres que vienen a la tierra a defender el estilo de vida americano, supersoldados creados por la ciencia del momento para combatir al nazismo, millonaries industrialistes que usaban su fortuna e inteligencia para combatir al crimen y la injusticia con tecnología de avanzada, víctimas de accidentes en experimentos científicos que terminan luego con resultados tan inesperados como espectaculares y dramáticos, mutantes a los que la evolución darwiniana les permitía hacer cosas que en otras épocas hacían los semidioses, o incluso hasta dioses mismos que ahora pasaban a tener una explicación acorde a las sensibilidades modernas y podían vivir aventuras a la luz del día sin perjuicio de ninguna escritura sagrada.

    Todas esas ideas que en otros tiempos eran raras si no impensables, en el siglo XX eran ya sentido común. Y rápidamente en ese sentido común también se instalaron otros dos personajes mitológicos de nuestra era: la máquina consciente de sí misma, y el ser humano con partes maquínicas en reemplazo de las biológicas; o bien la inteligencia artificial y el cyborg, en términos ya más contemporáneos.

    Los medios impresos pasaban de texto a imágenes, y del blanco y negro al color, del mismo modo que llegaban noticias y radioteatros hablados en la misma época que llegaba también el cine a las ciudades, y así Fránkestein y su critatura era cada vez menos un producto de la imaginación y más una imagen concreta. Lógicamente esto no hizo más que acelerarse cuando, además, apareció la televisión.

    Estas cosas suenan más bien inocuas o hasta irrelevantes, pero tienen consecuencias importantes en las sociedades. Por ejemplo, en diferentes oportunidades hablamos de cierto optimismo moderno, especialmente en lo que respecta a la ciencia y la tecnología. En realidad, si miramos un poquito más en detalle, esos optimismos frecuentemente tuvieron sus fuerzas contrarias que les dieran cierto balance: corrientes conservadoras, pesimismos, o hasta experiencias fallidas, de todo tipo (ideológico, religioso, antropológico, etcétera). Pero ahí se vuelve notorio un componente estructural de la modernidad, que todavía hoy vivimos con mucha intensidad, y en otras épocas difícilmente podía existir o lo hacía en dosis muy limitadas: una especie de activa desconexión intergeneracional más bien sistémica. No queremos tampoco extendernos mucho en esto, por las mismas razones que no quisimos ahondar en otros temas, pero es necesario mencionarlo de una manera u otra: en la modernidad, cada generación de seres humanes parece querer romper con la historia y dar lugar a un mundo radicalmente nuevo. Hay un ímpetu por formar parte de una fuerza de cambio tanto a nivel social como mundial, y esto sucede en izquierdas y derechas por igual. En eso se mezclan un poco de supremacismo, y otro poco de la experiencia aletéica en el conocimiento científico y el trabajo intelectual; pero también tiene qué ver con ese impulso del tren de la historia, esa aceleración aparentemente indetenible desde el siglo XVII, de la que por muchas vías se estimula a las juventudes a formar parte.

    A veces es el ímpetu a formar parte de la historia, haciendo algún descubrimiento o desarrollo que cambie algo para siempre: curar una enfermedad, explicar algo inexplicado, solucionar algún problema sistémico. Otras veces es por “salir de la pobreza”, donde te invitan a meterte en una universidad y aprender cosas que luego te permitan acceder a “un mejor trabajo”, y allí une accede a tantas ideas tan sofisticadas y transformadoras. Pueden ser también cosas más mundanas, como simplemente la búsqueda de poder, o incluso el mero seguir la corriente de la época. En todo caso, cuando une comienza esos caminos, las influencias culturales cobran especial centralidad, y nos sirven al mismo tiempo como metáforas para entender y horizontes para seguir. Así fué que la carrera espacial tuvo al menos tanta influencia de Julio Verne y compañía como de intereses geopolíticos, y así fué también que durante la segunda guerra hubo intentos legítimos de crear supersoldados y explorar la modificación física de seres humanos y animales en general, con diferentes fines.

    Si une se pone a pensar esas influencias entre cultura, ciencia, política, y tantos otros sistemas, siempre aparece la pregunta por “el huevo o la gallina”: es decir, cuál vino primero en la historia. Pero desde una perspectiva cibernética, esa pregunta importa poco para explicar las relaciones entre sistemas: lo que importa son los ciclos de retroalimentación entre sí. La búsqueda por el “primer” componente, el más elemental de todos, frecuentemente es la búsqueda por aquél que permite regular todo, el que controla a los demás: pregúntenle sino a cualquier marxista por el rol de la política y la historia, o bien a cualquier liberal por el rol de la autonomía de las personas y los intercambios comerciales. Pero es inconscientemente una búsqueda supremacista: la cibernética nota que, una vez que los sistemas están inter-relacionados, se aplican estrategias de control sobre cualquiera de las varialbles involucradas sin necesidad de que ninguna sea más importante que las otras. Eso no quiere decir que no haya diferentes importancias: pero son contingentes, y tienen qué ver con diferentes relaciones antes que con naturalezas de las variables. Y frente a eso se puede apreciar fácilmente cómo la cibernética, lejos de tratar de concentrarse tan sólo en “inteligencia artificial”, o en el problema epistemológico de la interdisciplinareidad, o en ciencia y tecnología siquiera, más bien se mostraba como alguna forma de lineamiento ideológico, y entonces sus ancestros son mucho más el liberalismo y el marxismo que la computación.

    Y la cibernética no era la única que se manejaba con esta clase de ideas. “Ciencias de la complejidad”, “ciencia del caos”, diferentes tipos de “holismos”… en diferentes lugares del mundo y bajo el amparo de diferentes disciplinas, se tomaba consciencia de las relaciones entre problemas y sistemas abstractos, y lo complicado que resultaba intervenir en ellos, mientras se vivía bajo la sombra de los eventos recientes y la necesidad urgente de poner en contacto a la ciencia con la sociedad. La interdisciplinareidad era en buena medida parte del espíritu de la época, y su implementación llevaba a muchas ideas transformadoras. Aunque también se presentaba como una amenaza para algunos círculos de poder. Y ahora que ya hablamos de tantas cosas y llegamos hasta la cultura, si la cibernética es la heroína de nuestro relato histórico, es un buen momento para introducir también a nuestro villano.

    Mencionamos casi al pasar que el fordismo había fracasado miserablemente, ¿verdad?. Bueno, en realidad ese fué un evento importantísimo en el siglo XX: la gran crisis de 1930. En la década de 1920, mientras Europa vivía de revolución en revolución y en paises otrora centrales ahora había inseguridad alimenticia generalizada, en Estados Unidos se dió un proceso de sobreproducción y acumulación de capital en pocas manos como nunca antes; amparado este último en una posición privilegiada frente al desastre Europeo, y en un montón de fantasías. Las ciudades seguían creciendo de la mano del industrialismo, que fantasiaba con un crecimiento infinito del valor de sus acciones, y una expansión infinita de sus mercados y mejoras técnicas y quién sabe qué más. Todo esto generó situaciones de especulación y crédito hoy a todas luces ridículas, y para 1929 esa burbuja de optimismo finalmente reventó llevándose con ella el valor de casi todo.

    En esas dos décadas, 1920 y 1930, el liberalismo en general estaba en crisis, y muy especialmente en su acepción económica. La necesidad de los Estados de intervenir en la producción y el comercio era absolutamente clara para cualquiera, y al mismo tiempo que el empresariado no era visto como motor universal de ningún progreso también sucedía que el marxismo era una opción muy presente. El liberalismo, en definitiva, perdió muchísima influencia ideológica por estos años, y con ello mucho poder político. Y ya fuera por intervención estatal o por revolución marxista, los intereses de les entonces liberales se veían en profunda crisis, de modo que comenzaron rápidamente a organizarse al caso.

    No es lo mismo la defensa del liberalismo que la defensa del capitalismo. Por ejemplo, en respuesta al liberalismo decadente de su tiempo surgió el keynesianismo, que prometía en el consumo y la distribución las bases de un “capitalismo bueno”: una idea muy necesaria cuando en la vereda de en frente están las hordas obreras con rastrillos y antorchas. Y al keynesianismo lo conocemos todes. Pero la historia de la reacción liberal es casi tan opaca como la historia de la cibernética.

    El primer gran hito surge de los Estados Unidos, de la mano de un periodista y escritor llamado Walter Lippmann. Este señor publicó un libro llamado “An Inquiry into the Principles of the Good Society” en 1937, y un año más tarde se daría lugar en París al “Coloquio Walter Lippmann” donde hablaría de aquello que publicó en ese libro. Asistieron un montón de figuras relevantes del momento a esa convención, donde tuvieron oportunidad de debatir al respecto de la situación del liberalismo en ese momento y las reformas necesarias para adecuarlo a un mundo muy diferente al de siglos anteriores. Y hacia el final discutieron el nombre que tendría esta nueva y refrescada iteración de liberalismo: triunfó el poco sorprendente término “neo-liberalismo”.

    El gran enemigo de Lippmann era el colectivismo: no importaba mucho si el enemigo era el fascismo o el comunismo, el punto era prestarle atención a las libertades individuales, y el colectivismo atentaba contra eso. Y, hasta acá, nada nuevo bajo el sol: lo mismo que diría cualquier liberal que conozcan. Lo curioso de Lippmann en ese contexto es que, y presten atención a esto, estaba rotundamente en contra del libre mercado. Si, así como escuchan: la parte “neo” en ese “neoliberalismo” naciente era esa diferencia radical con el viejo y vetusto liberalismo de siglos anteriores. Lippmann podía pasar cientos de páginas hablando mal de sus enemigos ideológicos, pero cuando hablaba de cómo debía ser la sociedad liberal, no dudaba un segundo: el estado debía intervenir, porque el libre mercado generaba absolutos descalabros de poder en la sociedad. Así que el neoliberalismo nació básicamente keynesiano.

    Ese opaco hito histórico del liberalismo fué puesto bajo la lupa en algunas oportunidades por diferentes intelectuales que estudiaran al liberalismo. Pero ciertamente el neoliberalismo que conocemos se parece poco a eso de Lippmann, y del mismo modo cuando se busca su origen aparece otro evento histórico diferente, ya pasados diez años más. En 1947 se crea un grupo de pensadores dedicados a interpretar los principios de la “economía occidental” y cómo adecuarlos a su contemporaneidad. Este grupo sería uno de los que más tarde se conocerían como “think tanks”, y reunió a las figuras más importantes del liberalismo del momento, de las que Lippmann ya no formaba parte. Y este grupo ya no tenía los reparos de Lippmann: así como la libertad de expresión, y cosas como la “sociedad abierta”, defendían también al libre mercado. Se trata de la Mont Pelerin Society, o MPS, que sí es el origen canónico del neoliberalismo como lo conocemos.

    La cibernética nació al mismo tiempo que el neoliberalismo. Y el MPS no fué el único think tank que apareció, sino apenas el primero, y si se quiere el más prestigioso. Y pregunta para la clase: ¿creen que los think tanks neoliberales tuvieron problemas para conseguir financiamiento? Por supuesto que no. Estos think tanks tuvieron no solamente recursos económicos, sino también muchas ideas con las que trabajar: formaban parte del mismo clima de época donde la inter-disciplinareidad y la complejidad eran cosa en boca de todes. Así, se ocuparon no solamente de la economía, sino de todas las dimensiones de su actualidad: política, ciencia, cultura, historia… nada quedó fuera de su alcance.

    De hecho, la inteligencia artificial también nació bajo el ala de otro think tank: la RAND corporation, creada en 1948. Pero la cibernética captó el interés no sólo de la RAND corporation, sino también del MPS, fundamentalmente de Friedrich Hayek. Hayek participó de convenciones de cibernetistas en la década de 1960, interesado en la noción de “organismo o sistema auto-organizado” para aplicarla a la idea de “mercado”: eventualmente llegó a decir que aquella famosa “mano invisible del mercado” era un mecanismo cibernético.

    Y esto no era algo que solamente podía ver un liberal: en la Unión Soviética, cuando la cibernética finalmente fué reconocida y comenzó a gozar de mucho prestigio, comenzaron a desarrollar un plan de economía sin moneda, utilizando terminales computarizadas distribuidas por todo su territorio, que mediante la actual infraestructura telefónica tendrían capacidas para compartir información en tiempo real con un centro de cómputos centralizado, así como también capacidad para comunicarse entre sí, y de esa manera realizar pagos de forma electrónica. Eso era en 1962, y el sistema se iba a llamar OGAS. Por si no entendieron: los soviéticos pudieron tener internet, email, google, y mercado pago, todo bajo control estatal, en la década de 1960. ¿Qué pasó con eso? Para 1970 el partido le bajó el pulgar negándole financiamiento, y si le creemos a los comentarios que encuentro al respecto parece que fué fundamentalmente porque iba a depender del ministerio de estadística en lugar del ministerio de economía, lo cuál generó desconfianzas desde este último.

    Las aventuras izquierdistas de la cibernética no terminan ahí, y apenas un año después Salvador Allende contrata cibernetistas para crear el proyecto de gestión estatal del gobierno socialista democráticamente electo chileno: cybersyn. Este sería un sistema más orientado a la toma de decisiones en general antes que a la estricta gestión económica. De hecho, era un sistema con múltiples componentes, donde uno de ellos pretendía obtener en tiempo real información acerca de cómo se sentía la población en general, y más exactamente qué tan felices eran: lo mismo que hacen hoy facebook y amazon. Y la persona contratada para estar al frente de este desarrollo se llamaba Stafford Beer, un cibernetista que trabajaba áreas a las que nadie jamás relacionaría con socialismo: administración de empresas, y gestión de recursos humanos. A diferencia del OGAS soviético, cybersyn no sólo llegó a entrar en funcionamiento (aunque no en su totalidad), sino que además fué exitoso en resistir algunas pruebas bastante duras para cualquier sistema de por aquel entonces: fué capaz de permitir organizar la logística industrial durante un período intenso de lockouts patronales. Más tarde no logró sobrevivir a asaltos de grupos comandos y a bombardeos, pero esa es otra historia.

    Y tanto la idea de resistir bombardeos, como también todas aquellas ideas vinculadas a la comunicación, el extender la mente humana, el conectarse, y las preguntas por el conocimiento, llevaron por estos mismos años a la creación de ARPANET: la naciente red internacional de computadoras occidental, que inicialmente conectó a los Estados Unidos con Inglaterra y Francia, casi rememorando los orígenes revolucionarios modernos. Y también por la misma época Marshall McLuhan hablaba de “aldea global”, y de cómo los medios de comunicación y la interconexión iban a tener qué efectos sobre las sociedades de todo el mundo.

    Se puede apreciar cómo la cibernética claramente no era “inteligencia artificial” per sé, y que la excedía por mucho. Y que, de hecho, no tenía tanto qué ver con computadoras: “recursos humanos” ciertamente no se trata sobre eso. Pero también queda claro que su impacto era profundo, aún cuando otras disciplinas obtuvieran mejor y más estable financiamiento. Tanto es así que ya en la década de 1960 se había acuñado el término “cyborg” en la literatura popular, referido primero al concepto de un ser humano mejorado con componentes tecnológicos, y más tarde al de “organismo cibernético”. No muchos años después de eso, ya se hablaría de “cyberpunk” como género. La cibernética ya era parte integreal de la misma cultura en la que convivían los superhéroes y superheroinas con los conflictos ideológicos y los tiempos modernos.

    Mientras tanto, la historia de la inteligencia artificial, si bien tiene mucho de filosofía y ciencias exactas, también es una historia muy ligada al desarrollo del hardware computacional, que para este entonces estaba en su adolescencia: bastante grandecito como para hacer de cuenta que necesitaba pañales, pero al mismo tiempo con muy pocas competencias para una vida de adultez. Y fue exactamente en la misma época donde esa historia le dió un impensado hermanito menor a la inteligencia artificial: los video juegos. En 1962, en el mismo MIT donde convivían Wiener con Chomsky con McCarthy con Misnky, y tantas otras figuras importantes de este relato, aparece “Spacewar!”, el primer juego de computadora conectado a una pantalla de tubos catódicos.

    Antes de spacewar hubo otros juegos, donde el más notable probablemente sea “Tennis for two”, que mostraba un juego de tenis desde una perspectiva lateral y en una pantalla de osciloscopio. Tanto en “Tennis for two” como en “Spacewar!” se podían apreciar algunas implementaciones físicas: como ser la trayectoria de la supuesta pelotita de tenis, o bien incluso la atracción gravitacional de la estrella en medio del espacio de batalla. Antes de estos juegos existieron otros, donde se podía jugar ta-te-tí o nim, aunque estos no tenían pantalla. Sin embargo, muy tímidamente, estos aparatos que se suponían para jugar, de inmediato empezaron a mostrar que en realidad eran más bien para simular.

    Esto podría haber sorprendido al publico general, o quizás incluso a inversores, pero no al ámbito tecnológico, por ese entonces ya inmersos en la carrera espacial. Carrera que comenzara como estrategia militar muy vinculada al desarrollo de misiles, pero que temprano en la década de de 1950 se convertía en un horizonte para la humanidad y un componente central de la competencia ideológica. E, irónicamente, también otra esquirla de la segunda guerra mundial: fueron los nazis quienes avanzaron con la misilistica durante la guerra, y una vez finalizada se repartieron esos conocimientos entre la Unión Soviética y los Estados Unidos. Y también fué durante la segunda guerra, y con fuertes hitos históricos nazis, que se trabajó en la propaganda: el influenciamiento de la población general con discursos meticulosamente calibrados. Los cohetes y la propaganda ya existían antes de la segunda guerra, pero como todo lo demás que relatamos estas dos otras cosas también subieron sus órdenes de magnitud novedosos, dando lugar a nuevos fenómenos relativos a esas escalas. Como fuera, en la primera mitad de la década de 1950 salían publicaciones soviéticas contándole al pueblo que la exploración espacial era inminente, mientras desde Estados Unidos respondían con exactamente las mismas premisas pero articuladas por Disney. Para 1957, la Unión Soviética ponía en órbita al Sputnik 1, el primer satélite artificial de la humanidad, y meses después de eso ya se hablaba en la cultura popular de “beatniks”. Un año después nacía la NASA, en 1961 Gagarín se convertía en el primer ser humano en el espacio, y en los mismos sesentas aparecía Star Trek en las televisiones estadounidenses: donde la utopía liberal era encarnada por una pacífica federación de planetas sin comercio ni dinero ni ambiciones de conquista, y con mucho para decir sobre los problemas sociales del momento. Para 1969, Neil Armstrong era el primer ser humano en pisar la luna. Las computadoras y sus parientes no estaban para nada disociadas de eso, y así teníamos en 1965 a “perdidos en el espacio”, donde un robot era el mejor compañero de un grupo de cosmonautas, y a “2001: odisea en el espacio”, donde la exploración espacial se muestra como parte de la evolución humana y la inteligencia artificial encarnaba a un memorable villano.

    Todo influenciaba a todo: el aleteo de una mariposa fascista durante la segunda guerra en Europa podía generar un terremoto cultural en la televisión americana o soviética dos décadas más tarde. Y todo se retroalimentaba: la propaganda establecía intereses públicos, que a su vez establecía tanto clamores populares como especulaciones financieras y mercantiles en inversionistas de todo tipo, lo cuál le daba a los muchos grupos de investigación estrategias para conseguir financiamientos, que a su vez resultaban en teorías y tecnologías novedosas que daban lugar a nuevas fantasías, y el ciclo parecía nunca acabar. Todo esto era una máquina muy difícil de calibrar, con consecuencias también difíciles de medir. Todo lo que contamos en estos párrafos parece más bien felíz, pero en la misma década también se vivió la crisis de los misiles cubanos y el asesinato de Kennedy, con todas sus consecuencias. Lo cuál es un relato mayormente enfocado en Estados Unidos y la Unión Soviética: no estamos diciendo casi nada sobre Europa, Asia, África, ni ningún otro lugar del mundo. El punto de todo esto es precisamente tratar de dar una idea de la magnitud, la cantidad, la densidad de eventos que se vivían en los cincuentas y sesentas, a la luz de maravillas y a la sombra de catástrofes.

    En 1963, Martin Luther King Jr. escribía una frase célebre y característica de aquello último: “Nuestro poder científico ha sobrepasado a nuestro poder espiritual; tenemos misiles dirigidos y hombres mal dirigidos”. La traducción hace que se pierda el juego de palabras entre “guided” y “misguided”: pero si le damos una pequeña vuelta de tuerca y decimos “misiles teledirigidos”, muy fácilmente podemos llamar la atención sobre la televisión y lo que ya hacía sobre la gente. Eso sólo emperó con el tiempo, y diez años más tarde, en 1976, la hoy clásica película Network lo supo decir con mucha más contundencia.

    Cualquiera fuera el caso, los setentas van todavía más rápido, y los eventos suceden con más densidad. Al mismo tiempo que se prometía un nuevo mundo de maravillas, tanto la Unión Soviética como los Estados Unidos seguían sumando crímenes a sus prontuarios. Wiener ya está muerto, y el otrora comunista McCarthy que fundara la inteligencia artificial lentamente se volvía un conservador republicano, desencantado luego de presenciar personalmente la invasión soviética a Checoslovaquia. El mismo desencanto vivía gran parte del pueblo estadounidense con los pormenores de la guerra de Vietnam; y casi como si una guerra fría entre superpotencias planetarias no fuera suficiente paranoia, entre el asesinato de Kennedy y el Watergate de Nixon, la presencia de los servicios de inteligencia estadounidenses era tan intensa en la cultura popular como la figura de la stasi nazi de antaño o la siempre amenazante KGB soviética.

    Para los setentas, en la televisión estaba la mujer biónica, y en el MIT y aledaños ya se hablaba de “hackers”, mientras aparecían también los arcades y las consolas hogareñas de video-juegos, con el pong a la cabeza del fenómeno cultural. Pero en el mundo de las computadoras, muchos de los juegos eran basados en texto, con lo cuál debían comprender comandos cercanos al lenguaje natural, y de hecho eventualmente adquirieron el nombre de “aventura textual”. Esas aventuras podían ir desde explorar calabozos de fantasías tolkenianas, hasta combates contra el imperio Klingon en el universo Star Trek. No tardaron mucho en aparecer experimentos de mundos tridimensionales y experiencias inmersivas. Todo esto era parte de un doble juego retroalimentado entre nuevas generaciones con sus propias culturas apropiándose del uso de computadoras, abaratamiento de los componentes y técnicas de fabricación, matrícula en las universidades tecnológicas, y financiamiento de los grupos de investigación, entre tantos otros vectores de influencia que se disparaban para todos lados.

    En los setentas, también, la competencia espacial entre Estados Unidos y la Unión Soviética había finalmente dejado lugar a la cooperación, firmando tratados que regularan la proliferación armamentística en el espacio, y de hecho colaborando en la construcción de la estación espacial internacional. Pero estos eventos esperanzadores significaban poco en otros frentes, donde la guerra no tan fría continuaba de manera despiadada. Uno de esos frentes fue América: antes territorio colonial europeo, y ahora patrio trasero de los Estados Unidos. La experiencia de la revolución cubana había influenciado a muchos grupos de izquierda revolucionaria en toda América del centro y del sur. En muchos paises se intentaba aplicar el foquismo como estrategia revolucionaria, con diferentes resultados aunque mayormente sin el éxito deseado. Sin embargo, Chile mostraba una experiencia novedosa a nivel mundial: un socialismo electo por vías democráticas y en plena continuidad del orden institucional previo; es decir, un socialismo no revolucionario. Su revolución no sería la toma del poder por las armas, sino precisamente un intento de ingeniería sustentable y pacifista, donde la cibernética tuvo un rol central. Pero las reacciones a todo esto no tardaron en aparecer, y así fué que en esta década a mi región le tocó padecer el Plan Condor: una estrategia contrarevolucionaria, neocolonial, y hegemonizadora, articulada a sangre y fuego por los Estados Unidos sobre el resto de América. El Cybersyn de Allende fué destruido luego del derrocamiento violento de su gobierno, y con Pinochet en el poder se utilizaba a Chile como sede de un experimento exactamente inverso al inmediatamente anterior: la instauración del primer gobierno explícita y estrictamente neoliberal.

    A primera vista no parece, pero este es un punto de inflexión en la historia de la inteligencia artificial del que rara vez veo a alguien tomar dimensión. Sin el Plan Condor no habría neoliberalismo como lo conocemos, por un lado, pero ya el más elemental sentido común permitía fantasear incluso por aquel entonces las consecuencias geopolíticas que podría tener el éxito de un sistema como Cybersyn. La cibernética era la teoría que daba lugar a una nueva vanguardia socialista. En lugar de eso, y como reacción, a partir de aquí comienza la propaganda neoliberal más virulenta, cuyas consecuencias seguimos viviendo.

    Mencionamos la guerra de vietnam, pero no fué la única “proxy war” de por aquel entonces: también sucedió en esta época la llamada “guerra de Yom Kipurr”. Esta última no duró años sino poco menos de tres semanas. Sin embargo, fue suficiente para detonar una crisis vinculada a la energía. Sucede que en toda esta historia casi no hablamos, ni del resto del mundo por fuera de las dos superpotencias, ni de la cuestión de la energía. Y sucede que estos puntos ciegos también afectaban la visión de quienes tomaban decisiones por ese entonces. Kissinger, por ejemplo, cuenta que el foco en Vietnam tuvo como consecuencia que no le prestaran tanta atención al oriente medio, en especial la unión entre Arabia y Egipto. Para esta época la producción de petróleo en Estados Unidos comenzaba a declinar, mientras que su maravilloso “modo de vida americano” con tantas maravillas tecnológicas requería cada vez más petróleo. Y luego de aquella corta guerra de Yom Kipurr, los paises árabes establecieron un embargo de petróleo sobre los paises que habían ayudado a Israel en la guerra. Es irónico hablar de Estados Unidos como víctima de un embargo, pero eso efectivamente sucedió, y derivó en una crisis que tuvo su respectiva reacción. De hecho, no fué la última crisis de la década vinculada a la energía.

    Los setentas se vivieron con mucho descontento en Estados Unidos y sus aliados. Las cuestiones sociales de décadas previas, especialmente las vinculadas a la guerra, se cruzaron más tarde con las consecuencias de la crisis energética, donde la opulencia debió dejar lugar al uso racional de la energía, y de repente se vivió más que nunca una competencia por recursos en el día a día cotidiano. En ese contexto se dió un cambio radical de política internacional en eso que se llamaba “occidente”, pero que más bien eran Estados Unidos e Inglaterra. Y el neoliberalismo fué la bandera de cambio cultural e ideológico con la que se respondería a las crisis energéticas, que eran ciertamente una muestra de debilidad en términos imperiales. Fue en ese momento cuando todo lo que fuera social-democracia y keynesianismo comenzaron a ser vistos como estrategias políticas ingenuas e insostenibles, y se estimularon políticas agresivas de sesgo liberal en economía, pero con todo un aparato cultural moral y cuasi-religioso que sostienen al neoliberalismo hasta hoy en día.

    La figura icónica de este giro neoliberal es Margaret Thatcher, la llamada “dama de hierro” británica. Ella fué la figura carismática y pintorezca detrás de la que se abroqueló todo un aparato ideológico que, desde el libre mercado como representante de “la libertad”, estimulaba todas las formas de competencia que pudieran ejercerse en la sociedad, haciendo las veces de un darwinismo social hiper-individualista. Llegó a decir cosas como “no hay sociedad, sólo individuos”. Y en el corazón de esta propuesta ideológica globalizadora, se encontraba la frase “no hay alternativa”, al mismo tiempo resistiendo cualquier intento de considerar de nuevo ni al keynesianismo ni a nada que remotamente tuviera qué ver con el marxismo. Una vez más, se planteaba que la humanidad había llegado al modo definitivo de organización de la sociedad.

    En ese contexto, el “modelo chileno” de los “chicago boys” se pretendió exportar para todos lados, y se convirtió en bandera de éxito del neoliberalismo. No sólo se decía que era un éxito en economía, sino que se afirmaba elocuentemente que esa era la manera en que “occidente” se debía defender de la amenaza soviética y marxista: llevando las premisas liberales hasta el extremo. Por supuesto, ese extremo no era producto de ningún librepensamiento, sino más bien un discurso distribuido por aparatos de propaganda muy bien lubricados y financiados, probablemente para admiración a Goebbels. Y en el proceso de instaurar este milagro, cualquier muerte violenta en América del Sur y América Central por parte del estado se atribuía sin excepción a la reacción contra las guerrillas, así como cualquier peripecia económica era sencillamente no haber aplicado suficientemente en profundidad las premisas neoliberales.

    La crisis energética, a su vez, daba lugar a la exploración de otras tecnologías, y así volvía a aparecer la esoteria nuclear que décadas antes diera lugar al nacimiento de la “era nuclear”. Los proyecto de reactores nucleares comenzaron a proliferar, y no sólamente en Estados Unidos. Francia era otra potencia nuclear, que por ese entonces entendió cómo podía vender esa tecnología a cambio de petroleo a los paises de medio oriente. Aunque para final de la década ya había pasado el primer gran desastre nuclear en Estados Unidos, y pocos años después sucedió el soviético: dos hitos que, entre muchos otros, pusieran rápidamente fín a las fantasías de progreso rápido de la mano de la energía nuclear. Y la energía nuclear daba centralidad a una de las muchas disciplinas y movimientos influenciados por la cibernética: el ambientalismo, que cada vez se mostraba mejor organizado en todas sus dimensiones; académica, política, cultural. Para ese entonces ya se empezaba a hablar de la nunca exitosa hipótesis Gaia, donde cada pequeño componente del planeta podía ser entendido como parte de un sistema homeostático autopoiético o superorganismo: lo cuál puede entenderse como una forma de vida en sí, y por lo tanto el planeta estaría vivo.

    A esta altura la inteligencia artificial también estaba por todos lados, y por ejemplo los video juegos ya pasaban a ser “single player”. No lo dijimos antes, pero los videojuegos originales eran generalmente para dos o más jugadores: no tenían una inteligencia artificial a la cuál derrotar. Eso fué cambiando con los años. Y de hecho para ese entonces ya habían sucedido hitos sorprendentes para el público general. ELIZA fue el primer chatbot, y logró confundir a más de une que pensó estuviera hablando con una persona real. Ya trabajaban modelos de lenguaje natural para interactuar con personas, habían comenzado estrategias de reconocimiento de imágenes, lógicamente había brazos robóticos haciendo diferentes tareas, y bueno… el icónico proyecto de la máquina que juega ajedrez continuaba sus pasos lentos hacia el triunfo. Todo esto llenaba de optimismo a la gente del gremio, lo cuál quedó anotado para la historia en un comentario que Marvin Minsky hiciera a la revista Time en 1970: “entre tres y ocho años vamos a tener máquinas con una inteligencia artificial general comparable al ser humano promedio”.

    Como pasó con tantas otras tendencias optimistas antes, siendo la energía atómica la entonces más reciente, la burbuja explotó pronto, hacia mediados de los setentas. Allí comienza un período conocido como “el primer invierno de la inteligencia artificial”, donde esa área de investigación y desarrollo perdió financiamiento de manera sensible y determinante. Parece ser unánime que la explicación detrás de eso sea una horrible subestimación de los problemas involucrados por parte de les líderes intelectuales y técnicos del momento, lo cuál llevó a pobres o nulos resultados, y por lo tanto al distanciamiento por parte del ecosistema inversor. Pero no fué el único problema.

    Inteligencia artificial, a diferencia de la cibernética, era además muy dependiente de la capacidad computacional del momento, la cuál apenas podía servir para algunos pocos casos muy específicos y minúsculos de inteligencia artificial. Y por supuesto había también muchas críticas académicas en términos filosóficos de todo tipo, dado que hablar de “inteligencia” todavía hoy es por lo menos laborioso, con lo cuál el optimismo era cuestionable. Sin embargo, como frecuentemente sucede en los espacios sobreespecializados y gozosos de financiamiento, las críticas eran mayormente desestimadas bajo el sesgo tecnócrata de “no entienden los temas”. Estas cosas solamente empeoraron con el paso de los siguientes años, dando lugar a peleas entre los mismos académicos del gremio. En 1976, por ejemplo, en respuesta a un intento de uso de chatbot primitivo como psicoterapeuta, Joseph Weizenbaum publicó el libro “computing power and human reason”, llamando la atención acerca de cómo el uso de inteligencia artificial de manera equivocada podía quitarle valor a la vida humana. O incluso el mismo Minsky había escrito un paper donde criticaba conceptos claves de las redes neuronales, luego de lo cuál casi ningún proyecto de redes neuronales obtuvo financiamiento por al menos unos 10 años. Fueron años donde muchas de esas cosas sucedieron unas tras otras, y más que “invierno” yo lo llamaría “baldazo de agua fría”.

    Pero esta década tiene otra breve historia paralela de guerras comerciales y revoluciones tecnológicas: la guerra de las calculadoras. Y si antes se nos había colado medio oriente en el relato cuando hablamos de petróleo, acá vamos a abrir la puerta un poco al lejano oriente. La tecnología de los setentas podía no tener lo que hacía falta para una inteligencia artificial como la de fantasías, pero no por eso se quedaba quieta. Mientras nacían la cibernética y el neoliberalismo y ya no me acuerdo cuantas otras cosas más en 1948, también se inventaba el transistor: invento absolutamente revolucionario, si bien sólo para entendidos, y en su tiempo un poco caro y difícil de justificar comercialmente. Pero hacia finales de los sesentas hubo muchos avances en el área de semiconductores, y eventualmente tuvo lugar la creación del microchip y el microcontrolador, de la mano de empresas como la ya entonces instalada Texas Instruments, o la todavía jóven Intel. A partir de ese momento los precios de los componentes cayeron radicalmente, pero todavía más espectaculares eran las reducciones de tamaño y los requisitos de energía. Así fué que se empezaron a crear aparatos personales de cálculo, de muy bajo precio en comparación a iteraciones anteriores, y tan pequeños que hasta llegaban a ser de bolsillo: nacían las calculadoras. Es el momento donde las empresas japonesas de microelectrónica comenzaban a hacerse notar. Pero las calculadoras se pusieron de moda, saturaron sus mercados, y los precios cayeron en picada, haciendo que casi todas las empresas involucradas fueran a la quiebra y quedaran pocas sobrevivientes bien instaladas en la industria microelectrónica.

    Esa guerra tuvo varias esquirlas, de la que nos interesa prestar atención a una. Del lado de Estados Unidos, al comienzo de esta ola de semiconductores y nuevos formatos, un emprendedor de la electrónica llamado Henry Edward Roberts comenzó a vender kits para que aficionados pudieran armar su propia calculadora. Era algo más bien de nicho, pero muy bien visto en esos círculos, de modo que resultó ser una inversión interesante, y por un momento breve también viable. Hasta que muy pronto Texas Instruments implementó una estrategia muy agresiva en el mercado de las calculadoras, y en poco tiempo estaba ofreciento un producto mucho mejor que Roberts a una fracción del precio. Roberts tuvo serios problemas económicos por esto, y decidió enfrentarlos apostando todo o nada: otro proyecto, mucho más riesgoso. Así fué que Roberts fundó su empresa MITS, donde creó una de las primeras computadoras personales para aficionados, hoy legendaria: la Altair 8800. El proyecto resultó sorprendentemente exitoso, y entre los aficionados que se sumaron a MITS estaban dos jóvenes estudiantes de la Universidad de Hardvard: Paul Allen, y Bill Gates. Los servicios de Allen y Gates fueron contratados por MITS, y no tardaron mucho en tener problemas con Roberts por derechos de autoría y licencias del software con el que trabajaban (un intérprete del lenguaje BASIC): y le hicieron un juicio a Roberts que finalmente este último perdió. La historia de Roberts tuvo un muy extraño final felíz que les invito a curiosear por internet, pero al caso de esta historia lo que nos importa es no sólo la creación de la computadora personal, sino este otro evento vinculado al software, que en 1975 daba lugar al nacimiento de la empresa Microsoft.

    Apenas un año después, en 1976, también de la mano de dos jóvenes traviesos y llenos de energía, se fundaba otra empresa que marcaría buena parte de la historia por venir en esa misma área: Steve Wozniak, y Steve Jobs, fundaban Apple y lanzaban al mercado la microcomputadora Apple 1. Aunque fué su sucesora, la Apple 2, la que realmente marcó a fuego la naciente cultura computacional hogareña del momento.

    Hacia finales de los setentas, con tanta burbuja explotando por todos lados y tanta crisis de todo tipo, el excepticismo permeaba más a las sociedades que cualquier ya lejanísimo optimismo de posguerra, y el neoliberalismo parecía ser el único capacitado para explotar y capitalizar el momento: libremercado, emprendedurismo, y competencia como regulador de todo, sin ninguna otra alternativa. Con lo cuál, los ochentas arrancaron con renovados ímpetus coloniales e imperialistas en Occidente, mientras los soviéticos tambaleaban por sus propios problemas internos.

    

Esos juguetes maravillosos

    Bien tempranito en los ochentas, Japón se sube al escenario principal de esta historia. Estaba en sus planes el desarrollo de computadoras que dieran lugar a máquinas capaces de interactuar con el mundo como lo hacen las personas: conversar, entender imágenes, razonar sobre diferentes temas, y todas esas cosas que hoy están dadas como obvias, pero por aquel entonces eran pura fantasía. Y cuando digo que esto estaba en los planes de Japón, me refiero al gobierno de Japón, que invirtió centenas de millones de dólares en que esto fuera posible. Parece que les japoneses se tomaban en serio eso de los robots gigantes y cosas por el estilo. La cuestión es que de la mano de las inversiones japonesas se terminó el primer invierno de la inteligencia artificial, y volvió el veranito.

    Para ese entonces las computadoras y los robots y las inteligencias artificiales ya estaban por todos lados en la cultura. Star Wars, por ejemplo, con arturito y tripio, ya tenía varios años. Y en 1982 salía a la calle “Blade Runner”, arquetípica del cyberpunk, donde los detectives se dedicaban a distinguir entre humanes y replicantes, y ya quedaba claro que la diferencia entre ambos tenía mucho de convención. También 1982 es el año en el que nací yo, así que a partir de este momento es también mi historia. Y, de hecho, los videojuegos ya tenian una presencia tal que se comenzaba a hablar de “generación pac-man”.

    Pero las cuestiones más truculentas de la época no se iban tampoco a ningún lado, y convivían con todo esto por más optimismo nippon que le metiéramos. Así podemos ver en 1983 a Juegos de Guerra, donde les científiques de inteligencia artificial financiades por el departamento de defensa crearon a WOPR: un sistema computacional que, mediante unos juegos de computadora que eran al mismo tiempo simulaciones, aprendía a tomar decisiones para luego asistir en el proceso de toma de decisiones militar, y al que un adolescente con un modem tuvo acceso y casi detona una guerra mundial termonuclear como si fuera un juego más. WOPR finalmente resulta aprender cosas serias, y llega a la conclusión de que la única forma de ganar ese juego era no jugarlo: “¿no preferís jugar ajedréz?”, termina diciéndole al adolescente.

    Nunca terminé de entender esa fijación con el ajedrez que hay en el ecosistema de la inteligencia artificial. Como fuera, no era una época de optimismo, y ya al otro año teníamos el hoy ejemplo canónico de inteligencia artificial villana: en 1984, de la mano de la mente afiebrada de James Cameron, llegaba a los cines Terminator. Allí se cuenta la historia de un organismo cibernético enviado desde el futuro por una inteligencia artificial que destruyó la civilización y lucha en el año 2029 contra lo que queda de la humanidad. Esa inteligencia artificial se llama Skynet, y somete al mundo a fuerza de un ejército de máquinas, al mismo tiempo estas últimas inteligentes y bajo su control. El terminator enviado al pasado era precisamente una de esas máquinas, y una vez más el problema era, entre otros, distinguirlo del resto de los mortales, porque se hacía pasar por humano. Y si bien lo del ajedrez se me escapa, está más bien claro que eso de tener problemas para distinguir humanes de máquinas habría de ser por aquel paper tan influyente de Turing, donde discutía precisamente eso.

    ¡Que miedo que me daba terminator! Tenía tan buenos efectos especiales, tan realista era, que algunas partes no las podía ni mirar: como esa donde el exterminador se sacaba un ojo. Yo por supuesto ví la película años más tarde porque tenía apenas dos años cuando salió, y no estoy seguro si en casa teníamos televisión siquiera: pero así como seguía dándome miedo años después, no importa cuántos años pasen se sigue hablando hoy en día de Skynet como un ejemplo de en qué puede terminar la inteligencia artificial si se vá de las manos. E irónicamente, por esa vía, la gente sigue teniéndole miedo al terminator.

    Mientras tanto, en el mundo real, las redes neuronales volvían a ser un tema, de la mano de más teorías y de nuevas técnicas de fabricación de harware. Esta segunda ola de inteligencia artificial confluía tanto con les veteranes de la guerra de las calculadoras, como también con les jóvenes del emprendedurismo informático, y el ímpetu de las grandes empresas por mantenerse en un ecosistema muy cambiante y cada vez más competitivo. Texas Instruments, NEC, Motorola, Hewlett Packard, Western Digital, Toshiba… había muchos jugadores en el área del hardware, y las áreas de investigación y desarrollo vivían el momento con una tensión mezcla de carrera contra el tiempo y de película de espionaje: el registro de patentes era la métrica no sólo de los desarrollos inmediatamente futuros, sino también de los valores de las empresas en los mercados. Cualquier descubrimiento, cualquier técnica nueva, podía revolucionar y volver a revolucionar el estado de cosas de un año para el otro. Y en este escenario, las incompatibilidades de todo tipo entre dispositivos hacían un río revuelto óptimo para pescadores.

    Con “incompatibilidades de todo tipo” me refiero a cosas como el sistema operativo, los periféricos que se utilizaban, los formatos físicos de esos periféricos, los conectores, las disponibilidades en qué mercados, y muchos otros detalles más. Había tecnología: pero era tramposo elegir los componentes. Y en esa situación se dió una combinación de factores que marcó la historia de la computación de manera tan impredecible como inaudita.

    Fue así que en el año 1981, la prestigiosa y muy bien establecida IBM, lanzó a la venta la “IBM PC”, entrando formalmente a ese mercado de hasta entonces “microcomputadoras”. E IBM fué tan lúcido como despistado en este movimiento. Por un lado, desarrolló una “arquitectura abierta”: la PC permitía agregar, quitar, o reemplazar componentes, que incluso podían compartirse entre diferentes computadoras. Para eso, básicamente tuvo que normalizar o estandarizar diferentes aspectos de la construcción y puesta en marcha de computadoras. Lo cuál a su vez permitió la posibilidad de que la competencia, además, pudiera fabricar “clones”: computadoras que no eran de IBM, pero que se adecuaban a esos estándares. IBM no era una empresa de microcomputadoras, pero tenía prestigio: apostó a que por esa vía sus productos serían tentadores, y que su competencia se vería desvalorada. Y en esa aventura, a los pocos años, la gente ya no preguntaba si una computadora tenía tales o cuales características antes de comprarla: la pregunta unívoca era si la computadora era “IBM compatible”.

    Eso por supuesto fué un triunfo de IBM, que logró ponerse en el centro del mercado. Pero, irónicamente, con toda esta lucidez, cometió errores que llevaron a que hoy nadie vea computadoras marca IBM en los estantes de ningún negocio de computación. O, más que errores, tal vez accidentes poco felices.

    El primero de ellos estuvo mediado por la elección del procesador. Por aquel entonces estaba lleno de procesadores de 8 bits, bastante accesibles, y bastante poderosos para las prestaciones del momento. Pero había también procesadores de 16 bits, mucho más poderosos: aunque también mucho más caros, y que por detalles tecnológicos eran incompatibles con dispositivos pensados para procesadores de 8 bits. Entonces IBM eligió el proceador Intel 8088: un procesador de 16 bits que, a cambio de sacrificar algunas prestaciones, permitía utilizar también algunos dispositivos pensados para procesadores de 8 bits, abaratando así muchos costos. Y el segundo de ellos fué el sistema operativo. Por aquel entonces, lo más cercano a un sistema operativo estandarizado para microcomputadoras era “CP/M”. Pero IBM no logró convencer a la empresa dueña de “CP/M” de que trabaje con ellos, de modo que trabajó con otra empresa con la que ya tenía relaciones previas: Microsoft. No era una empresa de sistemas operativos, y se dice que Bill Gates no estaba muy de acuerdo con meterse en ese mercado, pero al final sí aceptaron adecuarse a los tiempos y requerimientos de IBM, que eran demandantes. Aunque, para sorpresa de IBM, Microsoft no pidió más dinero del que se le ofreció, como se esperaba hiciera en la negociación del contrato: en lugar de dinero, exigió cobrar regalías por cada venta del sistema operativo por parte de IBM, y el derecho de poder vender ese sistema operativo a otras empresas además de a IBM.

    Piensen un segundo en ello: esas “otras empresas” no existían; todavía no existía la PC. Y del mismo modo, las regalías serían un porcentaje, pero el negocio grande sería de IBM. Y entonces IBM aceptó. Lo que sucedió después fué que el éxito de la estrategia de IBM hizo que la competencia de dividiera en dos: quienes hacían “clones de PC IBM”, y quienes hacían sus propios productos con otras arquitecturas. De esos últimos, el único que sobrevivió fue Apple: todos los demás que no se subieron a la ola fueron rápidamente sometidos por lo que terminó siendo un tsunami. Y la sorprendente consecuencia fué que la compatibilidad creada por IBM permitió que muchas empresas nacieran o crecieran vendiendo “IBM compatibles”, que no tenían nada de IBM, pero sí tenían siempre un procesador Intel y un sistema operativo Microsoft que permitieran ambos correr los programas que usaban todas las “IBM compatibles”. Es irónico que al proyecto de la “PC”, internamente, bajo secrecía de sus características, IBM lo llamaba “Project Chess”, o “proyecto ajedréz” en español: casi como si estuvieran jugando al ajedréz con el mercado. Pero fueron Microsoft e Intel quienes hicieron imperios tecnológicos en ese juego, mientas IBM perdió toda centralidad con los años.

    Pero nos estamos adelantando. Por los ochentas, esto de las PCs influenció mucho algunos fenómenos culturales, aunque más bien en sectores hogareños y en áreas laborales más parecidas a oficinas administrativas que a grandes fábricas o laboratorios. Por aquel entonces todavía se usaba hardware y software especializado en lugares como las universidades. Unix, por ejemplo, era muy utilizado, pero no era “un juguete” como las PCs ni nada particularmente barato. Esa cosa que Microsoft le hizo a IBM con los derechos de ventas era algo con lo que anteriormente le había hecho aquel juicio a MITS, y de hecho una cuestión bastante instalada en la jóven industria de sofwtare. Sucede que el software tiene una materialidad medio rara para lo que es el comercio de “bienes y servicios”: se puede copiar, por ejemplo, sin costo alguno más que comprar otro diskette para escribirlo. Con lo cuál el valor de un “original” es cuestionable. Pero las empresas que vendían software pretendían cobrar dinero por cada copia de ese software, independientemente de que no agregaran ningún valor ni hicieran ningún trabajo en el proceso de copia, e independientemente de que ese proceso ni siquiera deba ser llevado a cabo por ellos.

    Con esto en mente, Bill Gates mismo escribió una carta abierta en 1976 a la comunidad de “aficionados a las microcomputadoras”, explicándoles que si seguían pirateando la versión de BASIC que venía Microsoft, eso iba a desincentivar la innovación y cosas por el estilo. Para 1981, Gates tenía bien en claro que esa práctica social colaborativa llamada por sus detractores “piratería”, no podía ser detenida ni con buenos ni con malos modales sino con poder, y si pretendía hacer dinero en serio necesitaba otra estrategia que “vender software”. El secreto era vender el software, pero no a usuarios finales solamente, sino primero y principal a fabricantes: quienes sí están sujetos a regulaciones y controles que imposibilitan la piratería. Y ni siquiera venderlo: regalarlo también en algunos casos, a instituciones estudiantiles, de modo tal que se formen como técnicos en esos sistemas que él vendía, y luego determinen los mercados laborales vinculados a software. Gates ya tenía claro, antes que IBM, que el vector de éxito de una empresa de software estaba en el control de la cultura, y para ello atacó de diferentes maneras a trabajadores y a empresas.

    Pero no fué ni el primero ni el último: Unix y otros tenían prácticas similares, especialmente en las universidades y sus laboratorios de investigación. Uno de esos laboratorios era el de Inteligencia Artificial del MIT. Y, entre paréntesis, ahora que ya mencionamos inteligencias artificiales villanas: ¿están familiarizades con el meme de que las impresoras son aparatos demoníacos, que hacen lo que se les antoja y que todo el mundo las odia? Búsquenlo si no lo conocen, le va a dar mejor sentido a la siguiente historia. Sucedió que Xerox, en una de esos regalos que tan magnánimamente realizan las empresas a las universidades, le dió una impresora laser al laboratorio de inteligencia artificial del MIT. De hecho, era la primera impresora laser que se utilizaba por fuera de las instalaciones de Xerox misma: para ese contexto, era como que te regalaran una Ferrari prototipo más o menos. Sucedió que la impresora estaba conectada a la red del laboratorio, y se mandaban a imprimir cosas desde diferentes lugares físicos. La gente que mandaba a imprimir no estaba frente a la impresora mientras imprimía: estaba en otro lado. Y, como ya sabemos, las impresoras se traban. Esta en particular se trababa bastante frecuentemente. Eso en la práctica significaba que une podía estar una hora esperando para que luego se trabe de nuevo y tener que esperar otro rato, o bien que quede trabada y nadie se entere por mucho tiempo, y cosas de esas.

    Entonces a una persona que trabajaba ahí se le ocurrió modificar el software de la impresora, para que cuando se trabe avise a la gente así alguien podía levantarse e ir a destrabarla. A todes en el laboratorio le pareció una buena idea: todes sabían programar, y tenían en el laboratorio sus propios sistemas a los que podían adecuar, así que no había problema por ese lado. Pero sí había un problema: no tenían el código del software de la impresora, por lo tanto no lo podían modificar. De modo que esta persona fué a pedir el código del software a Xerox, y para su profundo disgusto e indignación Xerox se lo negó. Y esta experiencia fué otro de esos aleteos de mariposa que después termina en cualquier cosa más o menos épica.

    Esa experiencia llevó a esa persona a reflexionar. Y llegó rápidamente a la conclusión de que su experiencia no era la de simplemente cruzarse con algún imbécil irracional, sino que más bien era reflejo de un fenómeno cultural muy dañino y bastante instalado, tanto en ese como en otros ámbitos. Reflexionó que en este caso era algo más bien trivial, pero que en términos sistémicos era más bien un cancer para la sociedad: una empresa podía decirle a la gente que se adaptara a sus reglas, en lugar de permitirle a la gente adecuar los aparatos de los que supuestamente es dueña. Y rápidamente pudo ver muchos más ejemplos de esto, por todos lados.

    La persona en cuestión era Richard Stallman, y esa es la historia de cómo en el laboratorio de inteligencia artificial del MIT nació la antítesis de lo que ya eran tipos como Gates. Stallman organizó gente cercana después de aquella experiencia con la impresora, y creó un movimiento político y filosófico dentro de la informática que sigue activo hoy en día. Para eso, también creó un proyecto de orden técnico que le diera cuerpo a sus planteos políticos: el proyecto GNU, que consistía en un sistema operativo compatible con Unix, pero “libre”, al que todes tendrían acceso al código y podrían tanto modificar como compartir. Y para eso, el proyecto GNU también necesitaba un marco legal, frente a lo cuál creó la licencia GPL, que les programadores podrían elegir como mecanismo legal de gobernanza cultural de sus trabajos. Renunció a su trabajo en el laboratorio, para que el MIT no pudiera disputar sus derechos de propiedad intelectual sobre el proyecto GNU, y fundó otra organización que le diera cobijo: la Free Software Foundation, o fundación software libre.

    Para eso era 1985. Los ochentas ciertamente fueron el gran momento de la computación, y el veranito de la inteligencia artificial tuvo su parte en ello. Pero, como todes sabemos hoy con el diario del lunes, Japón no obtuvo sus máquinas que hicieran muchas cosas como les humanes, si es que siquiera hacían alguna: una vez más, esa burbuja explotó. Aunque esta vez lo hizo extrañamente por el eslabón más fuerte. Sucedió que la investigación y experimentación en inteligencia artificial se llevaba adelante en hardware y software más bien especializado, y frecuentemente mucho más caro que cualquier microcomputadora. Por esa razón, de hecho, Stallman tuvo la relación que tuvo con Unix, en lugar de con CP/M. Pero para la segunda mitad de los ochentas, las antes microcomputadoras pasaron a ser todavía más poderosas que aquellos otros aparatos tan caros, así como también su software mucho más versatil. La flexibilidad y comunidad de la PC derrotó rápidamente a los nichos, que dejaron de tener sentido.

    Japón no era el único financiando inteligencia aritificial: el gobierno de los Estados Unidos también. Y en la misma época que las PCs superaban al hardware y software especializados, el Departamento de Defensa decidía que no era el momento de la inteligencia artificial, y que mejor se concentraban en cosas un tanto más materiales e inmediatas. Y entonces, el ímpetu comercial en el área decayó en picada, y con él parte del prestigio de la inteligencia artificial. Aunque esta vez tenía algunos resultados, si se la considera en términos académicos. De esta experiencia, una de las líneas que quedaron retomaba a la cibernética, y desde allí se afirmaban diferentes cosas. Por ejemplo, que una inteligencia sin cuerpo es una estrategia poco realista, y que entonces había que concentrarse más en el área de robótica para construir inteligencia artificial. O que en lugar de hacer humanes, había que hacer insectos: poner al ser humano como métrica de la inteligencia era un horizonte innecesariamente lejano.

    Para finales de los ochentas, Japón tendría que conformarse con el maravilloso y espectacular florecimiento de los videojuegos, del que se convirtió en vanguardia y referencia. Los arcades estaban llenos de títulos de todos los géneros: desde nuevas versiones de Pong y Pac-Man, hasta simuladores realistas de aviones de combate, pasando por carreras de autos o peleas callejeras. Las técnicas de hardware y software aplicadas al mundo de los videojuegos no hacían más que proliferar y sorprender a grandes y chiques por igual. En paralelo, en 1983 Nintendo lanzaba la NES, revolucionando el mercado de consolas hogareñas, y hacia el final de la década ya estaba pensando la siguiente revolución de la mano de los muchos y rápidos avances tecnológicos y la gran demanda popular.

    Pero a finales de esta década sucedieron los dos eventos que marcarían a fuego el futuro de mi generación, casi como en un sólo movimiento de dos tiempos. Del primero tengo recuerdos claros. En mi casa no teníamos televisión, y nos enterábamos las cosas por radio. Un mediodía que mi mamá me estaba cocinando un almuerzo, se interrumpió la transmisión habitual para dar una noticia urgente: el locutor decía con voz emocionada que había caido el muro de Berlín. Mi mamá también celebró contenta, aunque más tímidamente que el locutor. Yo reflexionaba incrédulo a quién podía importarle una pared en un país remoto. Pero el segundo fue mucho más opaco, menos espectacular y significativo para esa actualidad: 1989 fué también el año donde aparecieron los primeros proveedores privados de conectividad a la recién creada Internet. La “red de redes” fue, efectivamente, una unión entre varias redes previas: algunas financiadas por entidades gubernamentales y/o públicas, como la antes mencionada ARPANET, y otras redes también de orden privado que se fueron armando con el paso de los años y con diferentes fines. 1989 fue el año donde el comunismo soviético mostró un estado de agonía terminal, con él se iba también la ya normalizada guerra fría, y con ello se auguraba un mundo finalmente conectado: una aldea global, de hegemonía neoliberal.

    

Resistance is futile

    Si hay algún lugar donde el optimismo ya no estaba puesto en 1990, era en la inteligencia artificial. De hecho, más bien el pesimismo estaba puesto ahí. Arrancaba la década con una nueva generación de aquella utopía liberal de Star Trek, donde ahora los otrora antagonistas y representantes de Rusia en la serie (los Klingon) eran ya parte de la federación, pero aparecían nuevos extraterrestres a dar dolores de cabeza: los Borg, que no pretendían ocultar su relación directa con la cibernética, y que amenazaban con asimilar absolutamente todo en el universo. Los Borg eran interesantes porque planteaban a la cibernética como una vía de unificación, ya no sólo de la humanidad, sino incluso interespecies. Además de que a los Borg se los mostraba como el límite de lo alcanzable en términos de desarrollo tecnológico. Pero todo ello era visto como algo triste, malo, infelíz: los Borg eran agresores, que sometían a las demás especies integrándolas por la fuerza a su colectivo, quitándoles para siempre su individualidad y privacidad. “La resistencia es futil” decían estos mostros con voz robótica, mientras caminaban lento como si su velocidad no les importara, y terminaban metiéndole nanomáquinas a cualquiera que atraparan. Era casi como que el viejo fantasma comunista del colectivismo ahora además criaba zombies tecnológicos o algo así. Y era igualmente interesante que plantearan la experiencia de la asimilación Borg como la entrada a un espacio mental de unificación, donde ya no había angustias ni dolores ni padecimientos: pero así y todo era algo malo, porque era alguna forma de mentira de acuerdo al guionista del momento.

    Y estas cosas no eran aisladas de Star Trek ni mucho menos: la década más tarde terminaba con Matrix, donde las máquinas del futuro esclavizaban a la humanidad encerrada en una simulación imposible de distinguir de una realidad; otra vez las máquinas sometiendo a la gente, otra vez también la cuestión de distinguir lo real como si eso fuera a salvar a la humanidad de algo. Las fantasías tecnológicas eran frecuentemente aterradoras a esta altura, pero ya pasaban a tener algo fuertemente vinculado a lo psicológico, a lo cognitivo, lo espiritual si se quiere.

    Pero volviendo al planeta tierra, en 1990 la dictadura militar de Pinochet es la última en dejar el poder en mi región. Las nuevas democracias nacían bajo la múltiple presión de las heridas abiertas por el plan condor, el desbalance de poder en la guerra fría, y la ola hegemonizadora neoliberal a nivel planetario. Para 1991 la Unión Soviética ya no existía más, y en su lugar estaba la Federación Rusa, lógicamente con infinitos conflictos internos entre las fuerzas separatistas, las reformistas, y las resistencias afines al orden soviético. De modo que la década arrancó con todo, y “no hay alternativa” parecía mucho más sentido común que slogan. Es irónico que los Borg fueran colectivistas, porque “la resistencia es futil” tranquilamente pudo haber sido una bandera neoliberal.

    Como fuera, todas las dictaduras militares en América dejaron paises pobres y pueblos aterrorizados: pero la televisión decía que todo era una fiesta por el fín de la guerra fría, que la macroeconomía ahora iba a inevitablemente crecer y derramar riqueza, que las importaciones iban a dinamizar los mercados internos y traer felicidad, y que el mundo no nos iba a dejar caer porque se acabaron los conflictos ideológicos. De hecho, se hablaba de “fín de la historia” como un evento ya alcanzado. Chile era ejemplo para el mundo, por sus números macroeconómicos: como si no fuera el país más desigual de la región, y como si su pueblo no viviera sufriendo. Pero todos los sufrimientos del momento se sostenían bajo alguna promesa de nueva era, y el giro neoliberal durante los noventas se vivió con mucho de aventura para gran parte de las sociedades de todo el planeta, con el hedonismo individualista como bandera.

    Por supuesto eso duró poco. Y por supuesto eso tampoco llegó nunca al espíritu de absolutamente todes ni mucho menos: los optimismos eran costosos de sostener frente a tantas promesas rotas de décadas anteriores, y tantas experiencias tan dañinas. Esto se veía en la fuerte presencia de movimientos contraculturales desde el momento cero de la década de los noventas. Discos exitosos de Nirvana convivían con películas donde Donald Trump decía ser el soltero más codiciado por las mujeres; los héroes de Holliwood se volvían burlones y sobrecarismáticos e inverosímiles mientras los superhéroes en historietas pasaban a ser cínicos y nihilistas hasta lo deprimente; la cultura en general se vivía como una gran farsa, un gran simulacro de progreso social, donde algunes hacían esfuerzos por mostrar una cruel realidad vedada a los sentidos. Y todo esto, tal vez más que nunca, se movía al compas tecnológico.

    Yo era todavía muy jovencito, así que los videojuegos me impactaban muy íntimamente: eran una marga generacional fortísima, y encima me tocó vivir una especie de era dorada. Los juegos de arcade, de consola hogareña, y de computadora personal, seguían tres vías diferentes, tres ecosistemas casi completamente aislados, más allá de las esporádicas coincidencias o hasta puentes entre ellos. Los ruiditos y tonos monofónicos de otras épocas ahora daban lugar a voces digitalizadas, bandas de sonido orquestales y futuristas, e historias muy sofisticadas en términos filosóficos y políticos. Las interfases gráficas eran cada vez más espectaculares, y todo era cada vez más nítido, más grande, más rápido: más surreal. Nuevas tecnologías aplicadas en hardware daban lugar a la posiblidad de aplicar nuevas técnicas de software, y ese juego se retroalimentaba una y otra y otra vez año tras año. Y se notaba en todos los títulos de todos los sistemas disponibles. El progreso tecnológico se sentía ya solamente sin salir de casa.

    Y los videojuegos por supuesto son apenas un caso particular, un síntoma si se quiere, de algo más sistémico. ¿Recuerdan Terminator? Resulta que por aquel entonces, cuando James Cameron planeó Terminator, el guión original contemplaba a dos terminators que viajaban en el tiempo: uno el ya para entonces clásico organismo cibernético humanoide con esqueleto metálico, pero el otro muy diferente. Cameron quería usar un terminator tecnológicamente mucho más avanzado: uno hecho de metal líquido, y con la capacidad de ser metamorfo. Aquel problema de detectar si era o no un ser humano seguía ahí, pero esta vez el enemigo era todavía más aterrador. En 1984, la tecnología no permitía ni a los efectos especiales más avanzados hacer algo como eso en el cine de modo tal que fuera verosimil. Pero para 1991 sí fué posible, de la mano de los avances en gestión gráfica computacional, y en hardware dedicado al caso. Así se dió vida al T-1000, que fuera el villano de Terminator 2.

    Y aquí es importante deternos un segundo. ¿Por qué no era posible en 1984 hacer al T-1000, pero en 1991 si lo era? Está claro que había computadoras más potentes pero, ¿eso era todo? ¿Sólo “potencia” era el problema? Si revisamos detalles detrás de la creación del T-1000 para el cine, vemos datos muy descriptivos de la situación tecnológica. Por ejemplo, que procesar 15 segundos de animación del T-1000 podía llevarle 10 días a las computadoras del momento. Ciertamente era un desafío técnico importante, no hay dudas. Pero, ¿no podía simplemente hacerse lo mismo en 1984, y que en lugar de 10 días tardara un mes? A todas luces eso sería muchísimo más caro, pero… ¿imposible?

    El detalle es que no era un problema enteramente de potencia de hardware. Había mucho de cultura, de diseño, de formación de mano de obra calificada, que tenía qué ver con la mera posibilidad de que a alguien se le ocurriera hacer cosas como esas. “Metal líquido metamorfo” no era cosa de “animación computarizada fotorealista” en 1984, sino más bien de historietas. No había software simulador de “metal líquido metamorfo”, más allá de que hubiera o no hardware más o menos potente. No había, de hecho, trabajos generalizados en la industria cinematográfica vinculado a eso. Las simulaciones físicas existían, y con ello las ecuaciones matemáticas involucradas, pero eran áreas muy especializadas: no era “animaciones para películas”. Eso fué cambiando muy velozmente durante los ochentas, de la mano no sólo de Holliwood sino también de los videojuegos. Gente como James Cameron empujaban esa área de las artes hacia ese lado, pero en otras áreas había otras personas con pasiones similares. Y en el medio estaba el conocimiento técnico, tanto en la tecnología como en la mano de obra. Aquellos financiamientos en inteligencia artificial daban lugar a máquinas que calcularan mejor y más rápido, dando lugar a algoritmos nuevos, dando lugar a usos nuevos de esas tecnologías, todo en perpetuo ciclo de retroalimentación.

    Y ya mencioné los videojuegos, pero esta historia requiere traer un ejemplo canónico del caso. Si Terminator 2 abría una nueva era superadora en términos de efectos especiales, entre los muchos cambios revolucionarios dentro del ambiente de los videojuegos, uno de ellos ciertamente tendría mucho más impacto del que nadie imaginaba. Como tantas otras historias de la época, dos jóvenes apasionados e inteligentes y llenos de energía se dedicaron a lo suyo y lograron armar una empresa exitosa. Si Apple es la historia de dos Steves, esta es la historia de dos Johns: John Romero, y John Carmack, eran las cabezas detrás de ID software, que en 1993 creaba el videojuego “Doom”. No era el primer “first person shooter”, o “juego de disparos en primera persona”, pero sí el más revolucionario sin lugar a dudas. En parte, porque tecnológicamente era superador a todo lo visto hasta el momento. Y en parte, porque sus avances tecnológicos lo hacían tan dinámico que la interacción con él se volvía adictiva. El juego era rápido, muy rápido, especialmente para ser un juego tridimensional. Y al respecto hay cosas muy pertinentes para decir.

    Primero y principal, los avances tecnológicos del Doom no eran de hardware, sino de software. Ciertamente, el hardware de su época permitía cosas, que Carmack supo explotar muy bien y de maneras novedosas. Pero las novedades eran algoritmos rápidos, estrategias de simulación experimentales y exitosas, optimizaciones computacionales variadas y muy eficientes. Romero le puso los condimentos culturales que le dieron contacto con la sociedad del momento, pero Carmack había logrado hacer que el trabajo 3D dejara de ser algo para computadoras especializadas y carísimas y pasara a ser algo a lo que la PC hogareña podía aspirar. Hay literalmente libros escritos sobre el impacto cultural del Doom, así que quien quiera seguir esa línea puede ir a revisarlo: acá le vamos a prestar atención a este detalle de cómo las mejoras de software abrieron puertas impensadas pocos años antes.

    Se le llama “renderizar” al proceso de, digamos, ejecutar la línea de producción de programas que realizan millones de cálculos para ir generando imagen tras imagen en una animación 3D. Es decir: una persona programa una serie de directivas, las ejecuta, espera que terminen de procesarse, y luego puede ver el producto final. Aquello que dijimos que tardaba 10 días para lograr una animación de 15 segundos del T-1000, era un proceso de renderización, o “render”. Para el T-1000 se utilizaron computadoras especializadas, con hardware dedicado a algunos de esos procesos, y con software ad-hoc para implementar diferentes cosas: simulación física del metal líquido, simulaciones físicas de la luz (sobre el T-1000, sobre otras cosas de la imagen, etc), efectos de refinado de detalles, reflejos en superficies reflexivas, sombras, interacciones físicas entre objetos virtuales, interacciones físicas entre objetos virtuales y reales, proyección de resultados entre acciones, y tantas otras cosas. Los gráficos tridimensionales son millones y millones de cálculos, y requieren niveles excepcionales de tanto pericia técnica y como capacidad artística. Y para aquel entonces, también una voluntad digna de campeones: la gente que hizo al T-1000 trabajó jornadas de 24 horas, haciendo cosas como dormir al lado de sus equipos mientras esperaban ver los resultados de sus pruebas de renders, corriendo contra reloj para cumplir con los tiempos pautados a riesgo de perder su empresa y vivir endeudados el resto de sus vidas. Para muches, el T-1000 era una estupidez fantasiosa de Holliwood; para otres, como yo, era un absoluto triunfo de la ciencia y la tecnología y el arte.

    Pero el Doom hacía esa clase de cosas en tiempo real, y en hardware hogareño. Tómense un segundo para tratar de concebir una idea de lo que eso significaba. Por un lado, el juego era tan adictivo, que no necesitó mucho tiempo para convertirse en un fenómeno cultural de escala. Pero otro otro lado, además, era tecnológicamente tan virtuoso, que se convirtió también en un objeto de estudio inquietante para muchas áreas.

    El secreto detrás del Doom eran un montón de usos inteligentes de los recursos, y especialmente concentrarse en los resultados. Por ejemplo, donde el T-1000 era un render realista, el Doom tenía renders mucho menos realistas pero mucho más rápidos. Era “suficientemente bueno” como para dar lugar a una inmersión en ese mundo virtual tridimensional, y desde allí generar un vínculo con nuestros sentidos tal que de repente nos veíamos tratando de controlar ráfagas de adrenalina inducidas por la excitación o el miedo. El Doom había logrado espacios claustrofóbicos, combates cuerpo a cuerpo contra hordas de demonios, laberintos llenos de trampas, situaciones que parecían inescapables y que se sentían como un gran logro superar… todo eso no era simplemente “3D”, sino que requería mucha calibración al cómo nuestros sentidos perciben la realidad, independientemente de si era o no “realista” lo que se estuviera mostrando.

    Una de las claves detrás de ello es entender algunos detalles de nuestros sentidos vinculados a la vista. Nótese que hablé de múltiples sentidos, aún cuando sólo hablo de “la vista”, que se supone sea “un” sentido. Sucede que, si bien los sistemas de renders tridimensionales realizan cálculos en espacios virtuales también tridimensionales, lo que producen en realidad es de dos dimensiones: una imagen, una animación, una película, son todas cosas que vemos en un paño o un papel, una pantalla, una proyección sobre una pared, todo de dos dimensiones. Lo que vemos con nuestros ojos es efectivamente bidimensional: pero lo que hacemos con ello luego de verlo, a través de nuestro aparato cognitivo, genera efectos de tridimensionalidad. Entonces, está perfecto intentar hacer un render realista implementando en software todas las leyes de la física que se conozcan en un momento dado, y dejar luego que las computadoras trabajen por días para generar una animación: pero también une puede concentrarse en que en realidad no vemos, ni las tres dimensiones, ni todas las leyes de la física, sino algo bidimensional sobre lo que luego hacemos un trabajo cognitivo. Y ahí se pueden aplicar algunos trucos de magia que no requieren tanto poder computacional.

    De hecho, el Doom ni siquiera era 3D. Su motor gráfico eventualmente fué catalogado como “2,5D”, porque en realidad eran dos dimensiones utilizadas de formas muy inteligentes, logrando efectos tridimensionales. Por eso funcionaba tan bien incluso en el hardware de la época. Y eso abrió la cabeza de muchas personas, en diferentes áreas.

    Pero aquella clave era una sola de ellas. Hay otra, también importante para esta historia. Si nos concentramos en cómo funcionan las imágenes computarizadas bidimensionales, la expresión más simple es la de una grilla con celdas, donde cada celda es de algún color, y entre todas forman luego una imagen cuando se vé a la grilla desde lejos. Esas celdas de la grilla se conocen popularmente como “pixels”, y es la métrica típica con la que hoy se miden a las cámaras fotográficas de los teléfonos móviles. Sin embargo, esa grilla es en rigor también una matríz en términos matemáticos, y si tomamos los valores de cada pixel podemos entonces realizar álgebra de matrices sobre ellos: tanto en una matríz estática, como en la relación entre diferentes matrices. Ese último es el caso de las animaciones computarizadas: una matriz traz otra hacen a los antiguos fotogramas de celuloide en el cine, o las páginas de la animación manual en papel. A su vez, las estrategias para trabajar matrices típicamente involucran técnicas de obtención de diferentes datos: rangos de valores medios, variaciones, máximos y mínimos, frecuencias de aparición o no de ciertos datos, etc. Eso lleva a otros datos, como ser curvas de comportamientos, sobre los cuáles se pueden aplicar cálculos provenientes de otras disciplinas poco relacionadas con videojuegos o terminators, como ser el análisis de señales o la estadística. Y cuando se trata de computación, frecuentemente el desafío no es tanto implementar estas herramientas matemáticas en software y hardware, sino el cómo implementarlas de modo tal que respondan suficientemente rápido.

    El Doom tuvo muchas de esa clase de optimizaciones implementadas a nivel software. El T-1000 necesitaba realismo antes que velocidad: más bien, necesitaba “velocidad suficiente” para los tiempos de los contratos, pero luego de eso todo el realismo posible. Mientras que el Doom necesitaba “realismo suficiente”, pero que luego los algoritmos funcionaran lo más rápido posible, de modo tal que el juego no fuera lento (o que fuera jugable siquiera en primer lugar). Son situaciones inversas, pero complementarias: ambos universos de problemas aprenden el uno del otro. Como decíamos antes sobre aquellas matrices, los renders generan imágenes que son al mismo tiempo matrices, y hacen las veces de los fotogramas de antaño en celuloide. De modo que a esa velocidad de generación de imágenes se la comenzó a medir en “frames per second”, o “cuadros por segundo”, casi siempre abreviado con la sigla “FPS”: donde esos “cuadros” son precisamente las imágenes generadas. El mismo software en diferente hardware va a trabajar a diferentes FPS. Y, en principio, mientras más FPS, mejor para la experiencia visual, al menos en el mundo de los videojuegos. Pero esto tiene muchas relaciones con estándares de hardware también: por ejemplo, los estándares de funcionamiento de los televisores (y más tarde los monitores) ponen condiciones a cuántos cuadros por segundo puede mostrarse en la pantalla, y entonces existen algunos horizontes de trabajo más o menos compartidos por todes. Era típico que las películas o programas de televisión se vieran en 24 FPS, y que ahora los videos por internet tengan 30 FPS, por diferentes cuestiones históricas; pero también es típico que hoy en día se pretenda que los videojuegos rindan a 60 FPS estables, lo cuál depende mucho del hardware donde se ejecute el videojuego. Aunque por aquel entonces cualquier programador de videojuegos estaría más que satisfecho con 24 FPS seguramente.

    Mientras esta clase de cosas pasaban en las industrias vinculadas a los renders tridimensionales, un pequeño cónclave de ingenieres de hardware se reunía en California a debatir algunas ideas. Estamos hablando de gente que trabajaba en el diseño de microprocesadores, gente que hacía software de gestión gráfica, gente que venía de lugares como IBM o Sun Mycrosystems. Y debatían cuál sería la siguiente ola de cambios en el ecosistema tecnológico computacional de su era. Concluyeron que los avances de la computación general (es decir, la computación que se regía por una unidad central de proceso, o CPU) iba a dejar lugar a dispositivos solidarios, que trabajen en paralelo en cómputos más especializados, como ser computación orientada a gráficos. Eso era así porque las CPUs tenían sus límites, y la computación más especializada era realmente mucho más exigente de lo que ninguna CPU podía esperar rendir. Por ejemplo: todes hemos visto a nuestras computadores enlentecerse mientras estaba realizando alguna tarea, cualquiera fuera; imaginen pues si la ponen a realizar las tareas de render del T-1000, y tenemos que esperar durante días para poder mientras tanto responder e-mails. La respuesta a eso, decían estes ingenieres, era agregar partes extra a las computadoras, que aliviaran el trabajo del CPU cuando de tratara de algunos trabajos particulares. Y el caso de los renders para generar imágenes bidimiensionales era uno que se volvería evidentemente necesario. El Doom se salió con la suya, porque no tenía las exigencias que le pusieron al T-1000; pero esas exigencias existían en muchos espacios, donde difícilmente podían usar los trucos de magia que implementaba el Doom, y sin la capacidad de proceso adecuada nunca iban a florecer. Esa era, precisamente, la historia de la inteligencia artificial, que ya en varias oportunidades había sido traicionada por la realidad del hardware de su época.

    Pero estes ingenieres notaron un detalle importante: los videojuegos se cruzaban con problemas computacionales bastante avanzados, mientras al mismo tiempo gozaban de un ecosistema de hardware suficientemente estandarizado, así como también una alta demanda de consumidores. Esa unión de factores era muy rara históricamente, y una oportunidad única para montar un espacio de investigación y desarrollo en computación de alto rendimiento que, a diferencia de lo que sucedió con la inteligencia artificial, esta vez fuera sostenible en el tiempo. La presencia de fenómenos como el Doom no hizo más que confirmar y solidificar esta hipótesis. Y de esa manera nacía en la primera mitad de los noventas la empresa NVidia, que utilizaría a los videojuegos como terreno fértil para la experimentación que diera lugar a la siguiente era de la computación más avanzada y exigente. Una vez más, esta empresa no sería ni la primera ni la última: esa clase de hardware especializado ya existía. Pero del mismo modo que experiencias como las del Doom daban la pauta de que en los videojuegos había una veta sostenible de experimentación, experiencias como las del T-1000 daban la pauta de que el hardware del momento apenas estaba en sus inicios.

    En paralelo a todo eso, el hardware y software computacional peleaban otras batallas. ¿Recuerdan la estrategia de Bill Gates para hacer exitoso a su software? Bueno, eso rápidamente le trajo problemas con la justicia, y hasta directamente con el gobierno de los Estados Unidos. Resulta que Microsoft hizo unas cuantas cosas de moral más bien nula durante su “trabajo conjunto” con IBM. Primero, IBM le encomendó que creara otro sistema operativo para sus IBM PCs: el sistema OS/2. Microsoft lo hizo, e IBM comenzó a vender computadoras con ese sistema: pero Microsoft continuó vendiendo DOS y Windows por su cuenta, con lo cuál se convirtió básicamente en su propia competencia, y por esa vía no favoreció particularmente a IBM. De hecho, muy rápidamente renunció a continuar su trabajo sobre OS/2, frente a lo cuál la gente que había invertido en desarrollos sobre ese otro sistema operativo se encontró súbitamente a la deriva. Luego Microsoft hizo cosas como cobrarle licencias de DOS a los fabricantes aún cuando estos vendieran PCs sin ese sistema operativo. ¿Vieron ese sticker que viene en sus computadoras, que dice “compatible con Windows”? Bueno, para que los fabricantes pudieran poner ese sticker, que por aquel entonces era importante (recuerden que la gente comenzó a preguntar si la computadora era compatible antes de preguntar sus prestaciones), Microsoft no te homologaba el dispositivo sin pagar una licencia del sistema operativo. Y esto tenía como consecuencia que no se pudiera competir con Microsoft en términos de precios: otras empresas que hacían sistemas operativos, y se los daban gratis a los fabricantes, no se beneficiaban luego con una reducción de precio en la computadora, que valía lo mismo con o sin DOS/Windows. El colmo de esto eran las implementaciones alternativas de DOS: donde Microsoft vendía MS-DOS, otras empresas vendían otros, siendo el más conocido DR-DOS. Sucedió que Microsoft implementó secretamente código para que programas de ellos no funcionaran en DR-DOS, aún cuando tecnológicamente no había ningún impedimento. Y, del mismo modo, Microsoft implementó mucho código no documentado en sus sistemas, donde se aplicaban en software formas alternativas (y frecuentemente más eficientes) de resolver problemas computacionales, de modo tal que sólo su software (o algunos casos de terceros especialmente seleccionados) implementara estas mejoras, y pareciera entonces que su software funcionaba mejor que la competencia.

    Las prácticas anticompetitivas de Microsoft dieron lugar a decenas de juicios, con centenas de millones de dólares en juego, y se convirtieron en un ícono de la empresa. Microsoft una y otra y otra vez aplicó todas las estrategias pensables para que su competencia fracasara, abusando del monopolio de software que logró montándose en la estrategia de estandarización que aplicó IBM en los ochentas. El software de Microsoft se convirtió en el estandar de-facto porque, antes de cualquier calidad de sus productos, se concentró en activamente eliminar a su competencia a fuerza de explotar e imponer su monopolio. Muchas empresas lucharon y fracasaron, mientras otras temían represalias de Microsoft si se atrevieran a hacerlo. Y los juicios contra Microsoft eran frecuentemente bien fundados, Microsoft los perdía, debía pagar sumas importantes por ello, y para cualquier empresa con escrúpulos podría haber significado una profunda vergüenza que manchara a su marca. Sin embargo, Microsoft jamás dejó de insistir en sus prácticas anticompetitivas, que ya eran su bandera en la década de 1990: esta empresa nació parásita de otras, y rápidamente se convirtió también en sometedora y depredadora.

    Y las prácticas anticompetitivas eran de diferente naturaleza. A veces presionar a fabricantes de hardware, como mencionamos antes: piensen que fabricar hardware es una aventura cara, y si se ponen en riesgo las ventas se pone en riesgo también una bancarrota temprana, de modo que Microsoft tuvo ahí una vena jugosa desde temprano. Pero también sucedían otras cosas. Por ejemplo, pretendía cobrar licencias de software, y vender software: pero de repente también metía software gratis que viajaba junto con otro, no te lo cobraba, y te decía que era todo un mismo producto. Eso último fue el caso, por ejemplo, cuando salió Windows 95: que en realidad sería un “Windows 4.0” corriendo sobre un “MS-DOS 7”, pero hacía de cuenta que era todo una sola cosa (en lugar de vender Windows y DOS por separado, como en iteraciones anteriores). Esto quitaba del mercado a cualquier competencia de Windows que corriera sobre DOS. Del mismo modo, eventualmente comenzó a agregar Internet Explorer a Windows, haciendo que todo link a internet encendiera Internet Explorer, y que nadie entonces fuera a descargar otro browser web. Aunque hay muchos detalles que se le escapan al común de la gente, por ser detalles técnicos y comerciales. Por ejemplo, era típico que Microsoft comprara software en lugar de programarlo: ese era el caso con el mismísimo DOS. Y fué el caso también con Internet Explorer, que se lo compró a la empresa Spyglass. Spyglass había acordado con Microsoft un acuerdo similar al que Microsoft había antes acordado con IBM: regalías por las ventas de Internet Explorer. Pero luego Microsoft lo incluyó gratuito como parte de otros productos, con lo cuál Spyglass no veía un centavo. Esto lógicamente fué visto como una estafa de Microsoft, que fué llevado a juicio y perdió. E historias como esas tiene literalmente cientas.

    Pero nunca le importó a Microsoft perder esos juicios multimillonarios. Gates siempre supo que el dinero vá y viene, pero hay cosas mucho más directamente vinculadas a la estabilidad del poder político y social que el poder económico. Una de ellas es la cultura. El dinero era por supuesto muy importante, pero no importaba cuántos juicios perdiera Microsoft si seguía en el centro de la cultura del software de las PCs: porque ningún fabricante era suicida, y porque la comunidad de usuaries y obreres del software también tenían mucho qué perder quedando aislades al no usar software de Microsoft. Nunca iba a caer Microsoft de su lugar de privilegio, a no ser que grupos tan heterogéneos como fabricantes de hardware, usuaries, y trabajadores del software, se unieran en un sólo movimiento. Y aquí es donde la oscura lucidez de tipos como Gates fundan imperios: por vías culturales, dominan la infraestructura de su momento. No necesitan ser dueñes de las fábricas de hardware, ni tener a les usuaries como sus dependientes empleades, para que todo funcione en beneficio exclusivo de elles, porque las infraestructuras también tienen determinismos culturales a los que las personas se adecúan. Y si hablamos de “infraestructura”, hablamos de “medios de producción”.

    El software ya era un modo de apropiación de los medios de producción computacionales en la década de 1990. Stallman ya había sabido ver esto en la década anterior, y precisamente se puso a construir una cultura alternativa que diera lugar a otras formas de apropiación de los medios de producción. Todo esto por supuesto está planteado acá en términos abstractos, y en realidad hay otras dimensiones involucradas, donde la económica es siempre una de ellas: Microsoft controlaba la cultura del software, en buena medida, con dinero. Otra dimensión de problemas es el marco legal: los juicios que serían absolutamente ruinosos para otres, Microsoft los perdía los juicios pero podía sobrevivirlos. Llegó, de hecho, a estar muy cerca de caer: un juez dictaminó una vez que a Microsoft había que dividirla en dos empresas. Pero ahí es donde el dinero se vuelve una herramienta adecuada, por vías del lobby y la propaganda: a ese juez lo recusaron, pusieron a otro más afín a Microsoft, y el juicio justo sucedió durante el momento de transición desde Clinton hacia Bush; este último expresó su deseo de no separar a Microsoft en dos, y de poner fín a ese proceso lo antes posible. Pero eso sucedió más adelante: en los noventas, Microsoft era visto mucho más como un matón comercial que vinculado a ninguna política de estado.

    Cualquiera fuera el caso, mientras la competencia comercial a Microsoft fracasaba miserablemente porque Microsoft jamás jugó limpio, la competencia cultural y política nunca dejó de organizarse, y todas aquellas artimañas de Gates y compañía llevaban bastante agua hacia ese otro molino. El proyecto GNU era prestigioso en los círculos adecuados. Y si bien su presencia en la cultura no era nada de magnitud, sí lo era en los ámbitos académicos vinculados a la computación. GNU no se formó en el mercado comercial de las PCs, sino en el ecosistema intelectual y de formación técnica de les trabajadores de la informática. Era básicamente una línea de organización gremial obrera. Que yo sepa, Stallman nunca lo planteó de esa manera, pero en la práctica nunca dejó de ser eso: parte derechos de propiedad sobre el producto del trabajo, parte estrategia de desalienación con respecto al producto del trabajo, parte organización de les trabajadores en una contracultura que garantice la posibilidad de control comunitario. Y esto no era ninguna juntada de pensamientos felices, sino una organización con cuadros técnicos de primer orden, intercediendo en puntos neurálgicos del ecosistema computacional.

    Por ejemplo, Stallman mismo era parte del comité técnico que en los ochentas discutió un estandar de interoperabilidad entre sistemas operativos: formas de funcionamiento que los sistemas operativos debían honrar para poder ser homologados como compatibles con ese estandar, lo cuál luego les brinda un terreno seguro de trabajo a quienes programaran software para esos sistemas operativos. Este estandar se llamó finalmente POSIX. Piensen, por ejemplo, aquel problema que tuvo la gente que programó para OS/2 cuando Microsoft dejó de darle soporte: todo su software se volvió prácticamente inutil, y estaban obligades a programar para MS-DOS o Windows. Stallman, entre otres, ya estaba viendo cómo luchar contra esas cosas. O bien piensen en aquello de si DOS y Windows viajaban juntos o separados, o si se incluia o no a Internet Explorer, y etcétera. Desde el minuto cero, el proyecto GNU describió a su sistema operativo como un conjunto de diferentes componentes individuales, pero que se articulaban en su conjunto de diferentes maneras. Lo que pasó luego fué más bien evidente: mientras una persona con Windows luego debía comprar otro software por separado, dado que Windows simplemente se encargaba de dar un sistema base, GNU ya venía con mucho software disponible incluido. Esa modularidad explícita en rigor lo heredó de Unix, y fué uno de los puntos clave por los que se decidió a ir hacia esa concepción del software. GNU, entonces, no tenía esa clase de competencias comerciales como las que se vivieron entre IBM, Microsoft, Spyglass, y tantas otras empresas. Se aprecia rápidamente como Stallman veía las mismas cosas que Gates, pero se paraba en la vereda de en frente.

    Como fuera, GNU tenía sus problemas: generalmente de orden técnico, pero son problemas que todes quienes alguna vez militamos algo conocemos también en el ámbito político. El proyecto GNU era llevado adelante mayormente por ingenieres y estudiantes que programaban en sus tiempos libres para el proyecto, sin fines de lucro. Eso le dió al proyecto diferentes velocidades. En algunos casos lograba implementaciones de software experimental innovador y de mejor rendimiento que sus contrapartes comerciales, o bien frecuentemente se adelantaba a los lanzamientos comerciales de algunas tecnologías (GNU tuvo interfaz gráfica antes que Windows, por ejemplo). Pero otras veces el trabajo era laborioso, muy especializado, y sin una dedicación exclusiva francamente lento. Este era el caso con el kernel, que es un componente del sistema operativo dedicado a interactuar con hardware: otro software le pide interacciones con el hardware al kernel, el kernel las realiza, y luego devuelve el resultado a ese otro software que se quedó esperando la respuesta del pedido. Eso requiere conocimientos de hardware que no siempre está disponible: frecuentemente se trataban de información protegida bajo secreto comercial, o bien no distribuida por los fabricantes. Entonces les ingenieres y estudiantes debían hacer ingeniería inversa: especular cómo funcionaba un hardware, y probar diferentes estrategias, para ver si lograban una comunicación adecuada con el kernel. Usualmente a esos softwares que hacen eso se los llama “drivers”, o “controladores” en español, y el kernel establece la manera en que los drivers deben funcionar. Los drivers son luego provistos por los fabricantes de hardware. Pero como los fabricantes eran siempre entidades comerciales, por lo general realizaban drivers sólo para software de orden comercial: léase, mayormente Microsoft. Y tanto el kernel como los drivers eran un punto de desarrollo lento en el proyecto GNU.

    Así fué que en 1991, en una lista de mails, un jóven estudiante de ingeniería dice haber creado un kernel. En su mensaje decía que “no era nada serio y profesional como el proyecto GNU”, sino que lo hizo exclusivamente como ejercicio de aprendizaje. Ese jóven era Linus Torvalds, y su kernel se llamaría Linux. Y dado que el proyecto GNU era agnóstico en cuanto a su kernel, y que Torvalds accedió a distribuirlo bajo licencia GPL, rápidamente hubo una retroalimentación entre ambas iniciativas, y comenzaron a aparecer versiones del sistema operativo GNU con el kernel Linux. Sistema operativo que se distribuía de forma gratuita, con todas las funcionalides incluidas, y al que cualquiera tenía acceso a su código fuente. Esto fue muy interesante en el ambiente estudiantil y académico.

    Durante los noventas, ese ecosistema paralelo al de Microsoft tuvo sus propias batallas internas. Linux compitió con otros kernels, tales como Minix, bajo debates vinculados a arquitecturas de software y cuestiones comerciales. Torvalds, de hecho, también discutió con la fundación Software Libre, y por momentos quitó la licencia GPL del código de Linux; eventualmente revirtió ese cambio. Pero a su vez el proyecto GNU tenía sus propias discusiones y luchas. GNU, por ejemplo, no era el único sistema operativo gratuito y popular en ámbitos académicos y técnicos: así como GNU era un descendiente de Unix ideado por gente mayormente del MIT, en la universidad de Berkeley tenían otro llamado BSD. Para 1993 se creaba FreeBSD, que era una versión libre de BSD aunque no con licencia GPL (bajo control de la fundación Software Libre) sino una licencia propia de ellos. La fundación Software Libre funciona como organismo homologador de la condición de “software libre”, pero no responde legalmente por todas las licencias sino sólo por las GPL. Estas cosas daban lugar a fricciones y fragmentaciones, aunque también a trabajos paralelos. Por ejemplo, el ecosistema BSD rápidamente se convirtió en el referente de arquitectura para redes computacionales, y se sigue usando en servidores de alto rendimiento hoy en día. Pero pasaban cosas en este ecosistema como que tanto BSD como GNU tenían implementaciones de software de redes mucho antes que DOS o Windows, además de que su software funcionaba frecuentemente mucho mejor.

    Una de las fricciones internas fue el nombre mismo del movimiento y la fundación: “free software”. Por algún accidente de los lenguajes, en inglés “free” significa ambiguamente tanto “libre” como “gratis”. No son lo mismo: gratis es una relación con el costo en términos monetarios, pero libre es una relación con sus características de distribución y acceso al código. Libre puede sonar muy lindo, pero gratis no era una palabra que les comerciantes de la informática tomaran a la ligera: y si ambas palabras eran la misma, las confusiones estaban siempre a flor de piel, y con ellas las infinitas polémicas y desconfianzas. Con eso en mente, en algún momento se comenzó a hablar de “open source”, o “código abierto”, dentro del movimiento software libre, para tener una mejor relación con el ecosistema comercial. Pero eventualmente, la gente del “open source” se separó de la fundación software libre, y armó su propia organización: la OSI, o “open source iniciative”. Esta última ponía mucho más énfasis en el acceso al código que en los derechos de distribución de copias, ni en la gratuidad.

    Gates, que no era ningún idiota, no dejaba pasar estas cosas sin hacer nada al respecto. Microsoft sistemáticamente implementó modificaciones en su software que lo hicieran incompatible con el funcionamiento de su competencia, y en el caso particular de GNU se encargó de implementar una versión rota y divergente de los lineamientos establecidos en POSIX. Pero hacia finales de los noventas, el continuo avance de GNU y el software libre en general llevó a que Microsoft los estableciera como su principal enemigo y de hecho su mayor amenaza: porque si el ecosistema de la programación terminaba adecuándose a esa cultura, Microsoft muy rápidamente perdería su centralidad y debería también adecuarse. Esto quedó demostrado en documentos filtrados que fueron presentados en cortes de Estados Unidos, aceptados como pruebas legítimas de prácticas antimonopólicas, y aceptados por Microsoft como documentos reales: los llamados “documentos de Halloween”. En los documentos hablaba de cosas como pácticas evangelistas que debían llevar a cabo representantes de Microsoft en puntos claves del ecosistema informático, así como también pago de sumas de dinero para comprar voceros de organizaciones con presencia mediática influencial en las decisiones mercantiles y políticas vinculadas a la informática.

    Estaba claro que Microsoft era una organización con foco en la cultura, tal y como lo eran también la fundación Software Libre y el proyecto GNU. Hacia finales de los noventas, la rivalidad entre ambos ya era explítica, y Microsoft no pretendía jugar limpio tampoco contra esto. Como parte de su estrategia cultural, comenzó una campaña de desacreditación de GNU y la fundación software libre. Aunque algunas de estas estrategias comunicacionales fueron, si bien a simple vista disparatadas, en realidad bastante inteligentes. Por ejemplo, comenzó a hablar de “Linux” como su principal rival, pero siempre sin decir nada sobre GNU: de modo que no se ponga foco en darle publicidad al proyecto de Stallman, sino al desarrollo tecnológico de Torvalds, al mismo tiempo corriendo el foco y explotando los conflictos internos en la comunidad. Después, llamó a linux “comunista”: al mismo tiempo implicando que es anti-estadounidense y anti-occidente, y que Microsoft en realidad es el camino de lo estadounidense. ¿Vieron cómo los anticomunistas nunca dicen “capitalismo”, sino que plantean al comunismo como una especie de enemigo externo antinacionalista? Bueno, esas cosas son fáciles de usar en la propaganda. Y eventualmente hasta tejió vínculos con los círculos open source: donde esos vínculos frecuentemente tenían que ver con sumas de dinero.

    Pero las dos técnicas más características de Microsoft tenían incluso nombre. La primera es FUD, que son las siglas de “fear”, uncertainty, and doubt”, o “miedo, incertidumbre, y duda” en español, que básicamente consistía en divulgar rumores con mentiras que afectaran las decisiones de tomadores de decisiones: usuaries, empresaries, universidades, estados. Y la segunda, de la que popularmente se conoce como modus operandi de Microsoft, se llama EEE: las siglas de “embrace, extend, extinguish”, que en español significa “adoptar, extender, y extinguir”. Este malévolo comportamiento funciona de la siguiente manera: cuando Microsoft no puede competir con algo, simplemente hace su propia versión de ello. Por ejemplo, un sofware libre servidor de correo electrónico funciona tan bien, que nadie va a comprar el de Microsoft. Entonces Microsoft implementa, en un software no libre, los estándares que implementa aquel otro software. Frecuentemente luego lo distribuye de manera gratuita, para que la gente lo pruebe. Y con incompatibilidades previamente puestas por Microsoft mismo en sus propios sistemas operativos, de repente el nuevo software es el único que funciona en sistemas de Microsoft. Esa es la parte de “adoptar”, o la primera “e”. Pero luego, además de implementar lo que fuera que implementaba aquel anterior, le empieza a agregar cosas: a veces cambios opcionales, otras veces funcionalidades agregadas, las cuales sólo funcionan con otro software de Microsoft. Esa es la parte de “extender”. Y finalmente, a fuerza de dominar los mercados, eventualmente discontinúa ese software, lanza una nueva versión esta vez con costo para quienes quieran usar todas las funcionalidades, y esta nueva versión además es incompatible tanto con la anterior como con aquel otro software libre. Esa es la parte de “extinguir”, o la tercera “e”. Para ese momento, les usuaries ya todes utilizan servicios de Microsoft que no tienen contrapartida en el mundo del software libre, y entonces no tienen más opción que adecuarse a las reglas de Microsoft si pretenden seguir haciendo lo que venían haciendo con sus computadoras.

    Básicamente Microsoft, en los noventas, era un gigante en medio del ecosistema computacional cobrando peaje, y cualquiera que quisiera pasar por ahí debía enfrentarse a él por la fuerza: ya fuera que hiciera hardware, software, o que quisiera cambiar algo en esa cultura. De modo que esa clase de peleas en el mundo de la informática proliferaron, y todo se peleaba con Microsoft. Pero no eran las peleas que llegaban a ojos de los consumidores masivos. Los ojos del mundo estaban puestos, ya no tanto en la PC en sí como hardware, sino en su cada vez más nutrida cantidad de casos de uso de software, en especial con el advenimiento de Internet. Ahí se dió la guerra de los browsers, donde Netscape Navigator competía con Internet Explorer por ver quién estandarizaba qué componentes de la World Wide Web, y cómo lo lograba. Microsoft hizo lo que era rutina: explotar su monopolio. Pero Netscape no bajó los brazos y dió pelea, de una manera que sorprendía a amigues y enemigues, sobreviviendo durante años en paralelo a que prosperaban sus acciones legales sobre Microsoft. Una de esas batallas fué la creación del lenguaje de automatización de páginas web: javascript, que fuera creado por Brendan Eich, de Netscape. Microsoft contraatacó con su propia versión ligeramente incompatible, llamada jscript, y con su propio lenguaje privativo, llamado visual basic script. Las herramientas de programación de Microsoft eran compatibles con los lenguajes y dialectos de Microsoft, y para programar para una web completa era necesario duplicar esfuerzos.

    Apple en ese momento estaba al borde de la quiebra. Ya había echado a Steve Jobs en 1985, y para esta altura terminaba aceptando cosas como meter Internet Explorer de browser por defecto en sus sistemas operativos, a cambio de algo de dinero de Microsoft. Apple podía hacer su propio hardware y su propio sistema operativo, pero además de enfrentarse a las mismas trabas culturales por parte de Microsoft a las que se enfrentaba GNU, también tenía que lidiar con los problemas comerciales (que GNU no tenía, porque no era un proyecto comercial), y al universo de problemas de fabricación de hardware. El software Microsoft, con Windows a la cabeza, era inesquivable del mismo modo que lo era el hardware Intel. A esa unión se la conoce como Wintel, y ponían las reglas del mercado. Otras empresas como AMD, por ejemplo, competían contra Intel en la creación de microprocesadores y chipsets de motherboards. Apple debía enfrentar lo peor de ambos mundos, y llegó a estar muy cerca de no poder contarla.

    Mientras tanto, IBM simplemente dejó de pelear, y buscó refugio de tanta masacre comercial en otro lado. Todavía existían espacios donde la PC era considerada “un juguete”, y entonces apostaban por hardware y software de otras características. Los servidores, por ejemplo: que frecuentemente eran versiones más sofisticadas de la misma tecnología de las PCs, aunque a veces podían tener hardware especializado. Pero la vanguardia en esos aparatos que “no son un juguete” eran las mainframes, por un lado, que básicamente eran servidores para regímenes de prestaciones excepcionalmente altos, y por el otro lado las llamadas supercomputadoras: grandes computadoras dedicadas a realizar cálculos matemáticos de extrema complejidad. En ese contexto, IBM continuó algunos proyectos que venían de la época del veranito japonés de la inteligencia artificial: los llamados “sistemas expertos”, que fueron una estrategia de implementación de inteligencias artificiales ya no generales sino específicas. Y fué allí que la humanidad llegó finalmente a la más absoluta de las glorias: en 1997, el sistema experto “Deep Blue” de IBM, lograba derrotar al gran maestro Kasparov en ajedréz.

    Ciertamente las supercomputadoras no eran ningún juguete, y se usaban para las más serias de las cosas. Pero, para variar, finalmente la inteligencia artificial tenía un éxito rotundo en ALGUNA de sus ambiciones. Y esto, por supuesto, le dió impulso nuevamente a la cuestión. Aunque, en realidad, la inteligencia artificial nunca se había ido a ningún lado. Sucedió que para la década del noventa, les científiques y técniques vinculados de cualquier forma a esa área ya habían aprendido a no decir en voz alta sus fantasías y a regular sus discursos si pretendían continuar teniendo trabajo. No precisamente porque el clima fuera hostil, sino porque las fantasías sobre inteligencia artificial habían llevado ya a tantas decepciones y bancarrotas que ciertamente a esa altura no eran la mejor estrategia para estimular la investigación. De repente había sintetizadores de voz, reconocimiento de caracteres, robots industriales de todo tipo, reconocimiento de lenguaje natural, software que analizaba datos, predicciones económicas, y tantas otras herramientas mediadas por diferentes formas de inteligencias artificiales, si bien mínimas, reales. Ganarle a Kasparov podrá haber tenido buena prensa, pero en todas las áreas las computadoras estaban cada vez haciendo más cosas.

    Y la realidad virtual también estaba por todos lados, y al mismo tiempo que los juegos 3D proliferaban a pesar de ser mucho más feos que los 2D, en la tele los hackers se metían en mundos virtuales desde una cabina telefónica y andando en patineta o algo por el estilo. Lo tridimensional era un imperativo, difícil de rastrear para mí en su origen concreto, pero omnipresente. Y constantemente se mezclaba la idea de “3D” con “realista”: una línea que ya venía desde Terminator y tantas otras películas. Por alguna razón, el clima de época era algo así como que la tecnología 3D de alguna manera se iba a volver indistinguible de la realidad, y entonces íbamos a poder vivir experiencias inigualables. Matrix nos llamaba la atención sobre eso.

    Pero en esa época el verdadero optimismo estaba puesto en internet. Se vivía como una especie de nuevo continente que los cybercolonos del cyberespacio irían a cyberpoblar. Y compartía esa fantasía capitalista y neoliberal de que, como la economía, siempre podía seguir creciendo: ahora gracias a la virtualidad. Lo primero era tener una identidad: te registrabas una cuenta de e-mail, o usabas siempre el mismo nombre en internet, sin importar mucho que tuviera nada qué ver con tu “nombre real”. Pero eso de la identidad, a la hora del comercio, significa “marca”. Y en internet, las marcas debían tener un nombre de dominio atractivo, contundente, central. Así empezó una bufonezca competencia entre marcas por registrar nombres de dominio, y de emprendedores intentando montar su negocio en internet. Estamos hablando de la época donde Homero Simpson creaba la empresa “compumundo hipermegarred”, y Bill Gates se la terminaba comprando aunque no se entendiera bien a qué se dedicaba. Esas cosas sucedían: en Argentina estaba “elsitio.com”, que básicamente tenía todo el potencial del universo para ser, efectivamente, un sitio de internet. De modo que la gente se conectaba a elsitio para… conectarse a un sitio, porque internet era tan primitiva que cualquier cosa era un evento. Si quieren degustar un poco del espíritu de aquella época, les recomiendo unos minutos en “zombo.com”.

    Por supuesto todo este optimismo una vez más terminó en vergüenza, y a eso se le llamó “la burbuja punto com”. Los precios de los sitios web se inflaron tanto que eventualmente, cuando les inversores empezaron a pedir sus dividendos, nada resultó valer lo que decía valer. Esta vez el optimismo no tuvo nada de científico, y apenas algo de tecnológico, sino que fué enteramente comercial y financiero: como tantas otras burbujas de menor embergadura que ya se empezaban a volver rutina desde la hegemonía neoliberal. Y del mismo modo, como tantas otras burbujas, tuvo sus ganadores.

    En 1994, Jeff Bezos tiene 30 años de edad y funda la empresa Cadabra, a la que pronto le cambió el nombre porque un abogado la confundió con la palabra cadaver. Este señor era ante todo un comerciante, y no se quería perder esa oportunidad histórica de hacer comercio en internet. Así que se puso a analizar ese todavía inexistente mercado, y llegó a conclusiones. Decidió que vendería libros, y que su empresa necesitaba un mejor nombre, así que la llamó Amazon, inspirado por la amazonia y el río amazonas. En cuestión de meses le empezó a ir bien, y para finales de los noventas ya aparecía en la revista Time como la persona que popularizó al comercio online.

    La web era jóven, y tenía mucho por crecer todavía. Preparados para “el boom de los sitios web”, muches comenzaron a montar datacenters en todo el mundo, llenos de servidores que pasarían a ser la infraestructura del incipiente nuevo milenio. Y hacía falta aprender a navegar en estas aguas: para eso teníamos buscadores de sitios web, entre los cuales se destacaban el poderoso Yahoo y el mucho más eficiente Altavista. El mundo académico no cerraba tampoco los ojos a nada de esto.

    Así, una vez más aparece en este relato la aventura de dos jóvenes estudiantes de una prestigiosa universidad, los cuales esta vez estudiaban las características formales de internet. Y en esto sí había ciencia. Uno de estos jóvenes interpretó a internet desde la teoría de grafos, e hizo otras interpretaciones sobre la naturaleza de los hipervínculos, y llegó a conclusiones como que los vínculos eran entre otras cosas una métrica de importancia de un sitio web, y por lo tanto podrían realizarse búsquedas de sitios de modo tal que se ordenen los resultados a partir de su importancia. Esa clase de ideas les estudiantes ahora podían ponerlas a prueba en el vanguardista sistema operativo GNU/Linux, y a partir de allí confirmar algunas hipótesis que luego les permitieran fundar otros desarrollos sobre ellas, o bien incluso conseguir financiamiento para sus proyectos. De esa manera, en 1998 aparecía en internet el novedoso, minimalista, y extrañamente eficiente buscador Google, de la mano de la empresa homónima fundada por Larry Page y Sergei Brin.

    Y el mismo año sucedía un evento impensado para muches imbuides del espíritu de la época. Después de décadas de políticas neoliberales, pobreza, deuda externa, y crisis tanto social como política, en Venezuela elegían a Hugo Chavez como presidente, dando inicio al proceso que desde ese país llamarían Revolución Bolivariana: un extraño nuevo foco de socialismo, inquietantemente cernano geográficamente a los Estados Unidos, y con el amparo económico del recurso natural mejor cotizado. Lo cuál era al menos curioso, porque los conflictos ideológicos habían terminado hacía ya casi diez años atrás con la caida de la Unión Soviética, y de hecho se había terminado la Historia. ¿Acaso en Venezuela llegan tarde las noticias?

    La década terminaba entonces con crisis económica tanto en el espacio como en el cyberespacio, triunfos de la inteligencia artificial que en realidad se sentían como amenazas para la humanidad, un mercado informático que más bien parecía un hervidero, y un fín de la historia que cada día iba perdiendo los colores fluorescentes en camperas y patinetas para dar lugar a fantasías de cyberpunk distópico de caras sobrias, con música anticapitalista, y temáticas de liberación de la humanidad. Algo raro ciertamente estaba sucediendo.

    

Vencedores vencidos

    Por alguna razón cultural que en retrospectiva me cuesta mucho identificar su origen, me crié con la noción de que en el año 2000 llegaría el fín del mundo. Un poco las ficciones apocalípticas colaboraban con esas cosas, otro poco también el ambiente de superstición y misticismo en el que crecí se la pasaba hablando de inminentes anticristos y presencias demoníacas y profetas… cosas como esas. Supongo que todo eso terminó marcando una vara de expectativas muy altas porque, que yo recuerde, la llegada del año 2000 debe haber sido uno de los eventos más aburridos de la historia.

    Creo que nada puede ser más presentativo de eso que el nunca buen Y2K. Se suponía que, al segundo exacto de cambio de siglo, una infinidad de sistemas informáticos de toda naturaleza podría fallar, porque su manejo de los años en las fechas era en dos caracteres en lugar de cuatro, y entonces en lugar de pasar del año 1999 al 2000 se pasaría del 99 al 00: situación para la que el software podría no estar preparado, y tener entonces comportamientos impredecibles. Estamos hablando desde cajeros automáticos hasta aviones o centrales nucleares. El Y2K se volvió un tema en los últimos años del milenio pasado, y era capaz de causar bastante tensión. Comenzaron a salir a la venta productos con etiquestas que indicaban “compatible con el año 2000”, las cuales termiban apareciendo en aparatos como bicicletas o licuadoras. Al final no era para tanto, y causó más vergüenza que desastre; aunque seguramente tengamos que agradecer a centenas de miles de gente que se ocupó antes de tiempo de que nada serio finalmente sucediera.

    Para ese entonces yo ya me presentaba como programador. Ya había hecho programitas de todo tipo, mientras buscaba ser hacker y hacer videojuegos, pero al mismo tiempo algún empleo que me permitiera autonomía económica. Tenía 18 años, y mucho optimismo puesto en mi inteligencia y en la programación. Recuerdo, por ejemplo, que hacia finales de los noventas ya había hecho mis pequeños y humildes experimentos caseros con inteligencia artificial.

    Hacía cosas como escanear los textos impresos de la facultad, pasarles un proceso de reconocimiento de caracteres, obtener así archivos de texto plano con el contenido de los libros, y luego delegarles esos textos a un sintetizador de voz que me los leyera. Durante largas horas entrenando personajes de videojuegos, dejaba de fondo a la computadora leyéndome los libros de la facultad mientras yo jugaba. Y de la misma manera improvisaba algunas formas de interactuar con la computadora directamente hablándole: me había programado mis propias automatizaciones para los juegos que a mí me gustaba jugar, a las que les agregué comandos de voz. Hoy decimos que los aparatos son inteligentes si hacen cosas como esas, pero yo las improvisaba hace más de 20 años con mi PC Pentium 2 con Windows 2000.

    Y también había tomado todos mis logs de IRC, que pesaban un par de megas, y los había procesado de modo tal de lograr filtrar palabras únicas, para luego guardarlas en una lista en texto plano que hiciera las veces de base de datos. Luego eso sería consumido por un programa, que cargaría esa lista de palabras en memoria, y con ellas generaría textos: sentencias simples, oraciones. Mi programa generaba lo que en otros contextos llamaríamos “cadaver exquisito”: una sucesión de palabras al azar. Le agregué al programa algunas reglas sintácticas improvisadas, para que las oraciones fueran de alguna manera cercanas al lenguaje natural, y luego podía pasar algunas horas diciéndole al programa que me generara textos arbitrarios. Me decía a mi mismo que era “para buscar inspiración”: esperaba automatizar el trabajo de “tener ideas”, particularmente para pensar textos literarios.

    Aunque secretamente buscaba cosas mucho más ambiciosas, para ser sincero. Estaba al mismo tiempo curioseando la manera de poder dialogar con la computadora, por un lado, y por otro la manera de modelar al concepto mismo de conocimiento. Si lograba suficiente precisión en esas aventuras, imaginaba poder automatizar la extracción de conocimiento desde internet o desde textos escaneados, y luego hacerle preguntas a mi programa. Imaginaba por esa vía poder superar mis propias limitaciones humanas en términos de conocimiento, por vías de la automatización de obtención y procesamiento de datos. Aunque también suponía que luego, con alguna pequeña vuelta de tuerca, podría programar algunos procesos cognitivos de modo tal que le pudiera delegar trabajo intelectual a la computadora, pudiendo así lograr cosas imposibles. Por ejemplo, de mínima podía simplemente pedirle a la computadora que hiciera algunas cosas que me permitieran ganar dinero sin demasiado esfuerzo. Pero de máxima podría pedirle que me diseñara estrategias para lograr cosas de ciencia ficción, como ser la inmortalidad. En el medio de esos dos extremos, estaba la idea de automatizar la ciencia: que mi computadora fuera capaz de generar hipótesis al respecto de problemas que yo le planteara, y luego accediendo a todo el conocimiento online y generando simulaciones pudiera poner a prueba ella misma tales hipótesis, todo de manera automática sin más que mi sola orden: básicamente, fantaseaba con programar un oráculo o algo por el estilo.

    También imaginaba poder programar interfaces de usuario tridimensionales para mi computadora. Básicamente, pretendía tomar cualquier mapa de algún juego tridimensional de moda, y convertirlo en mi entorno de escritorio, que ya sería más bien un espacio virtual de trabajo. Pensaba interactuar con programas y sus ventanas de la misma manera que jugaba al Doom: caminando por ese espacio virtual, e interactuando con él de maneras que yo mismo determinara. De hecho, no veía problema alguno con permitir convertir a mi computadora en un espacio compartido de trabajo, tal y como los juegos online permitían a la gente conectarse y jugar juntes.

    Por supuesto no logré ninguna de esas cosas, y me quedé más bien en los cadáveres exquisitos. Pero usaba ese programa bastante frecuentemente, porque ya lo había integrado a un muy primitivo entorno de escritorio creado por mí mismo para reemplazar al de Windows: lo mío era básicamente una pantalla negra, con un cursor titilante que iba escribiendo cosas al estilo Matrix. Y sucedió que ese prorama un día me generó la siguiente frase: “vivimos en los brazos del sueño”. Esto suena trivial, pero ese día fué como una revelación epifánica para mí: me quedé leyendo esa frase una y otra y otra vez, casi compulsivamente, tratando de entender lo que estaba sintiendo al leerla. Por un lado, yo sabía muy bien que ese programa no era inteligente. Pero por otro lado parecía haberme dicho algo tan profundo, tan poética y filosóficamente significativo, que no podía quedar tranquilo sin ponerle una explicación racional al cómo podía ser que de allí surgiera algo como eso. A ver si me entienden: yo hice a ese programa, yo creé esa frase, con toda su extraña sabiduría. Esa noche fué una montaña rusa emocional. Pero finalmente pude llegar a una conclusión que se sintió tan correcta como reveladora: el texto no significa nada, y el significado es un efecto, un suceso, un fenómeno, que ocurre adentro mío. No era el texto, ni su intención, ni su autor, sino lo que yo hago con él, conscientemente o no, lo que me llamaba tanto la atención. Lo cuál me llevó a reflexionar sobre la composición de nuestro aparato psíquico, la relación con aquellas sensaciones tan intensas vinculadas a la experiencia de revelación, la comunicación, y tantas otras cuestiones que eventualmente me terminaron llevando a estudiar Letras: una carrera mezcla de literatura y lingüística.

    Por aquel entonces, mientras yo fantaseaba todas esas cosas con mi humilde computadora hogareña, ya no en mi Quilmes natal sino en Massachusetts, Marvin Minsky se preguntaba por qué llegaba el 2001 y todavía no existía Hal 9000. Reflexionando un poco en retrospectiva, quizás nací en el barrio equivocado. Como fuera, esa pregunta de Minsky se podía responder de muchas maneras. Estaban quienes decían que fué por los sesgos filosóficos o técnicos involucrados en las estrategias para plantear las diferentes inteligencias artificiales que ya se habían intentado, aunque también estaban quienes decían que era simplemente un tema de poder computacional en el hardware. Los debates, al menos en los referentes del área, no parecían haber prosperado mucho, y la inteligencia artificial seguía siendo cosa de imaginación de jovencites.

    Pero, como ya había dicho, la inteligencia artificial no era donde estaba el optimismo, sino en internet. Yo hacía también páginas de internet, que era de lo que pretendía eventualmente conseguir algún trabajo. En ese contexto también tuve alguna epifanía, aunque ya más de orden comercial. Recuerdo una vez predije que, en vista a lo que era el desarrollo de “HTML dinámico”, eventualmente permitiría programar cualquier cosa dentro de un web browser. Tanto era así, que el sistema operativo directamente sería un web browser: como ya sucedía desde internet explorer 4, que se integraba al escritorio de Windows. Pero además, mi experiencia programando aplicaciones cliente-servidor me daba la pauta de que, eventualmente, se iba a poder procesar todo en servidores, y entonces las computadoras no iban a necesitar hardware de alto rendimiento: apenas un mínimo para mostrar los resultados en un browser, y conexión a internet. Con eso en mente, me dije a mi mismo que debía adelantarme a ese devenir histórico, y programar un sistema operativo que directamente bootee conectándose a internet. Este sistema operativo se llamaría “Internet Operating System”, o “IOS”, y por medio de esta visionaria idea yo me convertiría en el siguiente Bill Gates.

    La idea duró poco: cuando agarré el primer libro de assembler, no pasé muy lejos de un “hola mundo” que rápidamente la aventura excedió mis capacidades. Pero la anécdota creo que refleja muy bien lo que era vivir la computación desde adentro en esa época: yo era un jovencito en una zona suburbana de un país del tercer mundo, y creía poder ser alguna forma de magnate solamente por tener las ideas correctas. Era la bajada de línea emprendedurista del momento, a la que cualquiera podía ser sensible.

    Y también la realidad de conseguir trabajo con internet era mucho más problemática de lo que mi optimismo podía predecir. Sucedió que mi generación sólo había vivido a la PC Wintel como “computación”. Y en ese sentido, me crié con herramientas de Microsoft. Aprendí a hacer páginas web desde que comenzaron a existir, con editores de texto plano. Pero cuando ya se trataba de “programar”, cuando las páginas web comenzaron a tener cada vez más lógica y scripting y requerir trabajo del lado del servidor, ahí ya no usábamos un simple editor de texto: no señor, les profesionales usábamos una IDE, que es un editor de texto pero para programación. Y no había IDE más completa y profesional que Microsoft Visual Studio. Con Visual Studio podíamos investigar toda la estructura interna de los componentes de programación disponibles, tan sólo apretando un botón y desplegando un menú. Y podíamos exportar nuestro software a componentes ActiveX, que luego se podían utilizar en Internet Explorer. Era extremadamente poderoso, y dejaba al mundo al alcance de la mano para cualquiera que tuviera la voluntad de conquistarlo. O al menos así se sentía.

    Lo que sucedió en la realidad fue que, cuando fuí a mi primera entrevista laboral de programador web, en la prueba técnica no me dieron Visual Studio sino un libro grandote y gordo con el que no estaba familiarizado, y una computadora para probar mi código. No era un gran problema para mí, porque yo estaba cómodo programando sin IDE: pero extrañamente mi código no funcionaba cuando lo probaba. No veía error, no entendía qué sucedía: programaba lo que había programado mil veces antes, y sencillamente no andaba. Hay toda una historia especial por la que conseguir ese trabajo era importantísimo para mí, pero no viene al caso: lo concreto es que tenía muchísima presión para conseguirlo, y fuí a esa entrevista muy seguro de mi mismo después de haber hecho mil experimentos de laboratorio en mi casa. Sabía cómo hacer las cosas, entendía los problemas a resolver, sabía hasta trucos para soluciones especiales: me sentía muy preparado. Y mi código no andaba. La entrevista técnica era una cosa de media hora, una hora como mucho: estuve varias horas, probando de todo y fracasando miserablemente. Me fuí de esa entrevista completándola a medias, donde mi código funcionó en Internet Explorer desde el comienzo pero nunca en Netscape Navigator. Y no conseguí el trabajo.

    Lo que sucedió fue que yo aprendí una versión rota de javascript: o, más que rota, “extendida”. Las herramientas de Microsoft me formaron como profesional para trabajar con las herramientas de Microsoft. Pero internet era más grande que Microsoft. Mi código no funcionó porque la versión de javascript de Microsoft era insensible a mayúsculas y minúsculas, por un lado, y permitía acceder a propiedades de objetos de manera no estandar, por otro lado. De modo que yo usaba sintaxis que parecía javascript válido, pero en realidad no lo era. En esa época no existían las herramientas de diagnóstico como hoy las conocemos, de modo que une tenía que poner un montón de mensajitos en el código para poder entender qué sucedía: alertas, que me indicaban qué parte del código se estaba ejecutando, y entonces así une podía seguir hasta qué punto el programa funcionaba y dónde dejaba de funcionar. Pero la sintaxis de Microsoft rompía incluso eso en Netscape Navigator, y entonces me dejaba a ciegas creyendo que mi código iba a funcionar y sin saber por qué no lo hacía. Netscape Navigator tenía una consola de errores, pero yo francamente no entendía ni cómo usarla ni qué me decía. No importó cuántas vueltas le dí, cuántas ideas originales apliqué para ver si lograba resolver los problemas de otras maneras: el problema era sintáctico, así que nunca iba a funcionar.

    Me tocó vivir el momento más intenso de la guerra de los browsers, en carne propia. Sufrí muchísimo el no haber conseguido ese trabajo. Y esa fué la primera vez que tuve un problema con Microsoft. Antes de eso, lo sentía como mi mejor amigo: me daba herramientas, me permitía hacer magia con mi computadora y fantasear mil futuros maravillosos. Pero después de eso comencé a desconfiar, a diversificar mis conocimientos, a dejar de basar mis conocimientos en una herramienta como Visual Studio y a tener más presente y ser más cuidadoso con los estándares que rigen mi código. Era una cuestión ya de supervivencia gremial.

    Pero esto no es mi diario íntimo: mi historia viene al caso porque fue la de millones, de personas y de dólares. En esos mismos años sucedía el juicio que el gobierno de los Estados Unidos llevaba adelante contra Microsoft, precisa y exactamente por hacer eso que me hizo a mí. Como mencioné antes, las prácticas anticompetitivas de Microsoft eran famosas, hacían escuela, y daban lugar a juicios multimillonarios, de los que salía simplemente pagando sumas dinero para luego continuar su comportamiento. Aunque uno de esos juicios fué muy especial. El gobierno de los Estados Unidos acusó formalmente a Microsoft de mantener un monopolio ilegal del mercado de las PCs: por lo que hacía con los fabricantes, y por lo que hacía con su competencia en el área de software, siendo el ejemplo cosas como incluir por fuerza Internet Explorer profundamente integrado con su sistema operativo.

    Es interesante revisar las grabaciones de las declaraciones de Gates durante ese juicio. No aquí en este ensayo, claro, sino que invitamos a quienes les interese a buscar ese material por internet. Básicamente, Gates por momentos actuaba con tono altanero o hasta burlón, mientras que en otras grabaciones se lo veía nervioso y ofuscado, constantemente esquivo. Básicamente, el gran genio de la informática moderna daba vergüenza ajena y se mostraba como una persona muy carente de algunas capacidades intelectuales. Entre las evidencias que se presentaron en el juicio, se mostraban mensajes internos de Microsoft donde ejecutivos decían cómo eso que me pasó a mí en mi entrevista de trabajo era algo que se pretendía sucediera adrede: algo planificado. Y desde Microsoft hasta intentaron presentar videos en su defensa, donde mostraban que los problemas que se mencionaban en Windows no eran ciertos, pero rápidamente se demostró que los videos eran falsificados y tuvieron que aceptarlo en la corte. Era un absoluto bochorno. Bill Gates, y su CEO sucesor Steve Ballmer, ambos consideraron irse de la empresa durante ese proceso.

    Y en el año 2000, la corte dictaminó que Microsoft era culpable, y ordenó separarla en dos empresas para remediar el problema del monopolio: una empresa se encargaría del sistema operativo, y otra empresa sería dueña del resto de su software. Era un fallo que dejaba un precedente enorme, y que venía a cambiar el ecosistema de la computación en general.

    Microsoft apeló de inmediato a la cámara superior correspondiente. Y el Gobierno de los Estados Unidos tampoco se quedó quieto: también de inmediato inició los trámites para que esa apelación fuera llevada directamente a la suprema corte de justicia, la instancia final. Para ese entonces ya había aparecido una carta pública de un think tank neoliberal en los periódicos de mayor tirada de los Estados Unidos, diciendo que el juicio era antiamericano y que el estado era títere de las empresas rivales de Microsoft y no debía meterse en la gestión industrial. Y durante ese proceso, el gobierno cambió de la administración Clinton a la administración Bush, donde esta última dijo que pretendía llevar alivio rápido a los consumidores, para lo cuál fueron instruidos los fiscales del caso. “Estoy del lado de la innovación, no de la litigación”, dijo Bush. Prontamente, la corte suprema encontró un tecnicismo por el cuál el juez que dictara la separación Microsoft fuera considerado sesgado e incompetente para juzgar: parece ser que, en algún momento, el juez habló con la prensa sobre el caso, lo cuál constituye una violación del código de ética, y de esa manera entonces debía recusarse. De modo que la corte suprema revocó la sentencia anterior, y dijo luego que Microsoft no requería separarse.

    Ese fué otro punto visagra en esta historia. Un universo paralelo donde Microsoft se hubiera separado, habría sido radicalmente diferente para el campo de la informática en general, y por lo tanto del mundo como lo conocemos. Pero lo que sucedió en nuestro universo es que Microsoft logró, básicamente, “leyes de impunidad”, al menos en términos de jurisprudencia.

    Eso fué en el 2001, y marcó el clavo final en el ataúd de Netscape, finalizando también la guerra de los browsers. Internet Explorer se convirtió rápidamente en el standard de-facto de los browsers, y todes les que quisiéramos trabajar con internet debíamos hacer esfuerzos para que nuestro software funcionara con los lineamientos de Microsoft, independientemente de nuestro contexto. Por ejemplo, no había Internet Explorer en GNU/Linux, y las versiones en sistemas de Apple tampoco funcionaban igual a las de Windows. Cualquiera que haya vivido esa época conoce cómo fué: todo en internet pasó a estar hecho casi exclusivamente para Internet Explorer. Aunque, en un principio, ese todo no era muy extenso qué digamos: internet seguía siendo más bien primitiva.

    Pero se vé que la historia quiso compensar el fiasco del año 2000, y se guardó todo el dramatismo para el 2001. El histórico juicio a Microsoft, que logró llegar a ser cuestión de estado, apenas pasó a ser una nota al pié administrativa cuando más tarde, en el mismo año, sucedía el ataque a las torres gemelas, con la subsecuente “guerra contra el terror” como respuesta. Recuerdo que ese día dormí hasta tarde, y mi abuelo me despertó al grito extrañamente alegre de “despertate que empezó la tercera guerra mundial”. Ese mismo año, pocos meses después, mi país finalizaba una crisis política y económica terminal del proceso neoliberal iniciado a principios de la década pasada: manifestaciones con decenas de muertos en la calle, múltiples presidentes en apenas dos semanas, y un profundo descrédito de la política bajo el grito unánime “que se vayan todos”. Así terminaban las milagrosas maravillas neoliberales en Argentina, y no pasaba un año entero que en Brasil era elegido democráticamente Luiz Ignácio Lula da Silva, candidato del Partido de los Trabajadores: otro aparente foco socialista en la región, y esta vez en el país más poderoso de todos. El neoliberalismo sólo trajo desastre a la región, y para 2008 ya había una nueva ola progresista en toda América del Sur con apellidos como Chávez en Venezuela, Lula en Brasil, Morales en Bolivia, Kirchner en Argentina, Correa en Ecuador, o Lugo en Paraguay: todes de sesgo regionalista y distribucionista, mayormente con industrialismo keynesiano pero algunes directamente también reivindicando al socialismo como horizonte. Era básicamente una respuesta directa al Plan Condor, y en pleno momento de exacerbación del militarismo estadounidense. Nota mental: nunca subestimes a la Historia.

    Aunque es Microsoft quien debería de haber considerado esa nota. Ya sin límites aparentes en la industria informática, Microsoft se dedicó a consolidar su dominio absoluto del mercado informático, lanzando productos de software que reemplazaran a los de su competencia, con las tácticas que ya conocemos: fabricantes forzades a distribuir software Microsoft, trabajadores obligades a hacer su trabajo compatible con Microsoft, universidades enseñando con tecnología Microsoft, y ahora la novedad de la década eran Estados y organizaciones privadas por internet exigiendo al software de Microsoft como requerimiento para realizar trámites. Desde los formatos de documentos de texto hasta cómo se escriben los caracteres a nivel binario, pasando por cómo se interpretan los dialectos de protocolos de internet y la absoluta necesidad de instalar programas de Windows para poder realizar actividades comerciales o profesionales, Microsoft imponía las reglas para todes. Si usabas cualquier otra cosa que no fuera de Microsoft, tenías problemas con Microsoft. Y como si fuera poco, los productos de Microsoft ya no eran particularmente de buena calidad, sino más bien todo lo contrario: pesados, llenos de vulnerabilidades que dieron lugar a infinitos problemas con viruses informáticos, incompatibles con versiones anteriores, muchas veces estancados en el tiempo e impidiendo el uso de nuevas y mejores tecnologías… era a todas luces un absoluto abuso.

    De hecho, en esta década aparecen algunos de los escándalos éticos más notorios de Microsoft, que ya pasaron a incluir sobornos y amenazas tanto a cuerpos de estándares internacionales como a funcionaries estatales de diferentes gobiernos de todo el mundo. El caso de la estandarización del formato privativo de documentos de Microsoft Office hacia el 2007 fue muy famoso: para ese entonces Windows y Office eran los vectores de influencia cultural por excelencia de Microsoft, y si bien GNU/Linux podía estar lejos de representar una amenaza no era el caso con Open Office, una suite ofimática alternativa, gratuita, y libre. Open Office tenía su propio estandar alternativo, llamado “Open Document Format” u “ODF”, plenamente interoperable. Microsoft hizo lo de siempre: sacó una nueva versión de Microsoft Office, esta vez su nuevo formato se imponía por fuerza, y lógicamente Microsoft no cumplía con la interoperabilidad de ODF. Pero para este entonces los problemas de interoperabilidad eran un tema serio en la gestión estatal, y el software que se utilizara cada vez más exigía adecuarse a lineamientos aprobados por cuerpos de estándares. De modo que Microsoft fué a registrar su propio estandar, al que llamó cínicamente “Office Open XML”. Finalmente Microsoft logró la aprobación, luego de un proceso que resultó en un escándalo mundial del que es fácil encontrar referencias por internet, pero que incluyó todo tipo de prácticas espúreas sobre les integrantes del cuerpo de estándares internacional (compuesto por cuerpos de estándares de múltiples nacionalidades).

    Y aunque mucho no pareciera importarle, por estas cosas Microsoft hizo muchos enemigos por esa década. El primer gran vector de crisis en Microsoft fueron los servidores. ¿Recuerdan la burbuja “punto com”? Eso hizo que centenas de miles de servidores alrededor de todo el mundo quedaran instalados sin mucho uso qué digamos: al menos no el que se pretendía que tuvieran. Y el software Microsoft para servidores era caro, inseguro, lento, y más complicado para realizar tareas de mantenimiento, que su ya entonces productivas contrapartidas en GNU o BSD. Además, buena parte del sector estudiantil o trabajador de la informática en general, vivía una y otra vez las cosas que conté me tocaron vivir a mí: pero a diferencia mía, tenían una cultura alternativa de la cual participar. De modo que la burbuja “punto com” dejó disponible infraestructura barata para ser explotada por cualquier empresa aventurera, y muchas de ellas no tenían ninguna intención de ser lacayos de Microsoft. Una de ellas fué Google, que ya por este entonces era la forma estandar de buscar información por internet: superando por lejos cualquier cosa que hicieran Yahoo o MSN Search, y hasta llevando a la obsolescencia al antes dominante Altavista.

    Pero, insisto, la batalla contra Microsoft no era tanto comercial como cultural. Netscape perdió su guerra de los browsers, pero en el camino creó a la fundación Mozilla, y liberó el código de Netscape Navigator, desde el cuál se creó a Mozilla Firefox: un browser alternativo a Internet Explorer, pero con un compromiso con estándares de interoperabilidad que Microsoft nunca tuvo. Por si a esta altura no se entiende: “compromiso con estándares de interoperabilidad” significa también al mismo tiempo “compromiso con les trabajadores” y “compromiso con las empresas”. Nosotres que programábamos internet por aquel entonces aprendimos a odiar a Internet Explorer y amar a Firefox, que a su vez rápidamente comenzó a tener también soporte empresarial de todo tipo: por ejemplo, de parte de Google, que se volvería su buscador por defecto y promocionaría a Firefox como browser de preferencia. Y, además, Firefox tenía un ecosistema de complementos muy celebrado, que en el año 2006 diera lugar a la creación de Firebug: una herramienta para programadores que permitía registrar errores y revisar el funcionamiento de las páginas web mientras se ejecutaban; aquello que no tuve durante la entrevista de trabajo que conté antes, ahora nos lo daba Firefox. Eventual y rápidamente eso se convirtió en el estandar de desarrollo web, cuando todos los browsers implementaron de manera nativa su propia versión.

    Hay muchas cosas de las que no hablamos, que Microsoft también rompía y así generaba odios tanto en empresas como en trabajadores y hasta consumidores. Por ejemplo, la cuestión de los codecs multimedia: audio y video, ya sea en directo por internet (en el web browser) o descargado, en Windows siempre traia problemas, muy especialmente por los reproductores que Windows imponía. Por esa razón empezaba a aparecer un ecosistema de codecs que competían con los que imponía Microsoft, y que como en el caso de Netscape no era raro fueran situaciones donde alguna otra empresa fuera anteriormente dañada por las prácticas anticompetitivas.

    Aunque para les trabajadores, el peor pecado de Microsoft era siempre la última E de su tripe E: “extinguish”. Era común que Microsoft comprara empresas con productos de software exitosos, “extendiera” las funcionalidades de esos productos para “integrarlos” a otras cosas, prontamente dejara de funcionar bien, y finalmente Microsoft lo discontinuara, para luego sacar una versión de algo similar: aunque esta vez con un nombre diferente, con políticas de uso mucho más agresivas, y con incompatibilidades con lo que hubiera antes. Si compraba un servicio de mensajería, perdías tu historial de mensajes y tus contactos; pregúntenle a alguien que haya usado ICQ. Si sacaba una nueva versión de su suite ofimática, tenías que hacer tareas de conversión de tus documentos y adecuarte a una nueva interfáz gráfica que era en rigor una nueva línea de trabajo diferente, y sin ninguna virtud agregada. A veces sencillamente compraba cosas y las mataba, sin más mediación. Esto era muy problemático para usuaries, pero muy especialmente lo era también para trabajadores, y yo lo viví cuando en 2001 Microsoft discontinuó sus versiones anteriores de lenguajes de programación, y lanzó “Visual Studio .NET”.

    Para ese entonces, los lenguajes de Microsoft competían con Java. Java permitía una interoperabilidad muy superior a cualquier otra cosa que ofreciera Microsoft, además de implementar un paradigma de programación muy bien visto en ese momento de la historia del gremio. De repente une podía programar en Windows un programa que luego podía ejecutarse en una computadora Apple, en un sistema operativo GNU/Linux, o incluso dentro de un web browser. Java iba a ser el futuro, y Microsoft hizo lo que siempre hizo: regalar una versión rota hecha por él, para que la gente no usara el Java real. Microsoft nuevamente perdió un juicio multimillonario por hacer eso, y esta vez para variar se le exigió que descontinuara sus versiones rotas de Java, de modo tal que Java no estuviera bajo control de Microsoft. Pero entonces Microsoft explotó su unión de-facto con Intel, y entre los dos registraron una serie de estándares ISO de interoperabilidad de software, que permitieran programar de una manera similar a la que permitía Java, aunque esta vez bajo control de Microsoft. Eso se llamó “.NET”, y cuando Microsoft lo lanzó a la calle, toda herramienta de programación pasó a estar bajo la órbita de “.NET”, que a gente como yo le exigía básicamente re-aprender a programar aplicaciones de escritorio, quitándonos de un plumazo nuestra pericia técnica acumulada por años de experiencia. Esto puede sonar sobredramatizado, pero dejo un ejemplo para que tomen dimensión de qué estoy hablando: hoy, año 2023, todavía hay ofertas de trabajo para usar aquellas tecnologías anteriores a “.NET”, cuya última versión data del año 1998; así de costoso puede ser pretender cambiar esa infraestructura productiva que es el software. Y estas cosas no nos hacían más amigues de Microsoft precisamente.

    Cualquiera fuera el caso, si bien con triunfos y fracasos, había una contracultura, cada vez más fuerte por todas estas cosas que relato. GNU/Linux se hizo más, y más, y más fuerte en el entorno de servidores, y con ello prosperaba también software que no fuera ni hecho por Microsoft ni para correr en Windows. Las propias limitaciones sintéticas que Microsoft ponía en su ecosistema eran la base empírica para evitarlo y construir mejores alternativas. Aunque, si bien esto podía ser un hecho para el mundo laboral y empresarial vinculado a servidores, les usuaries finales y la gente que como yo pretendiera trabajar con interfases gráficas tenía que vérselas con Microsoft más temprano que tarde. Y entre eso, y el hecho de que los productos Microsoft pasaron a ser notablemente deficientes en diversos frentes, dió lugar a que otras empresas pudieran también encontrar algún espacio dentro del mercado consumidor. Este fue el caso de Apple, que a duras penas logró sobrevivir a los noventas. Pero la nueva década le depararía un lugar impensado a Apple.

    Donde Microsoft es básicamente una organización mafiosa y existe solamente para explotar un monopolio, Apple se sostiene bajo otro principio bastante más ilustrado, mucho menos salvaje: fetiche de la mercancía. Apple re-contrató a Steve Jobs como directivo, y logró armarse un ecosistema paralelo al de Microsoft y al del Software Libre concentrándose en la experiencia de usuario en términos generales: por un lado lineamientos estrictos de cómo debe funcionar el software en su ecosistema (algo que en los otros dos mundos era más bien caótico), y por el otro lado implementando también fuertes lineamientos en términos de diseño visual y ergonómico, tanto de hardware como de software. Para ello también se amparó en código de software libre, como ser de proyectos como BSD o KDE, que luego de substanciales modificaciones fueran la base del software privativo de la empresa. Así logró hacerse de un mercado más exclusivo que el de las PCs “IBM Compatibles”, y defenderlo de los ataques de Microsoft. Algunas áreas del trabajo técnico también tuvieron durante un momento breve algunos beneficios productivos a la hora de trabajar con hardware y software Apple, como ser el trabajo con audio y video. Pero mayormente el ecosistema Apple era “lindo”, y “funcionaba bien”. Desde allí también logró imponer algunos estándares de-facto de software, como algún que otro formato de audio o video, o hasta incluso desarrollar su propio browser, del mismo modo que sus trabajos en diseño inspiraban muchas ideas en los otros ecosistemas.

    Pero Apple seguía siendo una empresa muy de nicho, exitosa apenas en algunos paises ricos, y con muy poca presencia en paises como el mío. Y tampoco tenía casi presencia alguna entre los servidores, salvo por algunas cuestiones muy particulares de su ecosistema. Muy rápidamente pasó a darse la siguiente segregación de software y hardware: GNU/Linux en servidores, Wintel en PCs de escritorio para consumidores finales, y Apple en otras computadoras más especializadas para mercados particulares. Las prácticas de Microsoft eran exitosas en sostener su monopolio, pero no parecían darle herramientas para todo lo demás, donde la gente conocedora ya no quería tocar nada de Microsoft ni con un palo de varios metros. Y entonces sus prácticas de éxito se convirtieron también en su punto débil. Wintel nunca fué la combinación más eficiente en términos tecnológicos, y para esta época la eficiencia comenzaba a ser un factor importante, porque empezaban a aparecer otros hardwares para consumidores finales pero que requerían regímenes de rendimiento a los que Microsoft no podía aspirar ni con Intel ni con Windows. Nos referimos a cosas como consolas de video juegos, reproductores multimedia portátiles, dispositivos de control industrial de todo tipo, y por supuesto los teléfonos móviles.

    Microsoft siempre tuvo versiones de Windows para otros dispositivos que no fueran “PCs IBM compatible”. “Windows CE”, “Windows Mobile”, “Windows Server”… todas versiones sensiblemente diferentes de Windows, que pretendían hacer del conocimiento que les trabajadores ya tenían en sistemas Windows un puente hacia otros mercados: en lugar de tener que aprender múltiples sistemas, y usar multiples herramientas, y hasta tener que familiarizarse con múltiples teorías y escuelas de programación, se suponía que une podía simplemente usar Visual Studio y programar para cualquier otro sistema. Pero esas versiones de Windows rápidamente mostraban sus deficiencias comparativas con la competencia, esta vez sin que Microsoft tuviera el monopolio del mercado en cuestión, con lo cuál tarde o temprano pasaban a la irrelevancia.

    En el mundo de los teléfonos móviles, Microsoft no era particularmente prominente. Empresas de tecnología como Nokia o Sony tenían mucha más presencia y vivían a la vanguardia de los desarrollos, aunque también existían empresas con dedicación más exclusiva como Blackberry. Y la telefonía móvil muy rápidamente pasaba de ser el futuro de internet a ser un presente cada vez más tangible. Los detalles al respecto son muchos y sin gran importancia, lo concreto es que en 2007 Apple lanza el iPhone luego de llevar varios años lanzando otro productos como iMac e iPods. El iPhone era básicamente, como cualquier otro teléfono móvil, una computadora pequeña con un modem: pero a diferencia de iteraciones anteriores de teléfonos, esta vez realmente se permitía usar un web browser con las mismas prestaciones que en cualquier otra computadora, llevando finalmente la idea de tener internet en el bolsillo a la realidad. Fué un éxito rotundo, y un punto de inflexión en la tecnología, tanto móvil como de internet.

    Pero Internet era el mercado de Google, no de Apple, y esta otra empresa también se la pasaba generando revoluciones. La calidad de productos como Google Maps o gmail sorprendía a todes, al mismo tiempo que compraba muchas empresas que operaran en internet. Para ese entonces “googlear” ya era sinónimo de buscar en internet, y todo lo que se pudiera hacer por internet era de interés para Google. La entrada de Apple a la internet móvil por la vía del hardware no fué un evento menor para Google, que también tenía en planes sus propias estrategias de control de esa cultura: cualquier evento de estas características podía terminar en un monopolio sometedor como antes lo había sido Wintel, pero además era evidente para ese momento que el desarrollo de internet también dependía fuertemente del software con el que se la utilizara. Por ello Google también desembarcó en el mundo de los teléfonos móviles, aunque con otra estrategia.

    La Apple con Steve Jobs a la cabeza siempre fué una empresa de arquitecturas cerradas. Sus estrictos límites le permitía un control absoluto del ecosistema a Apple, y de hecho la empresa tuvo serios problemas cuando intentó utilizar arquitecturas abiertas para competir con la PC IBM. De modo que el iPhone fué otra iteración más de arquitectura cerrada. Pero Google se formó con arquitecturas abiertas, donde el control pasa por los estándares y las licencias de fabricación y reproducción. De modo que Google diseñó una estrategia de hardware y software abiertos, de modo tal que desde Google se controlaran algunos lineamientos del sistema operativo, pero en realidad cualquier fabricante pudiera modificarlo más o menos a su antojo y usarlo en muchos dispositivos. Para ello, tomó al kernel Linux que ya se usaba popularmente con GNU, aunque lo utilizó con otro sistema operativo de su propia creación, llamado Android. Android no es GNU, pero ambos usan al kernel Linux, y ambos son en buena medida “open source”: aunque Android no es software libre. De hecho, es raro que les fabricantes liberen el código de los drivers para los teléfonos donde implementan Android, y esos drivers son absolutamente privativos. Como sea, esta estrategia fue exitosa, porque muches fabricantes tuvieron oportunidad de acceder a un ecosistema normalizado de aplicaciones para telefonía móvil, a diferencia de los años anteriores donde había que re-hacer el software casi que para cada dispositivo que salía al mercado. Y entonces terminó pasando lo mismo que en décadas anteriores había sucedido con el software Microsoft en las PCs IBM. Aunque esta vez el software se sostenía sobre Linux, que ya estaba preparado desde su nacimiento para adecuarse a múltiples fabricantes de hardware, y entonces no sucedería lo que antes sucedió con Intel.

    Microsoft, mientras tanto, perdía cada vez más relevancia. Muchos mercados seguían dependiendo de sus decisiones, pero su futuro no se mostraba tan asegurado como él prentedía hacer de cuenta. La baja calidad de sus productos, y el destiempo en el que los lanzaba (frecuentemente mucho más tarde de lo que las oportunidades de negocio exigían) generaban francamente vergüenza: como lo fuera el lanzamiento de Internet Explorer 7, o bien el mismo Windows Vista, dos versiones mucho peores de su software anterior, que no sólo no resolvían ningún problema sino incluso agregaban más. Cada vez se hacía más horrible convivir con Microsoft, para todes. Aunque hubo un área donde mantuvo el total dominio del mercado, casi sin molestia alguna: los video-juegos por computadora.

    Esta fué la década que los arcades lentamente dejaron de existir: porque los videojuegos de consolas hogareñas mejoraban mucho, porque mantener los arcades era caro, porque la piratería por internet era muy prolífera, y porque las experiencias de juego colectivo ya pasaban más al mundo de los juegos por computadora. Aquello que antes hacía tímidamente el doom en redes hogareñas, ya entonces lo hacían el counter strike o el diablo 2 por internet. Los juegos en red, ya sea local o por internet, pasaban a dominar el ambiente competitivo, y las consolas todavía daban sus primeros pasos en eso de la conectividad. Pero, habíamos dicho, los juegos tenían muchos problemas computacionales sofisticados qué resolver. Si a eso le agregamos todos los problemas de software que mencionamos en la historia del monopolio Wintel, es entendible que les programadores rara vez eligieran programar un juego para ninguna otra plataforma. Y lo mismo sucedía con el hardware.

    Entrada la década del 2000, nVidia ya se había establecido como la referente en hardware de aceleración de gráficos 3D, y los videojuegos eran la pujante caja de maravillas en ese ámbito de las artes. De hecho, los videojuegos tenían una sorpresa para dar al respecto. Las películas basadas en videojuegos compartían históricamente el mismo problema que las películas basadas en historias de superhéroes: eran películas frecuentemente malas, cuyas actuaciones y ambientaciones estaban lejos de honrar los productos originales, o bien la cultura del ambiente cinematográfico no permitía una adaptación plena. Pero en el contexto de la animación 3D, una de las empresas de vanguardia en la cuestión lanzó su propia película cinematográfica, inspirada en su propia franquicia, esta vez hecha enteramente con animación tridimensional que se pretendía fotorealista. Es decir: era una película entera con renders como los del T-1000 en Terminator 2, ya sin actores filmados, sin fotografías ni sets de filmación, ni ninguna otra cosa en términos visuales que no fuera animación 3D.

    La película se llamó “Final Fantasy: the spirits within”. Y estaba basada en los videojuegos de la saga Final Fantasy, de la empresa Squaresoft, que en ese momento iban por su novena iteración. Aunque en realidad ninguno compartía una continuidad con el anterior, y eran todos historias más bien autónomas en universos ficcionales separados. Sin embargo, era una saga que solía incluir componentes de ciencia ficción, de diferentes filosofías, y para esa altura también de animación 3D. Y la película fué al mismo tiempo un rotundo fracaso comercial, y un evento más bien mediocre para la crítica especializada en cine, pero también un espectacular triunfo de la tecnología.

    Para aquel entonces, la animación 3D continuaba siendo más bien caricaturezca, y no se pretendía fotorealista: porque era demasiado costoso el fotorealismo, no sólo en términos de dinero sino también en la pericia técnica que requería. Animar personas tridimensionales implica muchos problemas de orden cognitivo que no son evidentes para cualquiera, y menos todavía son fáciles de resolver. Sucede que les humanes tenemos, como parte de nuestros sentidos, la capacidad para distinguir a otres humanes a partir de muchos detalles que no tomamos en cuenta sino sólo de manera incosciente. Hay movimientos profundamente sutiles, texturas, efectos de la luz en diferentes partes del cuerpo como ser los pelos o la piel, mezclas de problemas de ese estilo vinculados a la temperatura o humedad ambiente, reacciones que esperamos de las personas o caso contrario nos resultan disonantes… esa clase de problemas se salvan sencillamente no pretendiendo hacer fotorealismo, como era el caso con empresas ya exitosas en el cine como Pixar o DreamWorks.

    Lo que sucedió con esa película fue que, independientemente de cómo le fuera al guión o en sus ventas, fué considerada unánimemente por todes como el nacimiento de les actores digitales: porque los renders 3D fueron efectivamente convincentes, y de hecho por momentos lograba ser visualmente impactante; aunque a eso último ya estábamos acostumbrades, tanto por los videojuegos como por el trabajo usualmente brillante de la gente de efectos especiales en la industria cinematográfica. Nadie tuvo nada malo para decir sobre la animación 3D de esa película, sino más bien todo lo contrario. El presonaje principal de hecho sorprendía por momentos en su calidad y sus detalles. Era una mujer, heroína de la historia, en el papel de científica intentando resolver un problema terminal de la sociedad. Pero al ser renders 3D, no tardaron en aparecer renders en ropa interior o cosas por el estilo, y hasta terminó siendo tapa de la revista Maxim o apareciendo en la lista de mujeres más atractivas del año. Los usos culturales de esta tecnología podían ser pobres, pero el fotorealismo era un éxito incuestionable. Y eso no pasó desapercibido en los ambientes adecuados.

    nVidia no participó del desarrollo de esa película, pero sí se convirtió posteriormente en el estandar con el que se medía el rendimiento de la animación 3D. Su competencia ATI solía estar lejos de nVidia en términos de rendimiento, y nVidia además se dedicó a comprar otras empresas vinculadas a sus intereses. Primero compró la otrora lider del mercado, 3dfx. Pero también compró empresas vinculadas a la fabricación de semiconductores y sus pormenores, así como también fabricantes de diferentes componentes de áreas muy específicas del hardware y software informático en general: chipsets, procesadores, motores de simulación física, etcétera. nVidia no estaba comprando fábricas, sino conocimiento: sus compras le daban patentes, mano de obra calificada, y años ya avanzados en investigación y desarrollo. Esto era una práctica normal en la industria informática, pero… ¿placas para poder jugar videojuegos en la computadora? Eso era raro.

    Como ya contamos en este relato, los videojuegos eran meramente instrumentales para nVidia, y apenas eran un caso particular para experimentar en algo mucho más profundo y poderoso: la paralelización de procesos y la implementación de algoritmos de aceleración de cálculos en hardware dedicado. nVidia no esperó a que Intel o alguna otra empresa tomara las riendas de esa industria tan especializada. Y estas cosas a las que nVidia le prestaba atención implicaban algunos detalles técnicos que, como pasaba con el fotorealismo, no se entienden hasta que une se mete en los pormenores de sus desafíos.

    Por ejemplo, la película de Final Fantasy utilizó una “granja de renderizado” de casi mil computadoras Pentium 3. Se le dice “granja” al montaje de muchas computadoras puestas al servicio de alguna tarea paralelizada en muchas subtareas. Siguiendo con el ejemplo, supongamos que a esas mil computadoras las ponemos a renderizar, en paralelo, un fotograma de la película a cada una, de modo tal que si cada computadora tardara un segundo en renderizar su fotograma estaríamos hablando de una velocidad de renderizado de mil fotogramas por segundo. Eso es una forma ingenua de explicar las ventajas de la computación paralelizada, pero en realidad implica muchísimos problemas técnicos. Si recuerdan lo que contamos antes sobre el T-1000, en realidad un fotograma de la película depende mucho de otro fotograma anterior: porque son simulaciones físicas, y los cálculos de trayectorias y luces y sombras y tantos otros detalles visuales dependen del estado de muchas variables en su situación previa. Además, las computadoras pueden trabajar en paralelo, pero necesitan recibir las instrucciones de alguna manera, y el trabajo debe ser coordinado: para ello se utilizan redes de computadoras, que tienen detalles como velocidades máximas de trabajo, y eso afecta entonces el rendimiento del trabajo total. A su vez, cuando hablamos de mucha cantidad de información como es el caso de los renders fotorealistas, buena parte de esa información tiene que pasar por diferentes subsistemas de la computadora: la memoria, el disco rídido, la placa de red… todo eso suele ser además coordinado por el CPU, aún cuando se cuente con hardware dedicado para hacer cálculos tridimensionales, y todo suma tiempo de trabajo. Para cerrar el ejemplo, la película de Final Fantasy, con sus casi mil computadoras en paralelo, requirió unos cuatro años de trabajo por parte de unas 200 personas, y se estima que si ese trabajo no hubiera sido paralelizado hubieran sido unos 120 años de trabajo.

    Aquellos son algunos detalles, explicados muy por encima, del mundo de la computación paralelizada. Pero cuando se analizan sus números, se aprecia que estamos ante el día y la noche. La película de Final Fantasy salió carísima, por tener centenas de personas altamente capacitadas trabajando durante años, y requerir además hardware de vanguardia para así y todo tardar cuatro años en el renderizado. Fué el final de la aventura de Squaresoft en el mundo del cine, porque nadie podía pretender hacer esa clase de inversiones para no recuperar luego el dinero. Pero desde nVidia veían esa clase de experiencias con ojos científicos desde el día cero, y sabían bien que cada pequeña optimización en el proceso de paralelización en realidad iba a derivar en mejoras dramáticas en esos tiempos. Por eso hacían cosas como comprar empresas de renderizado 3D, por un lado, pero por el otro también empresas de placas de red, empresas que trabajan en la parte de la computadora que comunica a las placas 3D con los CPUs y con otras placas, y tantos otros etcéteras.

    A los ojos de gente como la de nVidia, los videojuegos no eran ningún juego, y las películas de animación no eran ninguna cosa para chiques. Y con esa mentalidad, rápidamente lograron una absoluta centralidad en su área. Para el año 2007, después de sucesivos lanzamientos de hardware de aceleración 3D para PCs, nVidia lanzaba su producto de software para programadores: CUDA, una herramienta por la que se podían implementar técnicas de computación paralelizada en general, ya no solamente para videojuegos 3D, utilizando sus mismas placas aceleradoras de gráficos, para ese entonces ya conocidas como GPUs. Las GPUs de nVidia se estandarizaban en los hechos ya no como un juguete, sino como una herramienta suficientemente normal y suficientemente accesible para implementar computación de alto rendimiento: algo que en épocas anteriores sólo podían hacer las supercomputadoras y las grandes organizaciones.

    Esa fue una revolución mucho más silenciosa que la de las PCs, pero me atrevo a decir que mucho más impactante para el ojo entrenado. Donde las PCs le permitieron a cualquiera de repente ponerse a automatizar cosas, las GPUs permitían subir los órdenes de magnitud de trabajo computacional hasta dar lugar a cosas que pocos años antes eran de ciencia ficción. Y prontamente se verían los resultados. Pero esta revolución de la computación paralelizada era acompañada por otros cambios a través de la década, esta vez del lado de Internet.

    La burbuja “punto com” tuvo otros efectos colaterales, además de la infraestructura barata. Y un gran triunfo cultural y social de la década de los noventas se volvió para este entonces algo con lo que no quedaba claro cómo lidiar exactamente: la gratuidad de los servicios. Sucedía que Internet, por un lado era todavía muy primitiva como para que la gente cómodamente ingresara sus datos de tarjetas de crédito o cuentas bancarias: todavía se percibía mayormente como un peligro, porque une nunca sabía a dónde iban a parar esos datos, y qué podrían hacer luego con ellos. Y por el otro lado, habernos criado con que las casillas de e-mail y tantas otras cosas son gratuitas, francamente hacía luego poco verosimil pedirle a la gente que se pusiera a pagar por los mismos servicios. Lo mismo pasaba con cosas como el tráfico multimedial: en archivos MP3s descargábamos discografías enteras, si los libros estaban escaneados no necesitábamos más que bajarlos y leerlos, todo eso lo hacíamos de forma gratuita, y entonces las copias físicas pasaban a tener un dudoso valor. Pero más allá de los detalles, cómo mantener online a internet en términos comerciales se volvió un problema serio para las empresas.

    Qué sucedió al respecto, ya lo sabemos: terminó imperando el modelo de publicidad por internet, tal y como antes sucedió con la radio y la televisión. Pero esta vez la cuestión era mucho más sofisticada. Empresas como Google estudiaban precisamente el valor de los componentes de internet en sus interacciones con seres humanes, y del mismo modo que notaron una relación entre los links a un sitio y su hipotética importancia, notaron también que era moderadamente sencillo obtener información de los hábitos de consumo de las personas en relación a sus intereses, lo cuál es profundamente valioso para quien desea mostrar publicidad a alguien. Con esta clase de problemas comenzó una carrera por lograr juntar suficientes datos personales como para lograr direccionar la publicidad hacia las personas de modo tal que la reciban, ya no como una molestia, sino como información útil, como algo que efectivamente desean recibir: un sueño dorado del mundo de la publicidad. Mucho se puede hablar al respecto, pero esta aventura fué en definitiva uno de los más poderosos vectores de influencia detrás del desarrollo de lo que hoy llamamos Big Data: técnicas de gestión de datos, no sólo en grandes cantidades, sino también de estructuras muy heterogéneas entre sí, que permitan obtener de ellos diferentes patrones que constituyan diferentes cosas: modelos de comportamiento, perfiles de usuarios, o hasta por qué no predicciones. Si prestaron atención a este relato, notarán que es un caso más de trabajo con estadística. Y en esta oportunidad se convirtió también en uno de los pilares para lograr mantener las operaciones comerciales por internet, dado que cobrar por los servicios era más bien inverosimil.

    La recopilación de datos por internet se convirtió en una verdadera industria, con sus propios desafíos técnicos. Pero en esa década ciertamente explotó como nunca antes en la historia. Y es que Internet era precisamente el universo de interacciones donde esa clase de prácticas se volvían el más elemental sentido común a nivel técnico: si las computadoras entre sí, o bien les usuaries al usuar servicios, deben siempre identificarse, la tarea de recolección de datos era tan sencilla como simplemente guardar registro de las actividades. Cómo se hiciera eso, o qué se hiciera luego con esos datos, ya era otra historia: pero la dinámica era evidente. Y por supuesto que esta década tuvo también su generación de jóvenes reflexionando al respecto.

    Esta década dió lugar al nacimiento de las hoy llamadas “redes sociales”. En rigor, todos los sitios webs son más bien redes sociales, y en especial lo son servicios como chats de IRC o foros de internet. Pero lo que terminó pasando en esta década con las tecnologías del compartir información hizo que le dieran alguna que otra vuelta de tuerca al concepto. Un poco pasaron a ser un espacio donde une se publicitaba y exponía a la internet: algo así como “tener una página personal”, pero con algunos vínculos con otra gente ya automatizados por el sitio web. Eso era la primer red social canónica, MySpace, o en español “mi espacio”. Recuerdo que por aquel entonces yo preguntaba para qué servía eso, porque yo ya tenía página web oficial en geocities, y ya tenía un blog en blogspot: ¿para qué quería tener algo qué ver con myspace? Y la respuesta que me daban era casi unánimemente: “para estar ahí”. Tener un espacio en MySpace ya tenía un valor de por sí. Aunque ese valor era ciertamente difícil de medir. Menos difícil de entender era LinkedIn, que tenía como objetivo básicamente crear contactos laborales y corporativos. Pero en el mismo año nacía también Facebook, de la mano de un jóven Mark Zuckerberg que ya desde el primer día la articulaba como un aparato más bien antisocial.

    Zuckerberg implementó algunos algoritmos de búsqueda y comparación de perfiles, en un espíritu similar al de Google, pero con un objetivo bastante diferente. Lo que hizo fue descargar de manera automatizada fotografías de les estudiantes de su universidad, para luego subirlas a otro sitio web donde se articularían en competencias de “quién es más atractivo”, o bien de si “es sexy o no lo es”. Los condicionamientos hormonales de Zuckerberg son comprensibles para cualquiera que alguna vez haya sido estudiante universitario, pero es un tanto sorprendente que haya logrado crear un imperio en base a eso, en especial en su dimensión ética: porque el sitio web de inmediato generó adicción y discordia entre el estudiantado, y llevó a la universidad a tomar medidas también en cuestión de horas.

    Hubo muchos sitios de redes sociales, casi todos ya en desuso o extintos. De los exitosos, pocos años más tarde aparecían Reddit y Twitter, también con objetivos muy diferentes a los mencionados anterioremente. Reddit tuvo desde el principio un espíritu de compartir información y valorarla colectivamente. Mientras que Twitter era muy extraño y experimental, permitiendo escribir mensajes muy breves literalmente como ruiditos de pajaritos. Pero en definitiva finalmente se empezaba a utilizar a Internet para interconectar gente, de diversas maneras. Y en todas esas aventuras, la publicidad en internet fué central para mantener online a las empresas, del mismo modo que pronto lo fué la gestión de de datos personales que retroalimentara la eficiencia de la segmentación de poblaciones para una publicidad dada. Una cosa hacía a la otra, llevando a resultados que se recalibraban y reanalizaban, dando lugar a nuevos algoritmos y experimentos y prácticas. Mucho de esto no era nuevo, y las redes sociales simplemente lo implementaban: como dijimos varias veces, el análisis estadístico ya era centenario, y se utilizaba en diferentes disciplinas. Pero en particular las matemáticas y la sociología solían tener herramientas para pensar el término “redes sociales” sin tener que andar imaginando demasiado: era más bien al revés, cómo implementar aquellas herramientas en términos de software.

    Y tampoco eran tan cuestión de “redes sociales”: dijimos que Google hacía esta clase de cosas, pero casi no dijimos nada sobre Amazon. Si alguien supo explotar el abaratamiento de la infraestructura de internet luego de la burbuja “punto com”, ese fué Amazon. Para finales de los noventas, Amazon ya no vendía sólo libros, sino que vendía de todo. Y eso tenía sus problemas técnicos. Diversificar su universo de interacciones y acrecentar las competencias de la empresa son problemas serios de ingeniería, de todo tipo: financiera, logística, computacional. Amazon creció en todos los frentes, de manera frenética. Y uno de esos frentes fué en la gestión de datos. No fué el inventor, pero sí se convirtió en el estandar de “computación remota”, o lo que hoy se llama coloquialmente “nube”. Básicamente, Amazon logró resolver el problema de tener su tienda siempre online y respondiera suficientemente rápido, independientemente de si se rompiera algúna computadora o se desconectara algún datacenter, aplicando técnicas de replicación de datos y paralelización de cómputos. Todo eso a su vez generaba datos en su actividad, que luego podían ser procesados por las mismas técnicas que Google o Facebook. Y Amazon no fué ningún dormilón al respecto.

    Sus desarrollos de infraestructura lo llevaron a, eventualmente, estandarizar componentes internos del aparato de cómputo y reducirlo a una sucesión tal de componentes que luego podría ofrecerlos como servicios en sí. Es decir: Amazon logró dominar tan profundamente los desafíos de infraestructura computacional, que terminó dando servicios de infraestructura computacional a terceros, además de montar en esas infraestructuras sus propios servicios. Y como eso se convirtió en un negocio lucrativo, siguió comprando e instalando sus propios datacenters. Por aquel entonces todavía era popular contratar “web hosting”, pero lentamente durante esa década Amazon invirtió en un modelo de crecimiento en infraestructura que al mismo tiempo le permitiera más operaciones, más capacidad de análisis de datos, y más centralidad en internet. “Servicios web” lo llamó a eso, y en esa década nació “Amazon Web Services”: una figura hoy inesquivable de la internet global.

    Todas las empresas grandes de internet requerían construir e implementar estrategias de gestión muy compleja para sus operaciones, especialmente en términos de escala. Entiendan que de repente empresas como Google o Amazon tenían de mercado al planeta entero, y precisamente pensaban sus infraestructuras en términos planetarios. Más o menos al mismo tiempo que “Amazon Web Services” aparecían “Google Cloud Platform” y “Microsoft Azure”, que eran básicamente una colección de servicios similares, y un nuevo plano de competencia comercial. Pero particularmente Amazon y Google también utilizaban esta área para influir en la comunidad trabajadora del software, publicando sus propias herramientas y metodologías de trabajo que permitieran implementar algunos cambios en cómo funcionaban los sitios de internet por dentro. Cuando se trata de grandes escalas, el problema no mantener un programa corriendo en un servidor sino prender y apagar constantemente miles de programas que se retroalimentaban entre sí en miles de servidores, y hacerlo sin que eso afecte negativamente las actividades de las personas que utilizan los sitios web. Tareas como esas requieren administrar software muy heterogeneo, al mismo tiempo exige mucho orden y mucha flexibilidad, y esta administración misma se volvió una disciplina en sí. Eventualmente eso tuvo el nombre de “orquestamiento”, y ese pasó a ser también un espacio donde las técnicas de inteligencia artificial empezaron a tener lugar. De hecho, el sistema de orquestamiento de Google para esa década se llamaba Borg, como aquellos villanos cybernéticos de Star Trek que lo asimilaban todo.

    El tema de los “servicios web” fue siempre muy ambigüo: puede ser desde espacio online para dejar archivos, hasta alquilar tiempo de cómputo para realizar operaciones computacionales arbitrarias. Por eso debe entenderse en su generalización como “infraestructura”. Pero lo concreto es que por aquel entonces las empresas pretendían dar “servicios” vinculados a internet, e internet era casi sinónimo de “web”. En cualquier caso, la infraestructura de internet comenzó a utilizarse fuerte para compartir cosas entre personas, y eso llevó también a fenómenos nuevos. Como que se puso más intensa la cacería y los intentos de restricción a cualquier fenómeno de piratería online. Y en esa aventura sí proliferaban los modelos de negocios pagos, donde se compraba algo digital que luego se permitía descargar: como un libro, por ejemplo, o un disco de música. A cambio de ello, ese contenido digital sólo podía luego consumirse bajo ciertas condiciones, siempre mediando una identificación de usuario, y generalmente impidiendo que se realicen copias del contenido. Nacía el DRM como servicio: “digital rights management”, o “gestión digital de derechos”. Una forma de restringir las libertades sobre los contenidos digitales.

    Y para cerrar esta década de tan poca primera plana para la inteligencia artificial pero tantas empresas nacientes en la industria informática, todavía tenemos que hablar de dos más.

    La primera, fundada en 1996 por un ex Microsoft, que quedó impactado por lo que vió suceder con el Doom. Gabe Newell formó parte del desarrollo de las primeras tres versiones de Microsoft Windows, y para 1995 se enteró que el Doom era un software todavía más instalado que el propio sistema visual de Microsoft. Pero Newell reflexionó al respecto que la gente de ID Software tenía doce empleados en total, mientras que Microsoft tenía 500 solamente para intentar conseguir ventas: por lo cuál le parecía epifánico, y hablaba de un cambio inminente en la cultura del software. En 1996 renunció a Microsoft, y junto con otro compañero fundaron la empresa Valve, que en 1998 publicó su primer videojuego: Half-Life. Este utilizaba un motor gráfico ya no de última generación, pero lo hacía de manera tan bien pulida y con una ambientación tan atrapante que resultó ser un gran éxito para la empresa. Fué su debut en la industria de los videojuegos, y fué universalmente aclamado. Desde ese éxito en adelante, Valve no dejó de invertir en investigación y desarrollo en la industria de los videojuegos: nuevos motores gráficos, nuevos controles, nuevas formas de interactuar con los jugadores, nuevos mercados. Y uno de esos desarrollos fué la creación de un sistema de distribución de software, en principio videojuegos, que permitiera comprarlo y bajarlo, pero además gestionar los pormenores de instalaciones, al mismo tiempo que también permitía interactuar con otros usuarios fácilmente para permitir crear partidas de juegos o mantenerse coordinados durante las mismas. Ese sistema se llamó Steam, que salía a la calle por el 2006, y básicamente era la primer implementación de DRM que francamente tenía algún beneficio para les usuaries.

    Los DRMs en música o libros frecuentemente limitaban el acceso a los contenidos, y a cambio no daban ningún beneficio. Pero Steam resolvía problemas con la gestión de juegos, como ser los muchos problemas de componentes del sistema operativo necesarios para que funcionen, o bien tener siempre disponible la posibilidad de instalarlo en cualquier otra computadora sin necesidad de estar llevando un CD o un DVD sino directamente por internet: algo que, hasta ese entonces, sólo permitía la piratería. Los juegos además no eran particularmente caros, y en líneas generales se percibía por primera vez como un costo aceptable para un servicio online de video juegos. Steam comenzó con juegos exclusivamente de Valve, mayormente concentrado en la instalación y actualización de los mismos, así como también en la gestión de grabaciones de partidas online de modo tal que una partida pudiera ser interrumpida en una computadora y luego continuada en otra. Pero eventualmente creció hasta convertirse en un gestor genérico de videojuegos o hasta software en general, permitiendo comprarlos, compartirlos, y demás tareas que ahora pasaban a ser seguras y sencillas. Steam fué también un absoluto éxito, y para el final de la década ya era un estandar de facto en la industria de juegos de PC.

    Pero antes dijimos que Microsoft había sabido hacer muchos enemigos por su conducta. Y más anteriormente todavía dijimos que el principal enemigo cultural de Microsoft era el proyecto GNU. A GNU le iba muy bien en muchos frentes, pero no tanto en otros. La idea de usar GNU/Linux para trabajar era cada día menos inverosimil, y de hecho durante toda la década estuvo lleno de entusiastas y militantes utilizándolo para sus tareas cotidianas en lugar de a Windows. Sin embargo, eso era muy condicional, porque mucho software sólo funcionaba con Windows, y lo mismo sucedía también con el hardware cuando los fabricantes no brindaban drivers para Linux (lo cuál era tristemente muy común). Pero la comunidad de GNU/Linux continuaba su trabajo en todos los frentes.

    GNU siempre fué muy diferente a Windows, en muchos aspectos. Pero también fue siempre muy vanguardista en sus ideas. Por ejemplo, todo eso que hoy se llaman “marketplaces” desde donde se instalan “apps” en teléfonos móviles, o lo que hacía Steam mismo de permitir simplemente instalar un software mediante un par de clicks, GNU/Linux lo tenía desde muchos años antes. La modularidad del software en esta comunidad lo llevaba a articularlo en la noción de “paquetes”, que básicamente eran componentes del sistema operativo que une podía instalar o desinstalar, y lo hacía con un simple click en una interfaz. Windows, de hecho, le había copiado esto en su panel de control, en la opción “agregar o quitar programas”: opción que curiosamente nadie parecía usar para “agregar” nunca nada. Pero en GNU une podía fácilmente instalar una suite ofimática, un editor de imágenes, o un editor de audio o video, haciendo un par de clicks, siempre de manera gratuita, y podía ser vía internet o incluso disponiendo de algún medio físico como un CD o DVD. U otro ejemplo podían ser los múltiples escritorios: siendo una abstracción virtual, no había necesidad de que el sistema operativo tuviera un sólo escritorio de trabajo como ofrecía Windows, sino que se podían tener múltiples para diferentes tareas. Todas ideas elementales, pero que el sentido común del mundo de las PCs no discutía por cuestiones culturales. Para el año 2006, en GNU ya habían desarrollado su propia interfaz 3D para el escritorio de trabajo, con un montón de efectos visuales aplicables a las ventanitas y a las interacciones con menúes. Pero una de las joyas de software que habían sabido construir, para esta década comenzaba a volverse muy importante.

    Se trataba de Wine: una capa de compatibilidad entre software de Windows y el sistema operativo GNU. Era un proyecto que venía siendo desarrollado desde 1993, pero por esta década empezó a dar sus frutos: de repente une podía estar usando GNU, hacer doble click en un programa de Windows, y este último simplemente funcionaba. Lo cuál era profundamente inquietante, aunque no de buena manera para Microsoft. Y este, entre muchos otros proyectos bajo el amparo de GNU, daban lugar a que aparecieran múltiples organizaciones intentando que GNU lograra finalmente reemplazar a Windows en muchos espacios de trabajo.

    Una de esas empresas fué Canonical, que por el 2004 lanzaba su primera versión de su propia distribución de GNU/Linux: Ubuntu. Ya existían empresas exitosas como Redhat, o distribuciones populares y bien instaladas en la historia del movimiento como Slackware, pero Ubuntu se destacaba por poner un énfasis en que el sistema fuera fácil de usar y resolviera de manera sencilla problemas que otras distribuciones no resolvían. El slogan era “linux para seres humanos”, y venía a cuento de que GNU/Linux era visto como una cosa sólo para especialistas. Frecuentemente era cierto, en el sentido de que las virtudes de GNU no eran que “simplemente funcionaba”, sino que permitía calibrar detalles imposibles en otros sistemas operativos, incluyendo el propio código fuente del sistema. Pero si bien eso eran grandes virtudes de GNU, la gente por lo general simplemente quería usar su computadora, sin tener que ponerse a aprender mucho qué digamos para ello. Y tímidamente, despacito, sin ninguna gran súbita revolución, a partir del 2004 Ubuntu fué logrando que más y más gente empezara a usar GNU/Linux. Pero también esto impactaba en el mundo empresarial: así como Google arrancó la década promocionando a Mozilla Firefox, también terminó la década utilizando su propia versión de Ubuntu, calibrada de acuerdo a sus propios intereses, llamada “goobuntu”.

    Para finales de la década, el mundo estaba irreconocible una vez más. Arrancó con teléfonos móviles opcionales y de prestaciones humildes, a teléfonos inteligentes casi como única opción de comunicación. Arrancó con un mundo bajo hegemonía neoliberal y una América del Sur pulverizada, para terminar con una China comunista compitiendo por ser primera potencia económica y una América del Sur resistiendo crisis que Europa no resistía. Arrancó con un Microsoft desencadenado con el amparo del gobierno de los Estados Unidos, para terminar con un Microsoft tendiente a la irrelevancia. Yo mismo había arrancado la década con un apego enorme por Microsoft, para terminarla reemplazando Windows por Ubuntu, y dedicarme a hacer que todo mi trabajo pasara a realizarse con GNU/Linux, y mi experiencia era la de muchísima gente en todo el planeta. Era el mundo del revés. Pero todo esto sucedió. Y apenas era el preámbulo de lo que se venía.

    

El imperio contraataca

    Hablamos muy poco de inteligencia artificial en la década del 2000, porque todo lo que sucedió era apenas preparación. Para el 2010 ya había grandes cantidades de datos listos para ser procesados con todo tipo de fines, provenientes desde redes sociales hasta compras online, pasando por búsquedas en internet y hábitos de consumo multimedial. También ya había formas de articular toda esa información de manera ordenada y productiva. También había hardware donde se podía almacenar, por supuesto. También sucedía que la cultura de uso gratuito de internet básicamente retroalimentaba estas mismas estrategias de recopilación masiva de datos ya siquiera como posibilidad de supervivencia de las iniciativas comerciales, y la gente entonces estaba plenamente acostumbrada a compartir sus datos de las formas más permisivas. Lo cuál a su vez muy temprano quedó también afianzado en el nuevo ecosistema de teléfonos móviles con aplicaciones de software, las cuales recopilaban información a veces más valiosa que la que podría recopilarse por otros medios, como ser la posición geográfica de una persona en todo momento. Y por supuesto, para esa altura ya existían las GPUs en todo su esplendor, permitiendo incrementar la capacidad de cómputo a niveles que apenas años atrás hubiera sido absurdo.

    Fué una absoluta explosión. No había una sola área de la praxis humana desde la cual no se planteara explotar los datos en masa para obtener diferentes tipos de información, y de ser posible incluso en tiempo real. Esto de hecho había sido predicho: en el año 2006, el matemático británico Clive Humby acuñó la frase “data is the new oil”, explicando que la recolección de datos era tan valiosa como el petróleo. Sin embargo, la frase de Humby tenía dos sentidos: así como el petróleo, en sí mismo no es tan valioso, sino que su verdadero valor está en el cómo se refina, y los productos finales a los que eso da lugar. Si esa frase era una hipótesis en el 2006, para el 2010 era más bien la regla del juego. Y si estuvieron prestando atención a esta larga historia, seguramente adivinen cómo continua: todo esto generó un nuevo optimismo, y ese optimismo nuevos financiamientos.

    Muchas empresas empezaron a ganar financiamientos absurdamente optimistas a partir del boom de la gestión de datos, y en especial las empresas de publicidad por internet. Nadie sabía muy bien qué había que hacer con los datos, salvo juntarlos. Los “data brokers”, o “vendedores de datos”, se volvieron algo común, y parte del modelo de negocios de las “apps”. Aunque hay que entender un poquito cómo había cambiado el paisaje social para ese entonces.

    En la década del 2000 había juicios contra Napster que salían en primera plana; en el 2010 ya ni siquiera se descargaban archivos mp3: la gente iba a escuchar música a youtube o algún otro sitio dedicado a lo multimedial. No era que el tema de los derechos de autor no siguiera siendo importante, sino que ahora los datos y la publicidad pagaban por ello. Y los muchos avances en los estándares web, así como la marginalización de las tecnologías Microsoft en internet, hacían que todo pudiera funcionar simplemente teniendo un web browser: pero de una manera u otra las empresas misteriosamente instaban a instalar “apps” en teléfonos móviles, para “mejorar la experiencia”, misma razón por la que también parecían necesitar un montón de datos del teléfono y les usuaries. La cuestión es que hacer cosas por internet con el teléfono móvil era la gran novedad para grandes y chiques: ya no llevábamos una guía de bolsillo, sino que usábamos un servicio online de mapas, que hasta empezaban a reemplazar a los aparatos dedicados de GPS; ya no mandábamos a imprimir fotografías, sino que las compartíamos por redes sociales a mansalva; ya no tenían mucho sentido las guías telefónicas teniendo redes sociales y buscadores de internet.

    Para ese entonces ya era normal que las infraestructuras para “servicios web” se le alquilaran a Amazon o a Google, y que el software fuera de hecho “un servicio”: “software as a service” se llamaba eso. Ya no tenías que instalar nada, no necesitabas una gran computadora ni grandes prestaciones computacionales: todo se ejecutaba en un servidor remoto, y entonces con tener internet era suficiente para poder hacer cualquier cosa. Así, muy rápidamente, internet pasó cada vez a estar más y más centralizada en algunas pocas infraestructuras ahora absolutamente vitales: sin ellas, todo ese universo de software funcionando por internet se cae como castillo de naipes.

    Y en este mundo nuevo, el o la emprendedora tenía una sola meta: “la killer app”. Estaba lleno de gente queriendo prenderse a la nueva era de la información haciendo una app, generalmente con un nombre cortito y marketinero, y un logotipo con curvas, probablemente alguna letra modificada o algo así. Empezaron a aparecer miles y miles y miles de iniciativas de todo tipo para aplicar en “apps”. Y si tuviéramos que seleccionar dos campeonas y referentes de esto, ciertamente serían Uber y Tinder.

    Con Uber, de repente no tenías que esperar más un taxi, ni llamarlo por teléfono: pedías un auto apretando un botón en una app, y alguien llegaba hasta donde estabas. Esto podía incluso tener algunas virtudes sobre el taxi, como ser mejores precios o detalles de conductores, o bien alguna integración con servicios de cartografía que mostraran el recorrido y posición actual del vehículo. Y Tinder permitía conseguir sexo: une cargaba sus datos en el sistema de Tinder, y así se exponía públicamente a ser elegide por otres para tener relaciones sexuales, así como también podía une elegir candidates en busca de coincidencias del otro lado. Estas “apps” utilizaban datos de posición geográfica para gestionar diferentes acciones, como ser qué vehículo o qué candidate estaba más cerca de la persona que utilizaba la app. Y esas cosas se hacían populares muy rápidamente.

    Pero pasaban otras cosas también muy rápidamente. De repente empezaban a haber “algoritmos” involucrados. Por ejemplo, Uber muy rápidamente implementó un algoritmo por el cual el precio del viaje variaba minuto a minuto en términos de oferta y demanda de vehículos: y eso se promocionaba como si fuera algo bueno para la sociedad. O bien al revés, la sociedad reaccionaba a cómo se debían crear los perfiles de Tinder: ¿eran para conseguir sexo, para conseguir pareja, o para conseguir compañía? ¿Era negociable eso? ¿Se podía implementar algún algoritmo al respecto? Los algoritmos pasaron a ser sinónimo de “inteligente”, y todas las apps pretendían tener apps inteligentes. Con lo cuál empresas como Uber empezaron a invertir fuerte en “inteligencia artificial”, y en cómo automatizar más y más y más cosas vinculadas al gremio en el que se fundaron. Uber, por ejemplo, también fundó rápidamente una subsidiaria vinculada al reparto de comida, que también utiliza data cartográfica.

    Aunque antes que de esas cosas, Uber es el ejemplo canónico de “plataforma”. Lo que sucedió con algunas de estas apps es que, además de servicios, daban la posibilidad de trabajar. En un principio Uber operó básicamente como cualquier empresa que tuviera conductores a su servicio, pero a los pocos años eso cambió, y de repente permitía a prácticamente cualquiera utilizar su automovil para trabajar como conductor de Uber: era tan sencillo como instalarse la app de conductor de Uber, y luego conectarse. Pero Uber no es un empleador en este caso, sino una “plataforma” que le permite al conductor ganar algo de dinero en su tiempo libre. Muy velozmente esto se transformó en lo que eventualmente fué llamado “gig economy”, o “economía de changas” en español rioplatense, y aplicado por muchas otras apps: en especial las de logística, pero también podía ir desde programar pequeños programas hasta servicios de cuidados de personas. Y tan presente se volvió en las sociedades de la década, que la dependencia económica en estas “apps” recibió el nombre “capitalismo de plataformas”.

    Así como Amazon y Google en la década anterior, ahora empresas como Uber eran prestigiosas, y como parte de su aparato publicitario se la pasaban publicando notas en sus blogs y sitios especializados acerca de cómo funcionaban sus sistemas internos, y cómo lograban resolver problemas de grandes escalas, pretendiendo posicionarse como referentes tecnológicos. Y al caso publicaban partes de su infraestructura de software, a veces incluso como software libre, aunque frecuentemente más bien sólo open source, de modo tal que el ecosistema laboral y empresarial del software adoptara sus tecnologías y prácticas. Entre el emprendedurismo imperante, y los manifestos cambios sociales vinculados a las apps, estas estrategias solían ser bastante exitosas.

    Aunque el podio de esto último se lo llevaban Google y Facebook. Si Google publicaba un estudio que decía que la atención de la gente disminuía drásticamente después de pasados 5 segundos de espera en la carga de una página de internet, entonces súbitamente todas las páginas de internet del mundo requerían cargar en menos de 5 segundos, sin excepción: no importaba el contexto, el fín último del sitio web en cuestión, las personas que lo usaban, nada. La palabra de Google era ley para obreres y empresaries por igual, que con enorme entusiasmo y por voluntad propia se adecuaban. Si Facebook decía que tal o cuál forma de programar sitios web era mejor, entonces había que implementar esa estrategia de ingeniería, porque seguramente era cierto. Las justificaciones para estas cosas eran casi siempre metafísicas e incomprobables: “mejor experiencia de usuario”, “el código es más fácil de leer”, y cosas por el estilo. Y estuvieron toda la década haciendo cosas de esas.

    Para finales de la década, prácticamente toda persona que aprendía a programar para hacer algo con internet, aprendía primero que nada cómo programar para Google o para Facebook. Les empresaries querían que sus productos se parecieran a los de las empresas exitosas, y les programadores querían programar apps y estar a la vanguardia del conocimiento, en parte para conseguir trabajo, y en parte por legítimo y optimista interés en las propuestas. En la informática que nos dió el neoliberalismo, las empresas ya no eran una organización económica, sino también hacían las veces de referencia política y filosófica a nivel gremial. En el caso del software, el vector de esto eran los frameworks de lenguajes de programación, y las metodologías de trabajo, ambas cosas frecuentemente acopladas. Y, de hecho, frecuentemente inventaban sus propios dialectos de lenguajes de programación, al mejor estilo Microsoft, y con las mismas hipotéticas virtudes: “más rápido”, “más seguro”, “más fácil”. Siempre que se objetara contra estas prácticas, la respuesta unánime solía ser “nunca trabajaste en una empresa grande”, insinuando que las tecnologías propuestas eran la condición de posibilidad de crecimiento de un proyecto, y que de hecho la organización o ausencia de la misma en un equipo de trabajo estaba determinado por el lenguaje de programación o el framework que se utilizara. Mi generación ya había combatido esas cosas hacía años, pero la gente más jóven tenía que vérselas con esto desde cero, en un mundo donde la organización política casi que no existía.

    Pero existía. En internet, el campeón político era Mozilla, que en la década anterior había logrado un triunfo espectacular y heróico contra Internet Explorer, y en esta década ya era un referente tecnológico para la web. Aunque hacia finales de la década del 2000, Google finalmente dejó de recomendar Firefox para pasar a hacer su propio web browser: Google Chrome, o simplemente Chrome. Y Chrome no era particularmente mejor que Firefox, pero sí era más rápido en algunas funciones, como ser la carga o las animaciones. Además, Google hizo algo muy inteligente por aquel entonces: siendo los móviles el horizonte, y habiendo Apple lanzado el iPhone como referencia, Google basó a Chrome en el código de Safari, el web browser de Apple. De esa manera, el browser tanto de iOS como de Android tenía una base de código compartida, y pasaba a ser un piso de funcionalidades garantizadas. Aunque esto no dejaba bien parado a Firefox, que aguantó una década en Windows pero ahora debía luchar también en teléfonos móviles que venían con su propio browser instalado. Firefox seguía siendo el browser por excelencia en GNU/Linux, pero la base de usuarios de ese sistema no superaba un 2% del mundo de la computación hogareña.

    Pero Mozilla era ante todo una organización política. Mientras Google Chrome caminaba hacia ser el nuevo Internet Explorer de la mano de Android, Mozilla planteó un camino alternativo al mundo: un sistema operativo que sea, directamente, el web browser. El plan era muy sencillo: dado que a esa altura se podía hacer casi cualquier cosa con una página web, el sistema operativo en realidad lo único que necesitaba como interfaz gráfica era un web browser. Eso requería en rigor algunos detalles, como ser la gestión de permisos que las “apps” ya proveían en Android y en iOS. Pero el plan de Mozilla al caso era simplemente extender los estándares web, de modo tal que los browsers implementen esos detalles, y así tanto el browser del sistema operativo como cualquier otro tuvieran posibilidad de paridad de funcionalidades. El espíritu de Mozilla no era competir, sino interoperar. Y la parte más revolucionaria sería la siguiente: para hacer “apps” en ese sistema operativo, simplemente había que hacer una página web, de esas que decenas de millones de personas ya sabíamos hacer, y que cualquiera podía aprender a hacer simplemente con tiempo libre en una computadora. Las páginas web pasarían a tener el status oficial de “programas”.

    El plan de Mozilla era una contracultura a lo que estaba sucediendo en Android e iOS. Y para ello, debía entrar en el mismo entorno: los teléfonos móviles. De modo que desarrolló su propio sistema operativo, al que llamó “Firefox OS”, y al caso mandó también a diseñar teléfonos que salieran a la venta con ese sistema. Y, fiel a la idea de contracultura, en lugar de diseñar teléfonos de alta gama con las más altas prestaciones, Mozilla se concentró en el menor denominador: teléfonos baratos, de prestaciones humildes, pero que así y todo fueran suficiente para correr su sistema.

    Para ese entonces, el ecosistema de software en general ya tenía unos cuantos problemas. En primer lugar, tanto en computadoras como en teléfonos móviles, el software era cada vez más pesado, lento, y exigente en sus prestaciones de hardware. Esto, en los teléfonos móviles, y en las computadoras portátiles también, solía significar frecuentes cambios de hardware. Era una cosa que había comenzado en la década anterior, y sólo seguía incrementándose. Tan normal era el fenómeno, que a todas luces podían incluso verse acciones de este tipo articuladas adrede. La práctica tomó el nombre despectivo de “obsolescencia programada”. Y esto se vivía especialmente en el soporte que Google y Apple daban a sus sistemas operativos: más temprano que tarde, un dispositivo ya no podría tener acceso a actualizaciones de software, y las “apps” empezarían lentamente a dejar de funcionar.

    Mozilla pretendía combatir esas cosas también, haciendo que su sistema fuera software libre, y que compartiera la arquitectura de booteo con Android, de modo tal que FirefoxOS pudiera eventualmente instalarse en teléfonos que antes hubieran tenido Android y no recibieran más actualizaciones. Y como el soporte web es siempre incremental en los browsers, FirefoxOS podría estar siempre actualizado, permitiendo así que las apps tuvieran mucho más tiempo de vida útil en un mismo teléfono. Y como si fuera poco, al ser estas “apps” páginas web, de repente todas las apps pasarían también a funcionar en GNU/Linux.

    Yo mismo tuve oportunidad de ver a mis pares programadores burlándose de la iniciativa de Mozilla, por razones que aparentemente no necesitaban justificar: sencillamente iba en otra dirección a lo que proponían Google y Facebook para la web, y Google y Apple para los teléfonos móviles. La gente en mi gremio abrazaba lo que decían las empresas exitosas y con mucha prensa. Lo que hacía gente como la de Mozilla no era visto más que como un experimento o un error: pero nunca era ese el juicio para lo que hacía Google, que siempre era visto como algo iluminado y basado en un profundo conocimiento. Hoy existen sitios web que literalmente se burlan de la cantidad de proyectos fallidos que tiene Google, que como buena empresa grande de tecnología se pasó los últimos 20 años anunciando inminentes fracasos como si fueran éxitos desde el día cero y un evento cultural de trascendencia. En cualquier caso, Firefox OS fué un fracaso a los pocos años, y Mozilla nunca logró recuperarse de una iniciativa tan ambiciosa como esa.

    No fué la única, porque Mozilla tampoco era la única organización que pretendía dar una batalla cultural en el mundo de la tecnolgía. Por la misma época, Canonical decidió hacer su propia interfaz gráfica de escritorio para GNU/Linux. Sería una interfaz diseñada por ellos y bajo su control, a diferencia de las diferentes otras opciones populares disponibles, como KDE o Gnome. Fué un momento histórico de muchos conflictos al respecto, porque todos estos proyectos aplicaron cambios muy radicales en sus interfaces de escritorio, y eso generó discordia entre les usuaries y programadores. Pero Canonical iba más allá, directamente haciendo su propia interfaz nueva. Sin embargo, esta interfaz tenía una particularidad muy especial. El objetivo de Canonical era que su interfaz fuera compatible con otros dispositivos que no fueran computadoras de escritorio: es decir, tablets y teléfonos móviles. Y, de hecho, Canonical estimulaba la concepción de esos otros dispositivos como sencillamente computadoras. El plan de Canonical era llevar Ubuntu también a esos dispositivos. Y una vez que estuvieran corriendo Ubuntu, que era una versión de GNU/Linux, alcanzaba simplemente con agregarles un monitor y algunos periféricos (como teclado y mouse) para convertirlos en una computadora portatil, cuando no directamente de bolsillo. Esta computadora podría correr todo el software que ya podía correr GNU/Linux, además de por supuesto tener web browser.

    Esa interfaz de usuario se llamaría Unity, y la lanzó con su versión de Ubuntu del 2012. Pero al concepto de una interfaz de usuario para cualquier dispositivo lo llamó Convergencia, y al caso necesitaba lo mismo que había necesitado antes Mozilla: entrar en esos mercados. Para lo cuál Canonical también mandó a diseñar su propio teléfono, “Ubuntu Edge”, y un sistema operativo acorde, al que llamó “Ubuntu Touch”.

    A diferencia de Mozilla, Ubuntu Touch aspiraba a ser utilizado en hardware de gama media o alta, y de hecho Ubuntu Edge pretendía ser de alta gama. Para financiarlo, abrió una colecta comunitaria por internet, donde pretendió recaudar la irrisoria cifra de 32 millones de dólares. “Sólo” logró reacudar 12 millones, con lo cuál el Ubuntu Edge nunca salió a producción. Pero sí salió a la calle “Ubuntu Touch”, la versión móvil de Ubuntu para que diferentes fabricantes pudieran brindarlo como alternativa a Android en sus dispositivos.

    Unity fue criticado con muchísima virulencia dentro de las comunidades de GNU/Linux, y Ubuntu Touch nunca captó el interés de grandes mercados, ni siquiera bajo la propuesta de Convergencia y de llevar una computadora en el bolsillo. Ambos proyectos fueron eventualmente cancelados, y Canonical tampoco volvió a ser la misma empresa luego de este fracaso.

    Si me preguntan a mí, tanto Mozilla como Canonical estaban en lo correcto, excepto en apostar a que contaban con una comunidad que les dió finalmente la espalda. Y esa comunidad estaba mayormente representada por la Free Software Foundation, la cual sí realmente se equivocó en esta década. Mientras todas estas cosas sucedían con organizaciones amigas del software libre en el mundo de la telefonía móvil, Richard Stallman se comportaba como si los móviles fueran una especie de moda pasajera, un aparato innecesario y del mal, cuyo único fín era ser una herramienta de control por vías de la recopilación de datos. La recopilación de datos es lesiva para las libertades de les usuaries, según Stallman y otres, y lo es muy especialmente de cara a su anonimato. Y mientras las referencias del Software Libre miraban con desprecio a los teléfonos móviles, la comunidad GNU/Linux vivía sus propias discordias entre diferentes proyectos, e incluso dentro de cada proyecto cuando se trataba de la dirección que debían tomar. El 2012 fué un año de profundos conflictos entre interfaces de usuario, modos de gobernanza, estrategias de diseño de software, sospecha de entrismo por parte de Microsoft u otras empresas, gente nueva versus gente más vieja, y tantas otras cuestiones que convirtieron al ecosistema del software libre en un caos. Aunque el progreso de GNU en los servers era sólido e incuestionable, así como también el decline de Microsoft.

    Pero muchos de esos problemas eran básicamente clima de época, y no tanto mala ni buena gestión por parte de las comunidades del software libre. Por ejemplo, Microsoft mismo padeció muchos de los mismos problemas, especialmente en su intento de paso por el mundo de la telefonía móvil y los cambios de interfaz de usuario. El gran testimonio al respecto fué su absoluto fracaso con Windows 8, que imponía una interfaz de usuario diferente a la clásica de Windows, más orientada hacia móviles: lo mismo que estaban haciendo Gnome o Canonical en el mundo GNU. Fué un escándalo entre les usuaries de Windows, y Microsoft pronto debió lanzar una versión actualizada que permitiera volver a interfaces de usuario clásicas. La consecuencia fue que la gente simplemente no actualizó Windows 7. Cualquiera fuera el caso, ese salto de la computadora de escritorio al teléfono inteligente evidentemente no era una cosa sencilla para la gente que, o hacía software, o usaba software.

    Pero más allá de los problemas reales, Microsoft siguió inventando problemas en su intento por mantener su monopolio decadente. Por ejemplo, como parte de su homologación de hardware “compatible con Windows” empezó a exigir “booteo seguro” a los fabricantes de componentes de computadoras, lo cuál exigía una gestión de claves de seguridad que debían ser instaladas al momento de fabricación, y que sin ellas no se debía permitir bootear. Microsoft iba a proveer esta claves para que prender la computadora con Windows fuera posible, pero eso excluiría cualquier intento por instalar GNU/Linux (o otro sistema) en la computadora si no se proveyeran también claves de seguridad para ese otro sistema. O bien intentar establecer un sistema de “tienda de software”, al estilo Apple o Android, que le permitiera a Microsoft controlar homologar también el ecosistema de software directamente: algo hasta esa fecha impensado en el mundo Windows.

    Pero en esta década cosas como esas llevaban a consecuencias inusitadas. Gabe Newell de repente dijo, explícitamente, que “Windows 8 es una catástrofe para el mundo de los videojuegos en computadora”, y que sus planes para Valve era llevar los videojuegos a GNU/Linux, porque allí estaba el verdadero futuro de la computación abierta. “Linux gaming”, antes de eso, generaba burla entre la comunidad de videojugadores. Yo mismo jugaba videojuegos en GNU/Linux desde por lo menos el año 2008, utilizando Wine, pero eso era una absoluta rareza entre los jugadores, quienes eran más bien conservadores en cuando su setup de software: pretendían siempre versiones viejas de sistemas operativos, precisamente para no tener sorpresas negativas en cuanto al rendimiento de su computadora o nuevos requisitos de uso. Y esto tampoco era una cuestión de costos, porque en lugares como América del Sur el software privativo (como los son los sistemas operativos Microsoft, o los propios video juegos) era mayormente pirateado. Lo que sucedía era que los gamers sencillamente no cambiaban de sistema operativo si tenían oportunidad de seguir utilizando el que ya estaban acostumbrades a utilizar.

    Pero la aventura de Valve lo llevó a invertir mucho en investigación y desarrollo para hacer funcionar la batería de tecnologías vinculadas a videojuegos sobre GNU/Linux. Por ejemplo, mientras estudiaban cómo covertir el código de sus juegos desde Windows hacia GNU/Linux, estudiaban también detalles de los drivers para dispositivos de nVidia, lo cuál luego reportaban a nVidia mismo, y esto derivaba en mejores versiones de sus drivers y mayor soporte para GNU/Linux en general. Para el año 2012 ya había una versión de Steam para GNU/Linux, y Valve hasta trabajaba en su propia distribución de GNU/Linux especialmente diseñada para jugar videojuegos.

    Las reacciones a las prácticas anticompetitivas de Microsoft ya eran demasiado peligrosas para la empresa, que había perdido el dominio de los navegadores y servidores de internet, no había logrado nunca entrar en el mundo de la telefonía móvil con contundencia, no tenía injerencia fuerte en el nuevo mercado de la recolección de datos, las tareas de su suite ofimática ahora se realizaban vía web y de manera colaborativa en tiempo real (poniendo en jaque a uno de sus principales productos, Microsoft Office), los programas de escritorio daban lugar a aplicaciones web que corrían sobre servidores GNU o bien a aplicaciones de Android o iOS, todas cosas que atentaban contra el uso de Visual Studio, y ahora finalmente estaba en el horizonte el serio e inminente peligro de también perder dominio sobre el ecosistema de los videojuegos: uno de los pocos mercados que todavía mantenía. Y esto no era algo que dejaban de ver usuaries y obreres de la informática tampoco: el prestigio de Microsoft iba en picada, no por fracasar económicamente sino por la paupérrima calidad de sus productos y sus prácticas a esta altura conocida por todes. Ese cambio de paradigma hacia programar web, mayormente influida por empresas como Google o Facebook o Twitter, había hecho que hasta la gente de diseño gráfico terminara usando herramientas de consola en computadoras portátiles Apple, haciéndoles ahora preferir GNU por sobre Windows si acaso tuvieran a disposición las herramientas de trabajo adecuadas. Todo esto era una absoluta alerta roja para Microsoft, y su respuesta no se hizo esperar.

    Una de las tantas maniobras anticompetitivas de Microsoft era el entrismo. A fuerza de mucha publicidad, dinero invertido en proyectos de otras empresas, y promesas de cambio en sus actitudes, históricamente se la pasó metiendo gente propia en lugares clave de las organizaciones capaces de hacerle frente: directives, líderes de equipo, consultorías, etcétera. Y en esta década de tantos problemas, finalmente reevaluó su actitud pública para con su competencia, y comenzó una serie de campañas con otro tono, donde la más pintorezca era el slogan “Microsoft ama a Linux”. Para el año 2015 dió por muerto a Internet Explorer, dando lugar al final de una era de Internet, y reemplazándolo por otro browser propio: “Microsoft Edge”, que era sencillamente otro internet explorer, pero pronto pasaría a utilizar como base de código la misma que utiliza Google Chrome. Tanto para poder acceder al mundo móvil, como también para tener mayor injerencia en Europa, Microsoft firmo contratos de “compañerismo” con Nokia, una empresa lider en electrónica, y especialmente en el diseño y fabricación de teléfonos móviles, los cuales ahora pasarían a salir a la calle con Windows Mobile. Pero lo más notablemente novedoso pasaron a ser sus importante donaciones a la Fundación Linux, donde se convirtió en un “miembro platino”, y a la entonces ya necesitada Canonical.

    Pero además de meterse en las organizaciones, comenzó una agresiva campaña para meterse en el ecosistema de herramientas para programación, así como también en proyectos de software clave dentro de entornos GNU/Linux. Algunos de los proyectos que más discordia generaban en el ecosistema GNU/Linux, como ser Mono o Systemd, frecuentemente estaban a cargo de personas con comportamientos polémicos que pasados unos años terminaban trabajando formalmente para Microsoft. Herramientas para programar web hechas por Google o Facebook, como pueden serlo Angular o React, de repente empezaban a instar el uso de Typescript: un dialecto de javascript hecho por Microsoft, que pocos años atrás generaba burla por ser otro enorme fracaso frente a sus alternativas (CoffeScript), y más tarde pasara a la absoluta irrelevancia dadas las muchas mejoras de Javascript, pero que de repente era una especie de imperativo de la programación web y sin mayor explicación. Aunque la más estruendosa acción en este sentido fué sin dudas la compra de Github: el sitio web gratuito que centralizaba una enorme parte de la gestión de código fuente de software del mundo open source y libre. Más tarde también compraría npm, una de las herramientas estandar de facto para trabajar con javascript en los servidores, dándole todavía más control sobre ese ecosistema.

    Y todo esto fué acompañado con una puesta en escena publicitaria que, para ser franco, la viví con más gracia e incredulidad que con preocupación. En medio de su campaña “Microsoft ama a Linux”, y queriendo propocionarse como habiendo dando un giro hacia el software “open source”, Microsoft anunció que lanzaría a la calle “el código de Visual Studio”. Esto sería ciertamente un enorme cambio ideológico dentro de Microsoft, porque Visual Studio era una de sus herramientas más complejas y poderosas, y llevaba 20 años sin permitir que de ninguna manera nadie viera el código. Sin embargo, lo que sucedió luego fué que Microsoft lanzó una versión modificada de un popular editor de texto que funcionaba con tecnologías web, y lo llamó “Visual Studio Code”, o “Visual Studio Código”: ese era el famoso “código de Visial Studio” que había anunciado antes. Muches vimos esto con gran vergüenza ajena, y nos burlábamos de la iniciativa. Pero muy pronto en el tiempo, este editor gratuito de Microsoft se convertiría en otro estandar de facto entre programadores y programadoras que ya no habían vivido la guerra de los browsers, ni lo que significaba que Microsoft controlara a la industria toda, sino que se criaron en un mundo de estándares e interoperabilidad que ya daban por elemental.

    Con github y visual studio code, además de sus otras iniciativas, Microsoft una vez más ejecutaba aquella movida que le diera nacimiento en primer lugar: aprovecharse de una plataforma abierta (en este caso la web, incluidas las tecnologías detrás de Visual Studio Code), para poder centralizar la cultura en sus productos. En un par de años, medio planeta pasó a utilizar herramientas de Microsoft (visual studio code) para programar en lenguajes de Microsoft (typescript) y guardar todo eso en servidores de Microsoft (github): todo sin que Microsoft debiera andar inventando nada, sino sencillamente explotando su capacidad de compra sobre las libertades que aquellos espacios brindaban. Y así, la década de vergüenza de Microsoft dió lugar a otra década de promesa. Mientras que les obreres de la informática, siempre influenciades por una avalancha de titulares y entradas en blogs técnicos, analizaron estas herramientas sin criterios políticos ni históricos, sino con expresiones del tipo “está bueno” o “es cómodo”.

    Pero ya no estamos en la década de 1980 o 1990, y en estos tiempos el mercado pasa por los datos. Github pasó a ser un gigantezco centro de inteligencia de datos centralizados para Microsoft. Y así como en décadas anteriores Google usaba la web con herramientas como reCaptcha para hacer estudios de comportamiento humano, ahora Visual Studio Code pasaba a ser la herramienta de Microsoft para hacer la misma clase de experimentos. Por lejos, el experimento más notorio, que se pretendiera también un futuro “servicio” de Microsoft, fué “copilot”: un sistema que sugiere código en tiempo real mientras se está programando. Es decir que ahora les programadores podrían aceptar sugerencias de código, hechas con inteligencia artificial. Esta inteligencia artificial estaría basada en todo el código que GitHub tiene centralizado. Y la manera en la que popularmente sería utilizado iba a ser vía Visual Studio Code. Lo cuál también fué, primero planteado en publicidad, y luego visto como, una comodidad y un avance en la disciplina de la programación antes que como cualquier forma de centralización por parte de Microsoft.

    Para ese momento en la historia, la inteligencia artificial ya estaba viviendo una revolución para nada silenciosa. Con el hardware nVidia en el corazón de la iniciativa, la década pasada había comenzado renovados financiamientos en investigación y desarrollo al caso de nuevas técnicas y teorías aplicables a la inteligencia artificial, así como viejas teorías que ahora podían ponerse a trabajar con una nueva generación de hardware. Y esta vez se trataban de una nueva iteración de redes neuronales, bajo el área de estudios y técnicas llamadas “Machine Learning”: el área de la inteligencia artificial que estudia cómo hacer que las máquinas aprendan cosas. Sucede que el caso típico de Machine Learning es tomar un conjunto de datos y encontrar allí patrones. Y para la década del 2010, ya estaba lleno de grandes y maduras colecciones de datos, listas para ser analizadas.

    A la actividad de juntar datos para analizarlos se la llamó “data mining”, o “minería de datos”. Usualmente esto consiste en juntar todos los datos que fuera posible manejar, para luego intentar sobre ello encontrar conocimiento nuevo: patrones de comportamiento, relaciones útiles entre datos previamente no relacionados, o por qué no proyecciones predictivas sobre posibles valores futuros de algunos indicadores. Y esto por supuesto prometía abrir muchas puertas, y ser utilizado en cualquier ámbito. Un ejemplo pintorezco puede ser cuando alguna compañía aseguradora de autos comenzó a crobrarle más caro a clientes que tuvieran una cuenta de correo en el servidor “hotmail.com”, dado que esas cuentas estaban vinculadas a gente involucrada en más accidentes que otras. Esa clase de vínculos entre datos pueden ser descubieros por cualquier persona curioseando una tabla con datos de gente involucrada en accidentes, pero a medida que esos datos se vuelven más y más heterogeneos se vuelve también más difícil plantearlos en alguna tabla, y eso sin mencionar la cantidad de datos. Es allí donde se busca que, mediante software, se analicen los datos y se obtengan relaciones. Y si esa clase de software existe, entonces juntar datos pasa a tener mucho valor, al menos para los optimismos que imaginen ganancias y optimizaciones en el descubrimiento de relaciones de datos.

    Machine learning, sin embargo, es algo así como la otra cara de la moneda del data mining. Donde data mining se supone encuentre conocimiento desconocido, machine learning se supone aprenda conocimiento previamente conocido, de modo tal que se puedan automatizar tareas que ya se saben hacer. Por ejemplo, aquel producto de Microsoft, Copilot. La gente que programa realiza una serie de tareas, si bien amplia, en rigor finita, especialmente cuando se la vincula a un contexto particular: como ser un lenguaje de programación, o una tarea concreta que se pretende plasmar en código. El producto de esas tareas es el código ya escrito. Y teniendo una base de datos de código ya escrito (como por ejemplo todo el código guardado en github), aplicando técnicas de machine learning sobre eso, se puede predecir luego cuál puede ser el resultado en código de una tarea que esté realizando alguien que programa.

    En la jerga de Machine Learning, se habla de “modelos”. Son el resultado del trabajo del software de aprendizaje. Un modelo de machine learning pasa a ser una base de datos de relaciones, que se supone implementan comportamientos planteados en una colecciones de datos previos, aunque esta vez generalizados de modo tal que permita replicar esos comportamientos frente a datos diferentes. Es decir, siguiendo con la metáfora: si un software “aprendió”, entonces luego va a “saber hacer” aquello que se le pide que haga, incluso con algunos cambios de contexto. Y esto es básicamente la manera que tenemos las personas de vivir el “saber hacer”.

    Ambos, machine learning y data mining, se pueden utilizar de manera solidaria. Y eso fué lo que se hizo y hace con los datos que compartimos por internet. Pero un caso particular de machine learning se llamó “deep learning”, o “aprendizaje profundo”, donde esa profundidad tiene qué ver con una cuestión técnica de cómo se articulan las redes neuronales, e históricamente resultaba muy costoso en términos computacionales: lo cuál cambió con el advenimiento de las GPUs, y por ello se habla de que alrededor del 2009 sucedió un “big bang” del deep learning. De la mano de nVidia y deep learning, los usos de machine learning empezaron a crecer en magnitud, interés, velocidad, ambición, y todo esto dió lugar a financiamientos multimillonarios en el área, a su vez retroalimentando el financiamiento también de una internet al mismo tiempo gigantezca y mayormente de uso gratuito. Donde antes reCaptcha estudiaba el comportamiento humano, y le permitía a Google recopilar datos de entrenamiento para machine learning aplicado al reconocimiento de caracteres de texto, hoy se pide a la gente en sitios web gratuitos que, para demostrar que no es un robot, identifique fotografías con diferentes cosas: semáforos, sendas peatonales, chimeneas, puentes, escaleras, y muchas otras cosas. Luego, eso forma bases de datos que alimentan a la industria de la inteligencia artificial aplicada a automóviles inteligentes (semáforos o sendas peatonales), envío de paquetes a domicilio mediante drones (chimeneas, puentes, escaleras), y en esa aventura el cielo es el límite.

    Para mediados de la década del 2010, era evidente que la inteligencia artificial dejó de ser ninguna fantasía, y ya empezaban los serios planteos éticos al respecto de su uso, así como otros fenómenos inquietantes. Un ejemplo claro eran los llamados “deepfakes”: una mezcla entre “deep learning” y “fake”. Esa última palabra significa en español “falso”, en el sentido de fabricado malintencionadamente: como es el caso de “fake news” para el español “noticias falsas”. Pero los deepfakes son una aplicación de técnicas de deep learning para aplicar caras o voces de personas en videos o audios donde esa persona no participa. Por ejemplo, estas tecnologías se utilizaron durante la década para que actores ya fallecidos aparecieran en películas nuevas, como fuera el caso de nuevas iteraciones de Star Wars donde aparecen personajes de las películas originales. O bien se utilizan para rejuvenecer a actores o actrices ya entrades en los setenta u ochenta años, mostrándoles en escenas nuevas luciendo como lucían hace décadas atrás. Es decir que la inteligencia artificial seguía siendo utilizada en el terreno de los efectos especiales de la industria cinematográfica. Sin embargo, ahora el hardware era mucho más accesible, y entonces esa misma tecnología podía ser utilizada por actores malintencionados en cualquier lugar del planeta. El caso típico de deepfakes fué poner caras de otras personas en videos pornográficos, usualmente utilizando la cara de figuras populares. Aunque también se utilizaron deepfakes de audio, simulando la voz de otras personas, para realizar estafas telefónicas. Y esas cosas ya no eran ningún entretenimiento.

    Siguiendo con el ejemplo del deepfake como problema, para poder hacer deepfakes es necesario crear modelos de machine learning con datos representativos del comportamiento de las personas a las que se pretende emular. En el caso de figuras populares, es fácil encontrar videos y fotografías en cantidades suficientes para poder lograr modelos convincentes, así como también grabaciones de voz. Esto fué el caso con una demostración que hicieran una vez por televisión, a modo de divulgación y llamado de atención a la sociedad, donde mostraban cómo podían hacer un deepfake convincente del entonces presidente de los Estados Unidos Barack Obama, hablando a la cámara y diciendo un discurso, sin participación directa de Barack Obama. No era solamente la indignidad de poder aparecer en un video pornográfico apócrifo, o el problema de poder ser estafade, sino que además era muy fácil engañar a mucha gente mediante el uso de videos o audios forjados distribuidos por redes sociales u otros medios de comunicación. Y, además, era también preocupante cómo la propia gente compartía de manera activa e incesante fotos y fotos y más fotos por las redes sociales, dando lugar a bases de datos biométricas como nunca han existido en al historia de la humanidad. Bases de datos que por supuesto las empresas de redes sociales pretendían explotar, como fué el caso cuando Facebook publicó el “10 year challenge”, o “desafío de los 10 años”, pidiéndole a usuaries que identifiquen una fotografía de su cara actual, y una de su cara 10 años antes.

    En ese contexto fué que se creó Open AI en el año 2015. “Open” venía de toda la historia de “open platform” y “open source” a las que la cultura de la informática habían sabido dar lugar, y aquí venía al caso de que ningún actor monopolizador pudiera apropiarse de las prácticas y tecnologías vinculadas a la inteligencia artificial. O al menos esa fué la justificación. Como fuera, esa organización fue fundada por algunas figuras prominentes de la industria, informática y no tanto, para poder interactuar libremente entre empresas y espacios académicos vinculados a la inteligencia artificial, con especial énfasis en hacer que las patentes allí generadas pudieran ser de uso público. Aunque también pretendía ser un espacio que concentrara financiamiento, y con ello también al exótico y carísimo personal calificado para realizar investigaciones en inteligencia artificial. Más allá de los resultados, ya estaba claro en el 2015 que la inteligencia artificial era un peligro, y que su desarrollo no podía dejarse al arbitrío de algunas pocas manos, o cabezas.

    Pero todo eso era apenas la punta del ovillo de lo que estaba sucediendo con la inteligencia artificial. Después de la gran crisis financiera del 2008, en casi todo el planeta acaeció una crisis económica que dejó en quiebra a múltiples paises, y restringió el crecimiento de casi todos. Esto fué particularmente intenso en Grecia, que a su vez tuvo un impacto en toda la eurozona, que a su vez lidiaba con olas migratorias provenientes de las guerras que Estados Unidos y sus satélites llevaban a cabo en oriente, así como también diferentes guerras civiles. Y las respuestas no se iban a hacer esperar.

    Primero aparecieron las bitcons: como planteo en el 2008, y como un hecho en el 2009. Y si bien al principio sólo se utilizaron para tráfico y mercado negro, con el paso de los años comenzaron a ganar popularidad y usabilidad, haciendo que muches presten atención a ese extraño caso de uso nuevo de internet. Y para 2011 sucedían eventos como Occuppy Wall Street o la primavera árabe, donde internet volvía a verse positivamente como un espacio posible de militancia y liberación popular, esta vez explotando la viralidad en las redes sociales. Pero muy rápidamente ese optimismo fué reemplazado más bien por ataques de pánico. No sólo las bitcoins eran escandalosamente inestables, sino que requerían cada vez más capacidad de cómputo para poder ser generadas, llevando a la creación de datacenters enteros llenos de GPUs y dedicados a la generación de criptomonedas: afectando los precios de las GPUs, centralizando las estructuras, haciendo que cada vez menos gente pudiera generar bitcoins, y gastanto cantidades absolutamente demenciales de energía para el caso, todo bajo la justificación neoliberal de que si no lo controlaba el estado entonces era algo libre y bueno. Y también temprano en la década, mucho más que cualquier forma de izquierda, comenzaron a aparecer movimientos de lo que parecía ser una derecha carismática y bastante productiva en el uso de recursos de internet, que se planteaba como una forma de resistencia liberadora a la opresión de la corrección política: la llamada “alt-right”. Si a esto le agregamos la emergencia del capitalismo de plataformas, los recuerdos de aquel temprano optimismo se vuelven más, y más, y más lejanos.

    2010 no fué solamente la década en la que Microsoft volvió a las andadas con fuerzas renovadas. En esa década, la derecha logró utilizar internet de diversas maneras para volver a posicionarse como una alternativa popular a las profundas crísis económicas y políticas del momento. Pero fue notoria la homogeneidad con la que la derecha logró establecer centralidad en múltiples culturas alrededor de todo el planeta, utilizando métodos similares: si no novedosos, al menos sí en su escala, y especialmente en su coordinación. De repente era normal que cosas en otros tiempos graciosas, como la idea del terraplanismo, en esta década se convertía en un espacio de pensamiento “alternativo”. Cosas similares pasaron con movimientos antivacunas, abiertas reivindicaciones de ideas superadas como el imperialismo o la esclavitud, la reinstalación de los racismos y las xenofobias como explicación a los problemas del momento histórico, directas teorías conspirativas francamente delirantes, o bien incluso la total negación de información que atentara contra los propios sistemas de creencias.

    Ya se hablaba hacía cierto tiempo de “posverdad”, vinculado a problemas epistemológicos que aparecían a partir del uso de medios masivos de comunicación como los diarios impresos o la televisión, pero en la década del 2010 se volvió una de las variables de análisis político centrales de la mano del fenómeno de las “fake news”. En mi región, además, los medios de comunicación operaron como brazo de una estrategia de acción política unificada que rememoraba al Plan Condor cuando se comparaba la similitud entre diferentes paises, aunque esta vez no se trataban de golpes de estado cívico-militares sino golpes políticos mediático-jurídicos: “lawfare”, o “el uso de la ley como arma de guerra” de acuerdo al ya retirado Coronel Dunlap del Ejército de los Estados Unidos, quien acuñara el término en un paper del año 2001. De repente, en mi región, todes les líderes en oposición explícita a la subordinación a los Estados Unidos, era acusade de alguna forma de corrupción: a veces robar dinero público, a veces tener alguna propiedad no declarada, a veces hasta tener un hijo o hija ilegítimos. Las acusaciones eran similares entre paises. Cualquier mentira era causante de un escándalo mediático y judicial. Cuentas bancarias inexistentes, supuestos delitos sin ninguna evidencia, actos de gobierno planteados como actos criminales, todas cosas que aparecían en toneladas de titulares y eran repetidas hasta el cansancio en redes sociales, se instalaban como sentido común entre personas de todas las edades: mientras que las refutaciones rara vez tenían difusión alguna, o bien las mismas acusaciones contra funcionaries o referentes de otros espacios políticos acusades de las mismas cosas misteriosamente no causaba ningún escándalo y era rápidamente olvidado.

    Aunque nada de esto fue exclusivo de mi región, ni mucho menos. Y sin lugar a dudas, la figura más prominente de todo este fenómeno político mundial de “nueva derecha”, fué la de Donald Trump, que terminó siendo electo presidente de los Estados Unidos en 2017. Hubo muchos representantes de “nuevas derechas” en todo el mundo durante esta década, y donde la parte “nueva” era una extrañamente coincidente desinhibición internacional con respecto a las ideas que expresaban. De repente Trump podía tener gestos clara y profundamente misóginos frente a las cámaras, en un mundo donde el feminismo y los derechos de las mujeres ya eran un tema reconocido y central, pero así y todo no sólo no generar el rechazo de sus votantes sino más bien obteniendo mayor reconocimiento. Estas “nuevas derechas” parecían estimular sentimientos reaccionarios reprimidos al encarnar comportamientos políticamente incorrectos, logrando así la representación de sujetos políticos anterioremente carentes de representación. Cosas similares a las de Trump hacían gente como Boris Johnson, Jair Bolsonaro, Mauricio Macri, José Antonio Kast, y tantos otros. Y hacia el final de la década, ya no eran “nueva derecha”, sino más bien “extrema derecha”, y el debate en torno a todo esto era si correspondía o no llamarlos “fascistas”.

    Si bien estas derechas que coparon la década del 2010 no tenían muchas ideas nuevas qué digamos, sino más bien todo lo contrario, en rigor tampoco fueron ajenas a su época. Fueron muy hábiles en explotar los recursos de las redes sociales, en conjunto a recursos clásicos como los canales de televisión pero ahora en su relación con los tiempos de internet, y por esa vía lograron altos niveles de polarización por todo el planeta. Y en buena medida esto estuvo alimentado por todas las técnicas de big data y data mining, ya absolutamente establecidas para ese momento, aunque casi en su totalidad en el ámbito privado. Les usuaries de redes sociales pueden no darse cuenta, pero todos esos datos que comparten a diario en realidad están también a la venta bajo diferentes formas de consumo, para las empresas que así los requieran, y que cuenten con la posibilidad de pagarlo. Y, pregunta para la clase: ¿quienes creen que tienen mejor financiamiento? ¿las izquierdas, o las derechas? Todas esas técnicas de microsegmentación de publicidades que mantenían a Google o a Facebook desde hacía ya tiempo, para el 2015 estaban muy maduras y listas para ser utilizadas en campañas políticas de todo tipo. Del mismo modo, la retroalimentación entre uso de las redes y segmentación de grupos sociales facilitaba mucho articular tendencias hacia la polarización y la radicalización de cualquier tipo de idea: desde planteos económicos de laborioso refutamiento, hasta absolutas barbaridades que ni las personas más primitivas podían considerar seriamente luego del más elemental análisis. El caso más famoso vinculado a todo esto fué el de Cambridge Analytica: una empresa de consultoría política, que a partir de datos de Facebook realizó tareas de inteligencia social al servicio de campañas de derecha de alta embergadura, como ser las de Donald Trump. Y las izquierdas se mostraron mayormente sin herramientas contra todo esto, durante toda la década.

    La década del 2010 entonces comenzó con mucho optimismo en internet, pero rápidamente se convirtió en una especie de máquina de generar ansiedad y discordia, con la inteligencia artificial y las técnicas de manejo de datos en el corazón del asunto. Al principio de la década, Nokia todavía era referente en el mundo de los teléfonos móviles, y apostaba a sus propias versiones de GNU/Linux; hacia el final de la década, Nokia había prácticamente quebrado, luego de haberse asociado con Microsoft y apostado a Windows. Al principio de la década, Microsoft daba vergüenza; al final de la década, Microsoft era de nuevo central en el mundo de la programación, se asociaba con Open AI al tiempo que esta última dejaba atrás su ética abierta y al mismo tiempo que se lanzaba Copilot, y para 2023 Microsoft es directamente el principal financista de la organización ya absolutamente privada. En esta misma década, las tecnologías de DRM finalmente entraron en los estándares web, haciendo que la misma finalmente ya no sea más abierta al permitir que se inyecte código privativo y secreto en los browsers para poder reproducir contenido multimedial protegido por empresas. Valve cumpió su promesa de abrazar GNU/Linux, y ahora miles de juegos funcionan perfecto en ese sistema operativo, incluidos los de mayor exigencia y sofisticación, lo cierto es que les jugadores siguen usando en su mayoría Windows, y las empresas de video juegos siguen programando para Windows, dando la impresión de que esa comunidad va a tratar a Valve como la gente de la web y de GNU/Linux trató antes a Mozilla y a Canonical. Y Facebook apostó extrañamente a la realidad virtual, para lo que contrató al desarrollador original del Doom, y por esa vía pretende tener control de las formas de interactuar entre personas y de realizar trabajos diarios; casi que la única buena noticia al final de la década es que a Facebook le está yendo horrible en esto.

    La década siguiente, de la que apenas vivimos algunos poquitos años, no ayudó tampoco en absoluto a resolver nada: tuvimos dos años de una pandemia traumatizante, e inmediatamente después un nuevo despertar de las ansiedades nucleares frente a la guerra entre Rusia y Ucrania, la cual pega fuerte en las economías y posicionamientos políticos de todo el mundo. Al mismo tiempo sucede una competencia comercial entre Estados Unidos y China, con cosas como el 5G y la ingerencia internacional como frentes de batalla, y en casi todo el planeta se vive un profundo descrédito de la democracia como forma de organización de las sociedades y de la política como forma de transformar nada. Pero esto es algo que estamos viviendo todes, y antes que ponernos a hacer repasos y análisis de cuestiones que ya conocemos, mejor es tiempo de pasar a articular conclusiones.

    

Conclusiones

    Si llegaron hasta acá, felicitaciones y gracias: se merecen un premio. No sé cuál pueda ser ese premio, pero bueno… sepan que estamos al tanto del trabajo que implica seguir todo aquello, y lo mínimo que merecen es un reconocimiento, tanto por el trabajo como por su compromiso. Nosotres como creadores no podemos menos que estar agradecides. Pero ya en esta parte del video, podemos concentrarnos en la actualidad, y qué creemos que está pasando con la Inteligencia Artificial. Y vamos a hilar esas opiniones a partir de fenómenos que percibimos en la sociedad.

    ChatGPT genera algunas sorpresas e inquietudes más bien positivas, pero también muchas críticas. Y entre las críticas percibo mucha incredulidad: gente que se burla del chatbot por sus muchos errores y problemas, y entonces lo considera una burbuja más de las tantas que hemos vivido. He oido incluso a alguien decir lo siguiente: “es las bitcoins otra vez, no va a pasar nada con esto”, haciendo alusión a que las bitcoins prometían mucho pero terminaron siendo calificadas de burbuja financiera. Y, seamos claros: en este relato planteamos un montón de ciclos de optimismo que llevaba a financiamientos y luego inmediatas tristes sorpresas, especialmente en el mundo de la inteligencia artificial. Así que intentar ubicar eso en ChatGPT tiene bastante de sensato. Sin embargo, tenemos cosas para decirle a la gente que sostiene esa posición. En líneas generales, nuestra respuesta es que están subestimando profundamente a lo que sucede con ChatGPT, en varias dimensiones que pasamos a detallar.

    Por un lado, subestiman al optimismo. Es cierto que el optimismo frecuentemente da lugar a percepciones de fracasos en lo inmediato, y la historia tiene un montón de eso. Pero históricamente en las experiencias de esos optimismos se crían las siguientes generaciones de trabajadores y empresaries, que van a ser quienes creen el futuro inmediato, van a ser parte de una segunda o tercera o cuarta ola de lo mismo, van a transformar la sociedad una vez más, y lo van a hacer sin pedirle permiso ni preguntarles qué piensan a ningune de ustedes. Esa es la historia de la intergeneracionalidad en la modernidad, que hace que todo cambie “de repente”. Nunca es de repente, sino que son ciclos y ciclos de optimismos y supuestos fracasos hasta que “de repente” ya está, ya cambió todo, ya podemos dar al proyecto por exitoso, cuando se trata de una nueva normalidad. Y si quisiera apostar a ganador, más que satisfacer mis glándulas de schadenfreude imaginando cómo a ChatGPT le va a ir mal, ya iría pensando cómo es que a la inteligencia artificial le va a ir bien y esto que estamos viendo es apenas un hito en esa historia. Lo cuál es especialmente pertinente si, como vimos en las últimas dos o tres partes del video, estas cosas parecen cambiar cada diez o cinco años a esta altura. Ciertamente, no me parece sabio burlarse del tema, ni ningunearlo, más allá de qué tan mal pueda andar ChatGPT.

    Por otro lado, al concencentrarse en las evidentes fallas y limitaciones de ChatGPT, no le están prestando atención a sus logros. ChatGPT podrá ser un paso corto o largo hacia la inteligencia artificial general, esa que es indistinguible de un ser humano y que pasa el test de Turing y requiere que tengamos blade runners para identificarlas, la historia ya lo dirá: pero no parecen estar dándose cuenta que esta tecnología ya logró hacer un hecho empírico e incuestionable a las interfaces de usuario a partir de lenguaje natural, sea hablado o escrito. ChatGPT tiene también mucho qué ver con la historia de Alexa y Siri y el ayudante de Google, que además de tener un pié en el área de inteligencia artificial tienen otro en el área de interfaces de usuario: como los videojuegos, tan ninguneados y demonizados durante su historia. Y en esto lamento decirles a les pesimistes que ChatGPT se trata de un éxito absolutamente rotundo, y entonces estas cosas llegaron para quedarse. Pero no es lo único de lo que no se dan cuenta.

    Recuerdo hace algunos años hacer una transmisión radial improvisada por internet en una reunión de amigues. Estoy hablando del año 2012 o 2013. Ahí hablé un poco de mi experiencia yendo a estudiar lingüística, y de cómo mezclando lingüística con programación se llegaban a problemas cognitivos y filosóficos complejos, y contando también aquellas fantasías adolescentes mías sobre hacer un oráculo al que podría preguntarle cualquier cosa, incluso usarlo como mecanismo de automatización de la ciencia. Para explicar eso, a esa altura ya tenía un ejemplo que todes conocían: Jarvis, la inteligencia artificial de Iron-Man en la exitosa película del año 2008. En esa película, Tony Stark podía prepararse un trago, hablar con Jarvis sobre el diseño de una armadura tecnológica de superhéroe, debatir jocosamente con Jarvios usando chistes irónicos sobre de qué color se podía pintar a la armadura, y preguntarle a Jarvis cuánto podía tardar en fabricarla: Jarvis le dice que tarda algunas horas, y entonces Tony Stark aprovecha ese tiempo para irse de fiesta; al otro día a la mañana tiene lista una armadura de superhéroe. Tomando ese ejemplo, yo le decía a mis amigues: “así cualquiera es Tony Stark”, y les explicaba que una inteligencia artificial que entiende lenguaje natural a ese nivel tranquilamente puede también automatizar una fábrica. Y uno de mis amigues entonces hizo un afiche para el programa de radio, con una imagen de Chomsky usando la armadura de Iron-man.

    Les pesimistes de ChatGPT no se dan cuenta que estamos muy cerca de eso. A cosas como ChatGPT ya le piden que realice tareas arbitrarias: de momento en una dimensión intelectual, pero piensen cuanto falta para que a eso se le agreguen periféricos como brazos robot. Y ahí es donde tienen que reflexionar sobre todo el paseo de tecnologías de los últimos 20 años agregadas a la gestión de lenguaje natural: reconocimiento de objetos, drones, casas inteligentes, y demás. Hoy hasta un horno microondas o una heladera están conectados a una red informática. ¿Qué le impide a un software como ChatGPT controlar todo eso? Nada. De hecho, Alexa lo hace, y creo que también cuenta chistes. Ahora también estamos viendo que, de manera todavía defectuosa, le estamos pidiendo a estas cosas que usan GPT-4 que nos escriban historias, canciones, nos hagan dibujos, o hasta nos escriban software que tenga tal o cuál funcionalidad. ¿Realmente creen que está tan lejos pedirle que haga cosas más complejas en términos intelectuales, que encima luego pueden materializar automatizando herramientas como impresoras 3D? Si con esa perspectiva pueden ir imaginando las cosas que se pueden hacer en una “casa inteligente”, ¿se dan una idea de lo que se puede hacer en un laboratorio automatizado? Más bien se vuelve urgente la pregunta de qué cosas NO se podrían hacer.

    Quienes piensen que ChatGPT es una moda pasajera más, otra burbuja como tantas otras, muy probablemente piensen lo mismo de otras dos cuestiones de las que no hablamos en todo el video: el 5G, y la internet de las cosas. Todes vimos cómo se nos anunció al 3G como la revolución de internet, para que después casi anduviera peor que la internet que usábamos con teléfono fijo y modem en la década de 1990, y que entonces la llegada del 4G fue bastante más silenciosa. Lo mismo con el hecho de tener mil hipotéticos posibles aparatitos “inteligentes” en nuestras casas, y que todo esté conectado a internet y podamos controlarlo desde nuestro teléfono móvil: pero a América del Sur esas cosas no llegan, y en los paises donde se usan son más bien una molestia, salvo casos muy puntuales y salvo casas que estén adecuadamente diseñadas para usar aparatos de ese estilo. Así planteadas, la internet de las cosas ya pasa de burbuja a directamente humo, y el 5G se vive con muchísimo excepticismo. Pero, sin embargo: ¿es como para que Estados Unidos y China hagan una guerra comercial al respecto? ¿Qué les pasa a esos dos? ¿Es algo así como buscar excusas para pelear, o está pasando algo más con ese tema? Y acá es donde les pido que presten atención, porque lo que vamos a tratar de explicarles no se entiende si no se lo pone en la perspectiva adecuada.

    No piensen a “internet de las cosas” como “una vida más cómoda y automatizada con aparatos inteligentes”, sino como “una vida rodeada de sensores de todo tipo, compartiendo información”. Si prestaron atención al video, ya saben a qué dá lugar eso de “compartir información”: data mining. Que en un principio daba lugar a simplemente compra y venta de datos, y el descubrimiento de algunos patrones de comportamiento, que luego permitían refinar estrategias comerciales o tal vez funcionalidades de software. Pero con machine learning agregado, eso da lugar a modelos de machine learning para todo tipo de actividades, que luego se explotan con inteligencias artificiales como las de ChatGPT. Lo cuál hace que la internet de las cosas sea muy valorado como horizonte por algunes. Pero ese no es el final de esa historia.

    ¿Recuerdan cuando hablamos de cómo nVidia compraba empresas que no tenían tanto qué ver con 3D? ¿Y recuerdan cómo en ese contexto relatamos la historia de la película de Final Fantasy, y su granja de renderizado, y repasamos algunos pormenores de cómo funcionaba eso? Uno de los detalles importantes es la capacidad de transmitir datos entre diferentes computadoras, que por aquel entonces podía ser la diferencia entre hacer la misma tarea de renderizado en 4 años o en 120. La velocidad con la que se trabajan los datos es importante, pero la velocidad en la que se transmiten también lo es. Y esto se vuelve más y más importante a medida que hay más y más aparatos compartiendo más y más datos de toda naturaleza: texto, imágenes, audio, video, data abstracta, o bien mezclas de cosas. Y si bien tenemos cosas como fibra óptica, que son rápidas, piensen que los aparatos no están todos conectados a fibras ópticas: apenas algún receptor de internet en nuestras casas, pero todo lo demás es wifi, inalámbrico. Lo que predije para internet, aquello de que “todo se va a procesar remoto, y entonces no va a hacer falta tanta computadora”, del mismo modo se aplica para la robótica, que con buena conexión inalámbrica podrían simplemente ser las manos y piés de cualquier inteligencia artificial online; y no lo piensen tanto como Skynet, sino como obreres de la construcción en un sitio de obra. Súmenle a esto internet de las cosas, que son decenas o cientos de aparatos más en cada casa, en cada esquina, en cada plaza, en cada automovil, en cada bolsillo, y ya se van dando una idea de por qué podría haber tantos actores con tanto interés en estimular una rápida suba del ancho de banda de la conectividad inalámbrica. 5G por sí sólo significa poco, pero puesto en contexto es clave para algunas industrias. Y este tampoco es el final de esta historia de 5G e internet de las cosas. Hay un detalle más.

    Al principio, en la introducción, dijimos que ChatGPT implementa los “modelos grandes” de lenguaje natural GPT-3 y GPT-4. Y durante el resto del video, en diferentes oportunidades, mencionamos cómo el data mining generaba grandes cantidades de datos centralizados en algunas pocas infraestructuras. También mencionamos que existen modelos de lenguaje natural, y de muchas otras cosas, sin necesidad de grandes cantidades de datos: por eso hay “modelos” que no son de machine learning, pero también dentro de machine learning se distinguen “modelos” de “modelos grandes”. Y, precisamente, los “modelos grandes” permiten no sólo mejor calidad en machine learning, sino también modelos más generalistas: una cosa es que Google entienda mis palabras y con ellas realice una búsqueda por internet, y otra cosa muy diferente es que ChatGPT entienda mis palabras y a partir de mi planteo realice un trabajo práctico para cumplir con mis tareas escolares. Los modelos grandes permiten extender los usos de un sólo modelo a muchos más casos. Aunque esto a su vez retroalimenta el valor del machine learning, porque con solamente machine learning de repente podemos hacer modelos generalistas de todo tipo. De esta manera, machine learning se muestra como el camino hacia la inteligencia artificial general, al menos a simple vista. Si consideramos eso último, es francamente sentido común que haya gente intentando juntar más y más y más datos para poder generar modelos de machine learning con ellos. Pero esto tiene efectos sociales colaterales muy serios.

    Frecuentemente, cuando alguien dice algo como eso de los problemas sociales y los datos, pone foco en cosas como la privacidad, o la capacidad de los estados para controlar a la gente, y asuntos por el estilo. Sucede que la militancia informática de izquierda, la gente que se preocupa por la dimensión política de la tecnología, suele tener formación de matriz liberal, y entonces frecuentemente leen los problemas con sesgos anti-estatistas y pro-libertarios. Este es el caso de la Fundación Software Libre, que es vanguardia de izquierda en informática. Pero pasa también cuando se leen planteos como los que se arman alrededor de las revelaciones de Wikileaks o de Edward Snowden: hablan de lo peligroso que es darle tanto poder a los Estados para controlar a la gente, y lo importante que es liberar la información y proteger el anonimato. Por supuesto no les gusta tampoco que ninguna empresa realice esa clase de actividades espúreas que denuncian, aunque cuando se meten con las empresas suelen tener cuidado de no criticar demasiado al capitalismo, y entonces el foco suele volver cómodamente hacia los estados nacionales.

    Pero hace muchas décadas ya que los estados nacionales no son el problema, y que de hecho la gente en todo el planeta está harta de pedirles soluciones a los estados sin que estos muestren tener el poder para cambiar prácticamente nada, lo cuál lleva a niveles de inestabilidad política y radicalización como no se vieron en décadas. Mientras tanto, y linealmente en paralelo a ese detrimento social, son empresas las que están apropiándose cada vez más de las infraestructuras con las que realizamos nuestros quehaceres cotidianos, y de esa manera determinando nuestras vidas. Por supuesto esto es algo echado a andar desde la década de 1970 por lo menos, y consumado también hace ya más de treinta años. Pero es tan notorio ya el modo en que los estados nacionales vienen perdiendo casi todas las batallas desde la ideología neoliberal para acá, que el neoliberalismo mismo está en crisis cuando ya no puede echarle la culpa a la intromisión de los estados en los problemas reales de las sociedades. Hoy ni siquiera las fuerzas conservadoras están cómodas, y se ven obligadas a plegarse más a la derecha de lo que les gustaría.

    Estas cosas, por supuesto, pueden resistirse, revertirse, o sencillamente cambiarse por otras: es tan sencillo como analizar los sistemas e intervenirlos. Para eso se inventaron la democracia que permita elegir alternativas, los partidos políticos que permitan organizar personas de pensamientos similares, las escuelas de pensamiento que brinden ideas detrás de las cuales organizarse, y demás herramientas, todas plenamente disponibles en la actualidad. Y sin embargo, hace décadas que pareciera no haber alternativa a este mundo que estamos viendo. De hecho, buena parte de la población mundial parece preferir cada vez más extremas derechas, casi como si todavía no conociéramos los resultados de ello.

    Hay tres grandes fuerzas detrás de que la gente se comporte como se viene comportando en política. Estas fuerzas son solidarias entre sí, y a su vez solidarias con las premisas neoliberales. La primera es por supuesto la publicidad: el incesante bombardeo de información ultrasesgada o directamente mentirosa tiene sus evidentes efectos en la percepción del estado de la sociedad que a une le rodea y de las elecciones posibles en la vida. La segunda es el régimen laboral, que ante todo quita tiempo y energía a cualquier persona sometida a él, y se convierte en condición de clase social. Y la tercera es la intergeneracionalidad moderna, que rompe los vínculos históricos entre diferentes generaciones de personas alterando constantemente las prácticas sociales. Pero nada más sencillo que curiosear todo esto a partir de un ejemplo.

    ¿Alquien conocía a Zoom antes de la pandemia? Yo trabajo en informática, y no tengo la menor idea de dónde mis pares sacaron a Zoom. Y yo trabajo en informática hace ya más de 20 años, y sin embargo gente más jóven y menos formada que yo eligió qué software usar durante la pandemia, sin que nadie me lo pregunte. Estoy seguro que esta ha de haber sido la historia de muches en su trabajo: une puede ser referente en su área, pero sin embargo de repente llega un correo desde recursos humanos diciéndonos cuáles son las herramientas que debemos utilizar, y ya no consulta previa sino directamente sin tampoco ninguna explicación. En las empresas grandes eso es planificado, pero cuando se trata de gente usando esos productos por voluntad propia la explicación es sencilla: publicidad, y efectos de red. Por publicidad alguien prueba eso, y por efectos de red sus contactos también lo usan. Microsoft ya había exterminado a Skype para ese entonces, y por eso había gente a la búsqueda de otro medio de comunicación, frente a lo cuál se topó con Zoom. Lo que suena a sentido común, pero oculta otros fenómenos más difíciles de explicar: como ser que aún hoy, años ya después de la pandemia, sigue habiendo gente que no conoce Jitsi, y cuando se le muestra se sorprende como si fuera nuevo. Ahí es cuando se vé el verdadero gran efecto social de la publicidad: Jitsi no tiene publicidad, sino militancia. Y en el siglo XXI, la militancia compite contra la publicidad. Consideren aquello del estado actual de las cosas, y luego saquen la cuenta de cuál de las dos viene ganando.

    La publicidad es la militancia de las empresas. Es acción social y política, aunque privatizada y privatizante. Por supuesto que si revisamos los pormenores de la militancia nos damos cuenta muy rápidamente que, como otra infinidad de cosas, se trata de una actividad tendiente a imposible de ser realizada cuando une también tiene que utilizar no menos de 9 horas todos los días para ir a trabajar. Y ahí también recordamos que militar ya parece un lujo cuando tenemos que considerar también estudiar: cosa que, encima, desde hace décadas nos dicen que tenemos que hacer para conseguir un trabajo. Casi como en una especie de manía psicótica, tenemos que usar nuestro tiempo libre del trabajo para prepararnos para el trabajo. Y si ya mencionamos militar, plantear luego la idea de estudiar cosas que tengan poco o nada qué ver con nuestros trabajos ya se siente directamente como una frivolidad. Por supuesto, siempre podemos considerar la idea de no trabajar: pero mejor no le dediquemos demasiado tiempo, si no queremos ir a parar a la calle a fín de mes, y tener que aprender rápidamente a conseguir comida por alguna via que no sea comprándola. De modo que mejor concentrémonos en ir a trabajar, y toda la parafernalia de ir a trabajar, que se trata de supervivencia.

    Lógicamente, eso no suena como una vida que inspire muchas ganas de vivirla. Pero no se preocupen: entre los minutos libres que nos deja nuestra jornada laboral, tenemos toneladas de publicidades que nos dicen todas las cosas que podríamos hacer si tuviéramos dinero: comprar un automovil, irnos de viaje, y todo tipo de experiencias lujosas. Eso, ya que estamos, es un incentivo para seguir trabajando, y hasta buscar un mejor trabajo. Entre las publicidades también vamos a encontrar personas que nos interpelan en nuestros sentimientos: gente con la que nos vamos a sentir representades, ya sea en nuestra actualidad o en nuestras aspiraciones, y entonces vamos a armarnos intuitivamente nuestros propios modelos de “human learning” para aprender a elegir cosas en la vida: ideologías, bebidas gaseosas, es todo más o menos lo mismo. Aunque el gran truco en ese sistema está en que, si un día llegamos a la conclusión de que estamos cansades de tantas promesas en tantas publicidades, y en realidad lo que queremos es dejar de someternos a ese régimen de vida que nunca realmente elegimos sino que nos fué sistemáticamente impuesto, lo que nos vamos a encontrar es que para ese entonces ya tenemos cierta edad, y detrás nuestro está lleno de jóvenes más que dispuestes a repetir nuestra misma historia: aunque esta vez con tecnología nueva, que impone reglas diferentes de cómo interactuar entre las personas, y nuevos futuros sobre los cuales fantasear que podremos llegar a vivir. De modo que cuando le quieras explicar a esa gente más jóven los detalles de tu historia, que muy probablemente no tenga muchas grandes aventuras épicas e inspiradoras para relatar, la respuesta que más te vas a encontrar es la sensación en les demás de que vos no entendés la nueva realidad actual, y que todo lo negativo que decís proviene de esa frustración o de tu profunda ignorancia.

    Ese cruel mecanismo, repasado tan brevemente, viene funcionando así por lo menos desde el siglo XIX, y supongo que ya era estable en el XVIII. Esa distancia intergeneracional no fué una cosa de todas las épocas y todas las culturas como se la vive ahora. Y arrancó con la modernidad: allá por las revoluciones políticas y tecnológicas que apoyadas en el racionalismo dieron nacimiento al capitalismo. Con el paso del tiempo, esos saltos generacionales se fueron acelerando, y si lo medimos en términos políticos hoy la gente parece no acordarse sus experiencias de apenas hace una década atrás, o menos todavía, del mismo modo que vive cada vez más polarizada en un mundo con picos de stress y donde proliferan todas las variantes más espeluznantes de problemas de salud mental: ansiedades, angustias, depresiones, brotes psicóticos. ¿Quién no tiene amigues o familiares con depresión? ¿Ya te tocó vivir la desesperación de quedarte sin trabajo? Y fíjense que ni siquiera estoy hablando de experiencias como guerras civiles o catástrofes naturales, de las que también está lleno.

    Vivimos una época enloquecedora. Y es que, precisamente, estos problemas se sostienen sobre un gran pilar, que es el cómo funciona nuestra mente. La relación con la realidad tiene una serie de problemas de orden epistémico. Cosas como entender los límites de nuestras generalizaciones cuando tratamos de explicar lo que pasa en el mundo, por ejemplo. O bien cuando intentamos entender a otres. Esa clase de cosas están siempre basadas en nuestras experiencias, que constituyen nuestra historia. Las interpretaciones que realizamos, a su vez, son también experiencias, y por eso cosas como leer libros son efectivamente transformadoras como también lo puede ser conocer culturas diferentes o aprender misterios detrás de las cosas que nos interesen. Hay algo de orden psicológico y experiencial en lo que llamamos “conocimiento”, siempre. Pero obviamente no todas las experiencias son felices, ni tampoco son precisamente infinitas, y eso muy rápidamente limita nuestra capacidad experiencial. Y no sé si se dieron cuenta, pero en esta breve explicación no se distingue mucho una diferencia entre lo que hacemos nosotres con nuestra historia, y lo que hace machine learning con sus datos; pausen el video y tómense unos minutos para considerarlo si quieren.

    Pero en cualquier caso, esa sitación que encuentra una persona cuando está muy desconectada de fenómenos que suceden en la realidad, cuando vive más bien ensimismada en sus propias experiencias, llevándola a manejar explicaciones demasiado simples de aquellos fenómenos, o hasta a comportarse más bien de manera sistemáticamente reaccionaria cuando se le contradice, tiene un nombre: alienación.

    A la alienación ya la había puesto Marx en el centro de los problemas de las sociedades. Él planteó ese problema en lo que siempre fué la explotación humana, pero que hoy llamaríamos positivamente “cultura del trabajo”: levantarse temprano, ir a trabajar todo el día, volver cansados a casa a la noche, y repetir todo al otro día. Tenemos que dar gracias que nuestras jornadas laborales son de 9 horas en lugar de 12 o 16, tenemos que ser agradecides que tenemos fines de semana, que exista el concepto de vacaciones, y qué se yo qué más: pero tenemos que vivir yendo a trabajar, y hacer de eso un orgullo. No sé si en la época de Marx ya estaba articulado en esos términos, pero definitivamente por aquel entonces ya se vivía el mismo problema: el uso del tiempo. Ya sucedía que, si se vive trabajando, oh casualidad no nos dan ni las horas del día ni nuestras energías para hacer ninguna otra cosa nunca. Entre esas cosas que no podemos hacer se encuentran, por ejemplo, informarnos o formarnos, especialmente si tiene poco qué ver con trabajar. Eso incluye actividades como estudiar una ciencia o ingeniería o arte, estudiar otra luego de esa primera, juntarnos con gente a discutir cómo vemos a las sociedades, organizarnos en iniciativas propias y sociales, y tantas otras cuestiones posibles que jamás vamos a hacer por no tener ni tiempo ni energía. Por supuesto no hace falta agregar a eso la necesidad de tener dinero, que ya la damos por descontada: vamos a trabajar en primer lugar porque no tenemos dinero, de modo que si además necesitamos dinero para estudiar o tener un proyecto claramente eso rara vez va a suceder. Por el contrario, lo que va a suceder es que vamos a convertirnos en poco más que unos aparatos que sólo saben hacer eso que tenemos que hacer para ganarnos el sueldo, y toda nuestra cosmovisión del mundo va a estar formada alrededor de lo poco que conocemos sobre eso. A esta altura no sorprende a nadie que, además, el trabajo mismo termine siendo también una especie de salvavidas emocional para nuestras ansiedades y angustias, y tome lugar central en nuestra identidad.

    Marx ya nos decía que la división del trabajo le quitaba a les obreres la perspectiva social e histórica de su propio trabajo. Eso no mejoró con los años, ni los siglos a esta altura, sino que sólo se profundizó. Por aquel entonces los “medios de producción”, esos de los que según Marx tenían que apropiarse les obreres organizades, eran las fábricas. Todavía era más o menos elemental darse cuenta que alrededor de la fábrica se organizaba la sociedad, con todas sus consecuencias. Y ciertamente una persona que se había criado en el campo arando la tierra o alimentando animales difícilmente estaba en condiciones de diseñar grandes ingenios industriales ni las largas cadenas del aparato productivo y comercial: para eso era necesario gente bien formada, donde tenían su lugar sólo les burgueses. Pero esa capacidad de diseño no era ningún atributo divino ni nada por el estilo, sino que pasaba simplemente por entrenar gente al caso. Y ese diseño tampoco era ninguna jerarquía objetiva humana frente a otres, sino apenas la contingencia histórica en la que le tocó vivir a diferentes personas: lo cuál puede ser perfectamente planificado, además de que con sólo diseño no hacemos nada y luego el trabajo debía ser llevado adelante también por alguien, que no tiene por qué ser valorade como inferior a otres.

    Reflexionar sobre estos temas cambiaba la relación de une con el trabajo propio y ajeno, con la historia, con la clase social, y con los futuros pensables para sociedades posibles. Eso que llamamos “sentido común” tiene mucho de alienación cuando no se lo pasa por algún filtro crítico, y la alienación es al mismo tiempo una forma de sometimiento y una manera de convertirnos en sometedores al legitimar y repetir las mismas prácticas alientantes a las que luego deben adecuarse otres. El trabajo crítico se vuelve entonces liberador.

    Y si bien Marx le puso el título de alienación, en realidad veía un caso particular. Antes de él, Adam Smith también hizo planteos críticos liberadores cuando dijo que se podía crecer, que se podía producir más, que se podía generar más riqueza, en un mundo donde se creía en límites naturales a cosas como esas. Aquellas ideas de la época eran, efectivamente, alienantes, mientras que las de Smith revolucionaron literalmente al mundo entero y siguen siendo centrales en el hecho de que se pudieran soñar mundos diferentes.

    Pero aunque en la época de Marx haya sido más o menos evidente el rol económico y social de la fábrica, hoy no es tan evidente que cosas como los medios masivos de comunicación sean “medios de producción”, ni que la sociedad se organice alrededor de ellos. Hasta está lleno de marxistas que te lo discuten, por ejemplo planteando cosas como que “la gente no es idiota y se dá cuenta de los artificios en los medios”, y que entonces no son tan centrales en la sociedad. Y por supuesto tampoco van a considerar “medios de producción” a las redes sociales, que frecuentemente pasan a ser la forma canónica de contactarlos por internet. Ciertamente algunas cosas cambiaron con el tiempo, y requieren más explicaciones que las que necesitaban las fábricas del siglo XIX. Y si bien los pensamientos de Smith y de Marx en relación a la alienación fueron liberadores, no fueron los únicos de trascendencia.

    Freud llamó la atención sobre cómo en realidad no tenemos tanto control racional sobre las cosas que pensamos, sino que hay muchísimo de intuiciones y sensaciones. Somos seres vivos, animales, que por muchas fantasías racionalistas modernas seguimos siendo profundamente pasionales y seguimos viviendo intuiciones que determinan nuestros comportamientos. Donde Smith entendió que había ideas falsas sobre los horizontes de desarrollo y crecimiento de los pueblos, y Marx entendió que había prácticas sociales alienantes, Freud entendió algunos pilares subjetivos para que esos efectos negativos fueran posibles.

    Sucede que en lugar de sencillamente vivir todes en alguna forma de contacto pleno con una realidad compartida, estamos todes inmerses en nuestras propias subjetividades, y nuestros contactos con la realidad estan siempre mediados: por nuestras culturas y entornos primero, y nuestras práctica particulares luego. Estudiando esas cosas, precisamente buscando solución a la alienación, encontró que incluso se pueden llegar a curar patologías directamente a través del diálogo: algo tan profundamente liberador para la humanidad como los planteos de Smith y Marx. Aunque los planteos de Freud eran especialmente sinérgicos con los de Marx: había alienación, tenía qué ver con cómo vivimos, y la palabra podía curarla. Por supuesto que Marx hablaba de organización obrera y Freud hablaba de trabajo clínico, pero de una manera u otra se confirmaba un problema en la relación con la realidad, que es un problema de doble filo: por un lado la subjetividad con el entorno, y por otro lado la intersubjetividad.

    La alienación, entonces, es al mismo tiempo un problema ético, un problema político, y un problema epistémico. Esto es algo que los teóricos del neoliberalismo no dejaron pasar, y no es casual que tanto el marxismo como el psicoanálisis hayan sido tempranamente tildados de pseudocientíficos por las mismas personas que se sentaban a discutir el nuevo paradigma ideológico de un occidente en guerra fría. Sin ir más lejos, el mismo sobrino de Freud, Edward Bernays, es considerado como el padre de las relaciones públicas, y dedicó su vida a estudiar cómo por medio de la psicología se podía influir en las sociedades. Algunos de sus trabajos más famosos son campañas que relacionaban al acto de fumar cigarrillos con la liberación femenina, o bien sus trabajos para empresas vinculadas a la CIA y golpes de estado en América. No tengan ninguna duda que desde los think tanks del neoliberalismo le prestan atención a la alienación, y acá es donde corresponde ir a buscar qué se decía en los setentas sobre los medios masivos de comunicación, por aquel entonces encarnados mayormente en la televisión.

    Entonces, el régimen de trabajo asalariado produce que no tengamos tiempo para formarnos, y el poco tiempo que tenemos para INformarnos está mediado por esos “medios” masivos de comunicación. “Medios” que operan de mediador con la sociedad al mismo tiempo que son medios de producción de discursos. En solidario, ahora también tenemos redes sociales en las que activamente repetimos esos discursos, que encima se pretenden cada vez más rápidos y simples. Y ahí ya ni de discursos hablamos: literalmente ya sólo reacciones. Se nos dicen un montón de cosas, que cuando las resistimos generamos discordia y polarización. Con las redes sociales, al mismo tiempo se nos estimula a que eso suceda: opinar cualquier cosa es un acto de libertad de expresión, y a eso tenemos que defenderlo opinando más y más lo que se nos antoje; no tan secretamente disfrutamos hacer enojar a les demás, aunque luego pretendemos ser víctimas de algo cuando eso no termina bien. Somos constantemente estimulados en nuestras emociones más primitivas y simples, que resultan ser también las más fáciles de controlar a nivel poblacional. Y desde las redes sociales, además, tenemos más precisión que nunca para calibrar cualquier mensaje que se pretenda insertar en un grupo social particular, ya hasta de manera automatizada y como servicio a empresas. Esa es la aparentemente inquebrantable organización de la militancia empresarial.

    Muchas de las premisas de Marx siguen tan vivas como en el siglo XIX, pero eso no quita que esta alienación que estamos viviendo tiene unas cuantas complejidades agregadas a lo que decía él por aquél entonces. Sin embargo, cada vez que hablo con marxistas me encuentro con la misma clase de respuestas con las que se encontraba Norbert Wiener en 1948, especialmente en lo que respecta los problemas que la automatización agregaba a teorías clásicas del trabajo o de la sociedad: como si todo se explicara por las ya clásicas premisas vinculadas a las relaciones sociales que arrastramos desde el siglo XVIII. Y en esto se dá una extraña coincidencia entre marxistas y liberales.

    Hace no mucho tiempo atrás se hizo popular la noticia de que McDonnalds había automatizado completamente uno de sus locales de comida rápida. Frente a esto, me llega la noticia de parte de alguien marxista que lo plantea como problema laboral, porque evidentemente dejaría sin trabajo a les obreres menos capacitades de todes, llevándoles a la miseria. Por supuesto cualquier marxista es sensible a los perjuicios contra les obreres, y dedica su vida a denunciarlos y combatirlos. Pero frente a la escena de la automatización de McDonnalds, la reacción pasa a ser casi inmediatamente “defender el trabajo”. Lo cuál lleva a la insostenible idea de algo así como “derecho a trabajar en un McDonnalds”, que es básicamente el estereotipo de explotación laboral alienante desde hace décadas, y el ejemplo canónico del trabajo que no debería existir: es básicamente la línea de producción fordista aplicada a las hamburguesas, con el agregado de una atención al cliente siempre denigrante. E igual de frágiles son los planteos por parte de liberales cuando se proyecta la cantidad de tareas en las que se puede aplicar automatización y tienen que hacer malabares para defender la idea del mérito y de la generación de valor y tantas otras nociones vetustas por el estilo.

    La alienación no es una condición binaria. Une no es alienade o no-alienade: une siempre tiene límites en su capacidad de comprensión de los temas y la realidad que nos rodea. No pretendo burlarme de marxistas y liberales, sino plantear que las cosas que están sucediendo precisamente ponen en crisis un montón de ideas que se pretendían ya escritas en piedra. El ejemplo de McDonnalds nos lleva rápidamente a una conclusión muy sencilla: a no ser que pretendamos defender el régimen laboral que conocemos, debería tender a desaparecer. Lo cuál debería ser una gran noticia para cualquier sometide, como yo. Pero la parte inquietante es que, con el régimen laboral que conocemos, también deberían desaparecer los sistemas sociales que conocemos, aunque no queda claro hacia qué otro sistema iríamos. Y entonces no debería sorprender a nadie que marxistas y liberales, frente a algo como eso, se vuelvan más bien conservadores.

    Como estamos hablando de inteligencia artificial, yo me concentré mayormente en el rol del trabajo asalariado en las sociedades actuales, pero en realidad son muchas las cuestiones críticas de los sistemas actuales: el calentamiento global y el crecimiento poblacional, por ejemplo, son dos temas que dejan en claro cómo la sociedad de consumo keynesiana tampoco es ninguna opción sostenible, y con eso cae cualquier fantasía de “capitalismo bueno”. Hay movimientos que hace décadas causaban hasta burla y hoy organizan a millones de personas en todo el mundo; como la causa vegana por ejemplo, que plantea una relación ética inter-especies: ya ni el antropocentrismo está cómodo cuando se discute política. Las ideas de hace siglos atrás sobre el ser humano, la sociedad, el trabajo, la vida, y el futuro, están absolutamente en crisis. Y ese es el contexto en el que nos toca vivir la emergencia de la inteligencia artificial. Con lo cuál, tampoco debería sorprender a nadie que genere tantas ansiedades: no estamos precisamente en un mundo que se sienta bajo control, y esto no parece venir a tranquilizar las cosas tampoco.

    Pero, irónicamente, el mundo está BASTANTE bajo control: al menos, esto que vemos tiene mucho de planificado. Es cierto que las ideas clásicas sobre el ser humano y la sociedad se muestran vetustas, pero la fantasía de que “no hay alternativa” es articulada incesantemente en los aparatos alientantes que median entre nosotres y el mundo: los llamados “medios”, que se dicen “de comunicación”, entre los que incluyo a las redes sociales. Esto que estamos viendo es el resultado de la militancia neoliberal: esa misma que ahora se radicaliza más a la derecha, e insiste en convencer a la gente que sólo abrazando las premisas neoliberales al ultranza va a pasar algo bueno en algún futuro. Es en los medios donde la izquierda contemporánea no existe. En realidad, está lleno de gente que plantea muchas, muchas ideas transformadoras de las sociedades, y alternativas al neoliberalismo. Y del mismo modo, si bien el mundo vive en crisis, la opinión está polarizada: las elecciones que gana la extrema derecha suelen ser por un margen muy corto (lo cuál indica que la otra mitad de la población quiere otra cosa), y encima suelen no durar más de un período. El neoliberalismo está simplemente sobre-representado en los medios, porque es el espacio de militancia de las empresas, cuyo juego es mantener su centralidad en las sociedades.

    Aunque lo que también sucede es que, cuando gobiernos que se pretenden contrarios a las propuestas neoliberales ganan elecciones, su capacidad de toma de decisión es brutalmente limitada. En primer lugar, los cambios revolucionarios muy rara vez son parte de la propuesta ganadora: la gente vota de manera mayormente conservadora. Al caso se habla frecuentemente de que “votan pensando en sus intereses”, pero esos intereses rara vez no son otra cosa más que la misma alienación que lleva más tarde a votar nuevamente al neoliberalismo: cosas como el valor del salario, o si puede o no acceder a experiencias de consumo vedado, entre lo que tristemente se incluyen cosas como la salud o la educación. A eso se le llama “economía” y no “alienación”, y entonces nadie vota cambios muy radicales qué digamos: las izquierdas marxistas rara vez obtienen gran porcentaje del voto, mientras el liberalismo sigue fantaseando con prometer las mismas promesas por otros 200 años más. Pero por otro lado, existen demasiados puntos de injerencia de poderes sobre los gobiernos, desde lobby y compra de funcionaries hasta sencillos actos mafiosos que aterroricen a las dirigencias y traben cualquier proceso transformador legitimado por la voluntad popular. Así también terminan defraudando los tímidos ciclos keynesianos, que logran enamorar a muches pero no sobrevivir más que algunos pocos años, mientras todos los medios bombardean con la consigna “el problema es el Estado”.

    Los efectos alienantes de la militancia empresarial son a todas luces devastadores, y no pueden ser tomados a la ligera por nadie que analice las sociedades del siglo XXI. Aunque el colmo de la alienación no está en aquellos ejemplos anteriores, sino en algo constantemente siendo ocultado a simple vista. A Adam Smith le fué bien porque detrás de él estaba un movimiento social, cultural, político, filosófico, y técnico, que le daba verosimilitud a sus planteos: estamos hablando de la jóven ciencia. La misma ciencia por la que Marx logró transformar también el pensamiento para siempre, prácticamente dando lugar a la creación de las ciencias sociales. La misma ciencia que dió cobijo a Freud, y a Darwin, y a Wiener. Las ideas revolucionarias, liberadoras, y transformadoras, desde el día cero de la modernidad, fueron las ideas científicas. Ideas que, en su indagación de la realidad, son necesariamente contrarias a los mecanismos alienantes. Y se tratan de ideas que siguen hoy, más que nunca, funcionando con plenitud. Hemos visto en este trabajo, por la vía de la informática, buena parte de la historia reciente de la tecnología, y con ella de unos cuantos avances científicos. Hemos también repasado cómo las sociedades fueron cambiando radicalmente una y otra y otra vez desde el comienzo de la modernidad para acá. Hemos visto, en definitiva, que es la ciencia la verdadera fuerza transformadora. Y de su mano surgieron todas las ideas desalienantes que repasamos, sin perjuicio de su condición ideológica: marxismo y liberalismo le deben su nacimiento y desarrollo a la ciencia. Aunque lo que no hemos visto todavía es un trágico detalle de los últimos siglos, que debemos poner también en foco.

    Hoy cualquier hije de vecine cree que la ciencia es producto del capital, y no al revés. Ponen su admiración y hasta su fé en empresas, que se supone vayan a solucionar nuestros problemas: Amazon, Google, Tesla, Bayer. Cuando buscan soluciones, no buscan ramas de las ingenierías, ni teorías científicas que tengan algo para decir al respecto: buscan productos de consumo. Los proyectos de ciencia y tecnología, investigación y desarrollo, llevados adelante por científiques e ingenieres, se articulan como cualquier trabajo más, como si fueran empresas: sometidos a financiamientos, a rendimientos, a los tiempos y modos del capital. Desde ese contexto se asimila una y otra y otra vez a la economía como disciplina rectora del proceso de toma de decisiones estatal, explicadora de las relaciones humanas, y conocimiento técnico de primer orden: cuando en rigor dice poco sobre ninguna realidad objetiva, tiene mucho de dogmática, y habla de sistemas construidos por nosotres como si fueran fuerzas naturales, todo eso articulado con modelos paupérrimos sobre la humanidad. La ciencia y la tecnología se mueven detrás de un velo cultural que las muestra sometidas a los vaivenes del capital, y bajo las botas del financiamiento y las leyes de patentes como condiciones de posibilidad de realización del trabajo científico, de modo tal que nunca haya alternativas a los intereses del capital. Y esa es, por lejos, la alienación más dañina de todas las que nos están tocando vivir.

    Todo ese gigantezco preámbulo fue para poder plantear lo siguiente: ChatGPT, junto con DALL-E antes de él, y Copilot todavía antes, son herramientas culturales para posicionar a Microsoft en el corazón del ecosistema de la informática, y con ello también de la automatización comercial e industrial, desde donde también tendrá profunda injerencia sobre las telecomunicaciones. Es Microsoft una vez más apropiándose de las infraestructuras con las que hacemos nuestras vidas y forjamos nuestros futuros. Y, si vieron los videos anteriores, a ver si por favor esta vez no idealizan a Microsoft como si hubiera inventado algo, cuando lo único que hizo fué comprar empresas y sobornar a la gente adecuada para quedarse con el trabajo de otres. Microsoft es por lejos el peor enemigo de les obreres y usuaries de la informática, y un cancer que pretende enquistarse en las estructuras sociales e infraestructuras productivas de todos los estados nacionales. Pero el gran problema hoy ni siquiera es ese. El gran, ENORME problema que estamos empezando a vivir, es el hecho de que culturalmente se instalen a los modelos grandes de machine learning como el camino para la gestión de la automatización en las próximas décadas. La creación de modelos grandes necesariamente sólo puede caer en manos de grandes infraestructuras de datos: de las que sólo un puñado de empresas en el mundo disponen, y ningún estado nacional.

    Si me preguntan a mí, ChatGPT va a fracasar miserablemente, especialmente a partir de que Microsoft empiece a calibrar sus funcionalidades de la manera que siempre lo hace: pésimo, y con objetivos diametralmente opuestos a los intereses de les usuaries. Pero aún así no es ningún tema para tomarse a la ligera, especialmente en su dimensión política. Porque culturalmente, el machine learning como lo conocemos es una máquina de centralizar datos. Si a eso se lo tilda de “progreso” o “el futuro”, no tengan ninguna duda de que con o sin Microsoft en el medio las empresas involucradas van a recibir toneladas de dinero en inversiones provenientes de fondos de nula moral y con metas de ganancias rápidas, ese dinero se va a reinvertir mayormente en lobby y publicidad para posicionar a las empresas en el corazón de la gestión de datos a partir de la alta presencia en la sociedad, y va a ser algo articulado en simultáneo en todo el mundo. Y otros fenómenos políticos, económicos, y sociales, muy probablemente vayan a ser sinérgicos con esto: cuando finalmente explote la burbuja de las criptomonedas, muy probablemente toda esa infraestructura va a ser utilizada para machine learning del mismo modo que la burbuja punto com dió lugar a las infraestructura de la web como la conocemos hoy; el capitalismo de plataformas muy probablemente sea sinérgico con un emprendedurismo de inteligencias artificiales construidas sobre servicios de grandes empresas informáticas; el clamor popular por inteligencias artificiales serviles y fáciles de usar probablemente lleve a que los estados terminen implementando esos mismos servicios en su gestión de atención ciudadana; y tantos otros etcéteras más.

    Y si encima realmente logran hacer que por las vías del machine learning se creen inteligencias artificiales suficientemente generalistas, no sólo van a seguir estimulándolo más y más independientemente de sus muchas fallas y limitaciones, sino que estas empresas van a haber logrado un paso en la historia del capitalismo probablemente sin retorno: la apropiación definitiva e irreversible de TODOS los medios de producción. Con esos requisitos de infraestructura y participación social que impone el machine learning con modelos grandes, nunca otras organizaciones van a poder ser capaces de replicar estas tecnologías con la suficiente velocidad y calidad, y entonces nunca van a obtener el beneplácito de las sociedades ya adecuadas a convivir con esa centralización. De modo que difícilmente haya ninguna democracia en ese mundo donde se vote en contra de los intereses de esas empresas, porque se van a sentir como nuestros propios intereses. Y si fantasean con que van a poder tomar por asalto a estas empresas, o que van a poder estatizarlas o ponerlas bajo control obrero o algo así, entonces no estuvieron prestando mucha atención a lo que dijimos sobre automatizar la alienación.

    No les pedimos que tomen estas cosas que decimos como alguna forma de verdad incuestionable. Pero si les pedimos que presten atención al detalle de que, para decir todas estas cosas, nos basamos en la historia y no en nuestros gustos o disgustos. No es eso lo que queremos que suceda: es eso lo que leemos que puede suceder, y sobre lo que pretendemos levantar una alerta.

    En una situación extrema, esto del machine learning tiende al reemplazo de la política por la literal gestión de recursos humanos, como ya se vé a la publicidad reemplazando a la militancia, o a las empresas multinacionales reemplazando a los estados nacionales. En un mundo como ese, como sucede con todos los cambios históricos, va a haber cierta convivencia sin dudas entre los estados y las empresas, y entre el mundo anterior y el entonces actual: pero tampoco va a haber dudas de quién tiene qué poder sobre las sociedades para decidir la dirección del “progreso”. ¿O acaso sorprende a alguien que las mismas empresas que crearon y financiaron OpenAI, en paralelo comenzaron su propia carrera espacial, esta vez privatizada? ¿Se acuerdan cuando la NASA, la agencia nacional aeroespacial estadounidense, era vanguardia tecnológica e ícono sociopolítico? Ni siquiera el Estado de los Estados Unidos escapa de estos fenómenos. ¿Qué creen que va a pasar con nuestros estados nacionales, constantemente debilitados en todos sus frentes?

    Frente a cosas como esas, esta vez el baldazo de agua fría con la inteligencia artificial va a ser para optimistes y pesimistes de ChatGPT en igual medida. Aunque ninguna de las consideraciones alarmistas que mencionamos entre estas conclusiones son ni irreversibles ni necesarias: simplemente se pretenden verosímiles, al menos hasta cierto punto que permita prestarle atención a los peligros culturales de la inteligencia artificial bajo hegemonía neoliberal. Y cuando se piensan estas cosas en todo su conjunto, en lugar de reflexionar sobre las partes por separado, es perfectamente entendible que se den situaciones cercanas a la guerra por cosas más bien frívolas para nuestras vidas como pueden serlo el 5G. Y es también perfectamente entendible que se pretenda estimular con publicidad a las tecnologías que permiten centralizar la cultura, independientemente del currículum o el prontuario de tales tecnologías: no pasan por si andan bien o mal, sino por su horizonte último. Por eso tampoco importan mucho nuestras sagaces observaciones sobre los límites en esas tecnologías, que de una manera u otra después terminan conquistando los corazones de las sociedades. Y ese nos parece el punto donde tenemos que poner un poquito más de atención, muy especialmente cuando hablemos de inteligencia artificial.

    La inteligencia artificial es una absoluta maravilla de la ciencia y la tecnología, y así debe ser entendida y celebrada. Pero tampoco puede ser dejada al arbitrío de fuerzas supremacistas que existen exclusivamente con el objetivo de someter y asimilar cualquier alternativa, incluyendo los estados nacionales, y encima libres de mediar entre las acciones de poblaciones cada vez más alienadas. La forma que tome la inteligencia artificial no puede ser la que beneficie a estas empresas a-nacionales que en la práctica parecen tener más poder sobre las sociedades que la propia organización de las naciones unidas. Y la clave para esto es separar inteligencia artificial de machine learning, así como también los modelos grandes de machine learning de otros modelos más accesibles por organizaciones más pequeñas.

    Por ejemplo, todes parecen estar al tanto de GPT-3 y GPT-4, de OpenAI, gracias a la incansable militancia empresarial. ¿Pero acaso conocen Bloom? ¿Están al tanto de que existen organizaciones haciendo alternativas a las de OpenAI, pero esta vez como software libre y colaborando entre miles de investigadores e investigadoras? Esas alternativas no tienen el respaldo de la militacia empresarial, de modo que van a tener que buscarlas. Pero, además, tienen que aprender a separar la idea de hacer inteligencia artificial a partir de cantidades incognoscibles de datos recopilados, y pensar también en sencillamente modelar nuestra propia inteligencia a partir del trabajo crítico: filosofía, sociología, psicología, antropología, lingüística, política. Es el trabajo intelectual que hacemos desde hace siglos, simplemente aplicado a la automatización. Es mezclar cualquier disciplina con informática, y eso también es inteligencia artificial.

    El conservadurismo como defensa está muy bien, pero no va a durar más de una generación, que encima luego va a ser mal vista por la siguiente: esta generación actual debe tomar las riendas de qué va a suceder con la inteligencia artificial el día de mañana, porque ese mañana ya no está tan lejos: a la velocidad de la historia de la informática como la relatamos en esta tesis, estamos hablando de una cosa de 20 o 10 años. La inteligencia artificial promete cambios revolucionarios, pero se está apurando su instalación en la sociedad como una especie de truco de magia logrado por empresas a las que tenemos que dedicarle nuestra admiración y confianza. Está muy bien llamar la atención sobre eso, pero de poco va a servir si no construimos también alternativas a cualquier cosa que propongan esas empresas, especialmente cuando se trata de telecomunicaciones y realizar nuestras tareas diarias. Por si no se entiende lo que estamos diciendo, seamos más categóricos al respecto: ustedes, querides espectadores, van a tener que cambiar sus hábitos comunicacionales y computacionales, o caso contrario todo lo que hagan va a resultar absolutamente inutil para condicionar en nada a estas empresas. Tienen que usar software alternativo, redes sociales alternativas, herramientas homologadas por referentes tanto tecnológicos como políticos. Tienen que exigir que los estados tengan infraestructuras que les permitan realizar actividades regidas por el voto popular. Tienen que pedir a sus partidos políticos, a sus sindicatos, a sus organizaciones sin fines de lucro, que permitan espacios de interrelación y trabajo por internet que no dependa de las grandes redes sociales ni las grandes empresas sino de infraestructura propia. Tienen que, de hecho, empezar a investigar cómo realizar ustedes sus propias redes entre sus conocides, con software que no controlen otres más que ustedes mismes. Todas estas cosas no son ninguna fantasía: existen, son perfectamente posibles. Pero son cambios de hábitos que divergen radicalmente con los comportamientos que van a proponer Twitter, Facebook, Amazon, Instagram, Mercado Libre, Tik Tok, Google, y ninguna de esas que aparezca la semana que viene, o que el mes que viene termine comprando Microsoft. Esa es la manera de apropiarse de los medios de producción en el siglo XXI: al menos, de los medios de producción de discursos, y por lo tanto de ideas.

    El software es político. Internet es política. Las redes sociales son políticas. La inteligencia artificial es política. Nuestras vidas están mediadas por esas herramientas que desde el día cero existen en relación a nuestro trabajo, en relación a nuestras interacciones con otres, y en relación a nuestra comprensión del mundo. Nunca fué de otra manera, y nada de eso cambia con la inteligencia artificial. Del mismo modo que Marx y sus descendientes pusieron énfasis en la conciencia de clase en relación al trabajo, la sociedad, y la economía, hoy tienen que también tomar conciencia de la dimensión política de la informática: disciplina que por lejos sobrepasa los alcances de la economía y la estadística. Hoy la economía es informática, la estadística es informática. Y tanto alcance tiene la informática, que la inteligencia misma, aquel atributo sagrado del ser humano, está empezando también a ser informática. Y de la mano de la conciencia informática, viene también una conciencia de la complejidad, que responda a las sobresimplificaciones a las que sistemáticamente nos vemos expuestes la actualidad.

    Las llamadas “interfaces de usuario”, de las que cosas como videojuegos son vanguardia y por las que cosas como los sistemas operativos pueden terminar siendo un éxito o un fracaso, son un caso particular de “interfaces”, que significa “vínculo entre componentes de un sistema”. Cada pequeño software que alguna vez usaron, cada herramienta de trabajo y video-juego y aparatito con el que se comunicaban con otres, fue siempre un experimento vinculado a nuestras actividades y cómo nos relacionamos con ellas: cómo entendemos nuestros quehaceres, cómo metaforizamos nuestras acciones sobre el mundo, como explotar o restringir eso. Las redes sociales son otro experimento más en esa larga línea. Y presten atención a cómo desde el advenimiento de los teléfonos móviles con pantalla táctil las interfaces de usuario cada vez se pretenden más, y más, y más simples. Leer y escribir casi que está mal visto a esta altura, así como todo lo que no se mida en segundos como máximo. Twitter es un éxito simplemente permitiendo escribir poco y viralizar reacciones; Facebook tuvo que pasar por procesos burocráticos internos muy laboriosos para algo tan sencillo como permitir alguna reacción que no sea simplemente “me gusta”; youtube no muestra ya los “no me gusta”, porque eso tiene consecuencias sociales indeseadas para la empresa; los videos de tik-tok o de youtube shorts, para beneficio de aparentemente nadie, no permiten utilizar la barra de tiempo que cualquier reproductor multimedia siempre tuvo disponible, pero que las nuevas generaciones de usuaries pueden bien no conocer el día de mañana. Tienen que tomar conciencia de cómo esas cosas necesariamente limitan sus alternativas de interacciones, con la información y con otres. Tienen que cuestionar esos detalles, y en base a sus cuestionamientos idear cuáles deberían ser las interacciones adecuadas para una sociedad que se comporte de otras maneras.

    Y las alternativas no necesitan ser un éxito, ni comercial ni popular: necesitan existir. La historia de la inteligencia artificial está llena de “fracasos” que llevaron a “inviernos”, pero eso sólo fué así en las métricas de financistas evaluando qué hacer con su dinero: la historia de la inteligencia artificial, dentro del ecosistema más general de la informática, dió saltos enormes en pocas décadas, y permitió éxitos espectaculares que hoy nos llevan a cuestionar hasta dónde puede llegar. ¿Dónde está el fracaso en eso? ¿Dónde está ese invierno hoy? Ambos prácticamente en el olvido o en lo anecdótico, porque así es como se dan las cosas en la historia: nuestros actos dan lugar a actos futuros de generaciones futuras. Similar fué la historia del proyecto GNU, que no pasa un día sin recibir desvalorizaciones de todo tipo pero mientras tanto domina el trabajo en los datacenters de todo el mundo, del mismo modo que Linux es el kernel que más se utiliza en todo el planeta y en todo tipo de dispositivos: pero como la gente sigue usando Windows, entonces se supone que haya sido alguna forma de fracaso. Esa lógica financista y marketinera del capital es alienante, debe ser interpretada como alienante, debe ser criticada: nuestras experiencias e ideas son valiosas, y los fracasos son evaluaciones muy contextuales de contingencias históricas en un contínuo que no se termina.

    Alguien dijo una vez que estábamos en la era de la información: aquí nos permitimos entonces pensar si no es momento de desarrollar nuevos sistemas políticos, sociales, y económicos, con la informática como disciplina de referencia en lugar de la economía. Es, de hecho, lo que está sucediendo en la práctica con el crecimiento de las grandes empresas informáticas y su apropiación de la mediación de todos los aspectos de la vida cotidiana. Y es que no tiene nada de nuevo: son las mismas ideas que llegaba a ver Norbert Wiener en 1948 cuando planteaba a la Cibernética. Él ya vió que la dimensión interdisciplinaria de la Cibernética permitía unificar conceptos para hablar de neuronas o de sistemas solares indistintamente. Él ya vió cómo la gestión de la información es la condición de posibilidad del control de cualquier sistema. Y cuando hablamos de él, en realidad hablamos de muches que comprendieron las mismas cosas ya desde su época.

    Cuando Wiener planteó la Cibernética, etimológicamente la basó en la palabra griega Kybernetes, o Kubernetes, dependiendo la pronunciación y traducción. Es una palabra que describe la acción de manejar el timón de un barco, y que se traduce más o menos indistintamente como “timonear” o “gobernar”. La Cibernética nace, precisamente, reflexionando sobre formas de gobierno de diferentes sistemas. No debería sorprender a nadie que eso termine articulando sistemas de gobierno como Cybersin, que pretendía involucrar en la gestión estatal herramientas que décadas más tarde implementaron las redes sociales y los sistemas de venta online; y eso sucedió con socialismo democrático, un concepto considerado oximorón tanto por capitalistas como por revolucionaries marxistas. Hoy, de hecho, el sistema actual de orquestamiento de Google para controlar datacenters, sucesor de Google Borg, se llama precisamente Kubernetes: que en su documentación tiene el mismo relato etimológico que Wiener planteara en aquel libro de 1948, pero sin embargo no hay una sola mención a él ni a la cibernética que yo haya podido encontrar en la documentación online. ¿Qué creen ustedes? ¿Acaso Google no sabe buscar referencias en internet? Es casi como si Google hubiera preferido tampoco querer quedar pegado a la historia de la Cibernética, del mismo modo que sucedió antes con la gente de inteligencia artificial. Pero tanto Borg como Kubernetes, los sistemas de gestión planetaria de Google, directamente refieren a Cibernética. ¿Necesitan seguir probando si la Cibernética funciona? ¿O nos ponemos a hablar de “fracaso” porque a Allende lo derrocaron?

    Y ahora que hablamos de Google, cabe también una nota sobre las empresas. El discurso de esta tesis tiene un claro sesgo antiempresa, pero en realidad las empresas son una forma de organización legítima, y les empresaries son también gente decente y preocupada por la sociedad: que haya empresas como Microsoft no quiere decir que todas las empresas sean como Microsoft. En otra época del mundo, “empresa” era sinónimo de “proyecto”. Les empresaries, de hecho, suelen ser gente muy bien formada y muy dedicada: la clase de líderes que necesita cualquier organización más o menos sofisticada. El problema por supuesto es la orientación ideológica detrás de esa formación, que dá lugar luego a los horizontes de acción política que ya conocemos: o “generar capital”, o la nada misma. Pero definitivamente cualquier cambio que venga de la mano de la ingeligencia artificial va a requerir que les empresaries presten atención y hasta alcen la voz: si bien les empresaries son minorías, y no precisamente de aquellas típicamente sometidas, su conocimiento de las relaciones sociales y humanas en lo que respecta a producción e intercambio no es ni trivial ni menor, y no podemos hablar de desalienar tapándonos los ojos y oidos a eso.

    Y hablando de minorías y desalienación, además de prestar atención a los criterios de “éxito” o “fracaso” con los que se evalúan las acciones políticas y científicas, estamos en una época donde muchas militancias han logrado corpus teóricos y experienciales que abren muchas puertas a sociedades alternativas pensables. Nuevamente, aquí pusimos foco en el gremio informático y muchos de los problemas que lo atraviezan, pero las crisis sociales y políticas actuales no están solamente mediadas por los fenómenos informáticos. Especialmente, la crisis de legitimidad neoliberal gracias a su premisa de ausencia de alternativas, hace chocar al neoliberalismo con muchos movimientos heterogéneos. Los feminismos plantean nuevas formas de relacionarse entre las personas, a partir de su estudio de los sometimientos a los que las mujeres han debido de adecuarse históricamente para sobrevivir, y allí encontramos argumentos que cuestionan régimen laboral o teoría del valor, dando entonces lugar a legítimos planteos de nuevos sistemas sociales construidos sobre principios diferentes a los del capital. El feminismo a su vez frecuentemente tiene mucha sinergia con otros movimientos, como el neurodivergente: donde este último expone cómo los regímenes de competencia, inteligencia, y exigencia cognitiva, someten a millones de personas en el planeta de manera más bien dogmática, desde el feminismo surge la ética del cuidado que revaloriza otras tareas y relaciones sociales que no pasan por la lógica del capital. Lo mismo sucede con el ambientalismo, cuestionando la relación con el ecosistema, que tiene mucha sinergia con la relación crítica interespecies que plantea el veganismo: críticas incisivas a los sistemas de producción y consumo, que exigen sistemas basados en principios diferentes a los del capital. En la informática, el software libre critica los diferentes mecanismos detrás del conjunto de cosas llamado “propiedad intelectual”, criticando efectivamente así la propiedad privada de los medios de producción y a las barreras sobre el conocimiento científico, en una expecie de híbrido entre marxismo y liberalismo que, encima, surge de mezclar informática con ética en los laboratorios de Inteligencia Artificial del MIT: cualquiera podría apostar a que tal engendro está condenado a la más absoluta marginalidad, y sin embargo aquí estamos, repasando su centralidad en la actualidad y sus éxitos. ¿Cuántos movimientos más hay que no nos llegan porque no tienen publicidad? Pueblos originarios, anticolonialismos, antiracismos, movimientos gremiales de todo tipo, legalismos, cientificismos, movimientos vinculados al arte… ¿Van dimensionando la cantidad de alternativas que realmente hay dando vueltas, a miles de problemas, aunque desde la publicidad se diga que no hay ninguna?

    El trabajo a realizar es encontrar maneras de articular todo eso. El trabajo es buscar en la actualidad y en la historia: como en esta tesis trajimos a la Cibernética para reflexionar sobre la inteligencia artificial, otres van a ir a buscar a trabajos, referentes, ideas, que hoy nos vayan a permitir pensar cómo transformar la realidad. La clave va a ser siempre desalienar. Y la herramienta desalienante por excelencia es la ciencia: pensamiento crítico aplicado al análisis de cómo funciona una realidad que excede siempre a nuestras subjetividades, y que a su vez las nutre y condiciona. Desde allí creamos realidades alternativas posibles que nos permitan organizarnos para transformar la realidad actual que nos toca vivir. Y, planteado de esa manera, la diferencia entre ciencia y política es nula. Pero viviendo en un mundo donde se supone que no hay alternativa, crear alternativas es exactamente una de las tareas más importantes y urgentes.

    Y nadie está nunca desalienade, no completamente: no existe un conocimiento definitivo, último, final, que simplemente se conoce o se desconoce. Todes tenemos una visión fragmentada de la realidad, y así va a ser mientras seamos seres humanos. Cualquiera que plantee conocer la respuesta definitiva a los problemas de la sociedad, miente en principio, y probablemente también se mienta a sí misme. Las cosas que se dicen en esta tesis deben ser también ser discutidas.

    Pero la trampa histórica de la fantasía cientificista desalienante es que requiere un tiempo infinito, que no tenemos. No podemos ponernos a discutir absolutamente todo, leyendo y escuchando y considerando absolutamente todo, porque tenemos una vida cuyas condiciones de sustentabilidad no lo permiten, y porque los temas nos exceden enormemente. Siempre vamos a necesitar creer en algo, en alguien. Siempre vamos a poner foco en alguna que otra particularidad de la realidad que nosotres consideremos suficientemente significativa como para accionar sobre ello. Como aquí nos importan la epistemología, y la política, y la emocionalidad, y la cultura, entonces pusimos foco en la alienación cuando hablamos de impacto de la inteligencia artificial en la sociedad. Y como yo particularmente soy trabajador de la informática, me pareció que parte de la historia reciente de esa disciplina podía ser una base sobre la cuál pensar efectos posibles sobre la sociedad, además de ser la actualidad de la inteligencia artificial una oportunidad para realizar un ejercicio de divulgación. Pero estas son apenas algunas pocas aristas del tema, y van a haber muchas otras. Eso es normal, eso está bien. Está bien incluso ser conservador o conservadora al respecto de estos temas: está bien hacer lecturas desde un lente liberal o marxista, está bien incluso cosas como defender al capitalismo o criticar a la democracia. Esas posturas no son un problema. El problema, en todo caso, es cuando no se reconoce la acriticidad de las mismas: cuando dejamos de reconocer que en alguna medida estamos apostando a lo que confiamos, dejamos de darnos cuenta que en realidad estamos creyendo en algo, y entonces nos convencemos de que tenemos un conocimiento verdadero y revelado que debe ser impuesto. Porque una cosa es que estemos obligados por nuestra materialidad a siempre creer en algo, pero otra cosa muy diferente es que terminemos ejerciendo supremacismos ideológicos.

    Todo esto es pertinente al tema de la inteligencia artificial, porque precisamente la inteligencia artificial nos permite extender nuestro trabajo intelectual a nuevos límites que todavía no veo se perciban en la sociedad general. Estamos muy cerca de lograr cosas como las que hacía Tony Stark en la película: pero en lugar de ponernos a hacer cosas de superhéroes, nos ponemos a automatizar nuestro trabajo intelectual de búsqueda de fuentes, recopilación y comparación de opiniones, construcción de modelos teóricos, y creación de alternativas que permitan resolver los problemas sobre los que nos concentremos. Ya tienen experimentos funcionales: ya pueden ver a ChatGPT respondiendo sobre cualquier tema, o a Copilot escribiendo código a partir de su descripción. ¿Acaso creen que faltan cientos de años para poder preguntarle a una inteligencia artificial cosas más sofisticadas, y que nos respondan con mejor calidad?

    La inteligencia artificial es el camino para superar nuestro régimen laboral sometedor, nuestras limitaciones espacio-temporales intelectuales, nuestros límites para construir sociedades diferentes contemplando toda la extrema complejidad a la que nos enfrentamos. Es, perfectamente, el camino hacia un mundo diferente y mejor. Si algún día logramos bajarle la velocidad al tren de la historia, o siquiera controlar su dirección, muy probablemente vaya a depender de apropiarnos de esto.

    Lamentablemente, los modelos grandes de machine learning requieren de centralización masiva de datos, y al respecto de eso estamos en el peor de los mundos: neoliberalismo hegemónico en decadencia. Si la inteligencia artificial va a ser o no utilizada para revitalizar y sostener al neoliberalismo, es algo que nos excede: aunque ciertamente nos parece un peligro muy verosimil, y tristemente inminente. Y por eso les pedimos que se involucren, que aprendan, que se apropien de la inteligencia artificial, creando y usando las suyas propias que funcionen bajo su control, en lugar de y dándole la espalda a las que propongan empresas como OpenAI. La gente de mi generación, quienes en este momento estamos en la adultez, muy probablente seamos una generación visagra, y es absolutamente crítico intentar intervenir en lo que vaya a ser la herencia de las siguientes generaciones: si la inteligencia artificial llega a ser siquiera una partecita minúscula de lo que creemos que puede ser, el mundo se va a transformar muy rápido una vez más, el tren de la historia va a pegar otra curva muy inclinada, y muchísima gente va a salir volando.

    Dediquen su tiempo a otra cosa que no sean las propuestas de las redes y medios neoliberales. Aprendan a entretenerse aprendiendo, reflexionando, ejercitando su capacidad crítica. Armen otros vínculos que no sean los que proponen esas interfases entre sistemas y entre personas, piensen sus propias interfases y sus propios sistemas.

    Y presten atención a los detalles. ¿Cómo es eso de que las GPUs sirven para inteligencia artificial general? ¿No eran acaso para acelerar tareas sobre matrices? ¿Quiere eso decir que la inteligencia artificial son modelizaciones de problemas y datos en matrices? ¿O sea que si encuentro la manera de hacer eso vinculado a los datos que me interese trabajar, puedo usar la GPU de mi computadora para hacer mis propios modelos de machine learning?

    ¿Por qué las GPUs no son un tema del que se hable en las tapas de los diarios entonces? De hecho, en toda mi vida, no estoy seguro de si escuché una sola vez en los medios alguna discusión sobre cómo se fabrican semiconductores. ¿Ustedes discuten eso con sus amigues? ¿Es un tema frecuente de discusión? Porque desde hace como 50 años casi toda infraestructura de todas las áreas de la praxis humana depende de la fabricación de semiconductores. ¿Saben cuántas fábricas importantes hay de semiconductores? ¿Saben cuántas empresas? Se supone que los semiconductores se hacen con silicio, que a su vez se supone que es básicamente arena. Y todos los paises tienen arena. ¿Cómo es entonces que no tenemos fábricas de semiconductores en todos los paises? ¿Cómo es que no tenemos todes revoluciones tecnológicas como las que se vivieron en Estados Unidos, Japón, o China? ¿En la cabeza de quién entra que ese no sea un tema de actualidad en un mundo donde constantemente nos bombardean con la idea de “economía del conocimiento”? Es casi como si todos los paises del mundo hubieran tirado la toalla en esa discusión. ¿Nosotres tiramos la toalla en esa discusión, o ni siquiera la empezamos?

    Fíjense como preguntas muy sencillas dan rápidamente entrada a la dimensión política de la informática. Fíjense cómo no es necesario un gran trabajo intelectual para encontrar grietas en la propaganda. Ese es el camino para encontrar las alternativas que muches dicen que no existen.

    Pero con todo esto anotado, finalmente cerramos esta corta tesis aunque larguísimo video para los estándares de consumo actuales, con el siguiente consejo. No importa si sos neoliberal o revolucionarie marxista, no importa si sos de derecha o izquierda, si sos obrere o empresarie, si tenés mucho o poco dinero, el color de tu piel y su relación con tu sociedad, si vivís en un país del primer o del tercer mundo, si tu cuerpo se adapta a los estándares hegemónicos de belleza de tu tiempo, cómo te lleves con otras especies, qué pienses del medio ambiente o hagas al respecto, qué relación tengas con la política, con el arte, con la cultura, con la ciencia, no importa quién seas ni quién quieras ser, no importa si pensás que la inteligencia artificial es una moda pasajera o el fín de una época, no importa tampoco si creés que esto termina bien o termina mal, no importa si tenés o no esperanza en el futuro de la humanidad o si lo ves con pesimismo. Cualquiera sea tu caso, el consejo es el mismo: nunca subestimes a la historia.