Archive for the Proyectos Category

La virtud de los desalmados

| September 7th, 2023

    Violencia política.

    Esta peste se está apropiando de nuestra región cada vez con más fuerza, y en esta oportunidad ya nadie le puede echar la culpa ni a las guerrillas comunistas ni a la corrupción populista: gobiernos de derecha dan lugar a democracias cada vez más débiles, y cada vez más permeables por las organizaciones narco.

    En simultaneo, de los pueblos oprimidos brota una reacción tan entendible como desesperada, que es votar a las opciones más agresivas y rupturistas disponibles: como cachetazo y grito de protesta hacia las estructuras de la política históricamente establecida, que no vienen logrando hacer nada al respecto de los problemas populares. Pero para sorpresa de muches, ese rupturiusmo casi inevitablemente se propone por derecha, aún con el vasto registro de instancias fallidas de lo mismo, y con el historial intachable de las derecha ejerciendo poder político en contra de los intereses populares.

    Nosotres tenemos algunas cosas para reflexionar al respecto, como siempre mezclando temas de la cultura popular con algunas ideas científicas y nuestras propias teorías agregadas a los análisis. De modo que sin más preámbulos arrancamos con este nuevo trabajo, titulado: “la virtud de los desalmados”.

    

Introducción

    En el año 2019, el canal de youtube “Just Write”, que se dedica mayormente al análisis literario y mediático, publicó un video hablando sobre una ola de videojuegos donde los personajes principales eran padres, y la paternidad era un tema central en esas historias.

    A ese fenómeno se lo llamó “the daddening”, y entre otras razones se especulaba que estuviera determinado por la edad de tanto creadores de videojuegos como jugadores. Esa ola arrancó mayormente en la década pasada, cuando mi generación, la primer generación canónicamente “gamer”, ya tenía cumplidos unos 30 años.

    Antes de eso, los juegos que escenificaban varones solían mostrar personajes hiperviolentos, hipermasculinizados, e hiperpoderosos, operando como lo que llamaron “power fantasies”, o “fantasía de poder” en español. En líneas generales, la histórica cuestión de “la violencia en los videojuegos” estaba más notoria e iconónicamente en esas power fantasies.

    Pero si bien siempre hubo variedad en los videojuegos, en la década pasada aparecieron un montón donde los personajes pasaban a ser mucho más maduros emocionalmente, así como también las historias más complejas y humanas.

    Les recomendamos ese video, que de alguna manera es precursor del actual, y de hecho puede ser muy interesante; pueden encontrar el link en la descripción.

    Just Write mencionó muchos juegos, pero tomó por aquel entonces dos ejemplos característicos para analizar y contrastar. Nosotres aquí hacemos una operación similar, con dos de los juegos que formaron parte del “daddening”, aunque nosotres lo haremos con lecturas y objetivos muy diferentes a los de aquel canal.

    Pero además, ambos van a ser a su vez interpelados por otra obra, esta última ya no de ficción, que utilizaremos como nexo con nuestra realidad histórica para hablar sobre la realidad actual.

    De modo que ya mismo les advertimos: este video está lleno de spoilers sobre la saga God of War y The Last of Us. Y en las lecturas que hagamos sobre ambos trabajos va a tener algún lugar la paternidad, pero nosotros nos vamos a concentrar más bien en las cosas que dicen sobre la violencia.

    Y corresponde también una advertencia mucho más importante. Atención que en este video vemos temas muy intensos, incluyendo diferentes situaciones extremadamente traumáticas. No ahondamos en pormenores morbosos, pero tampoco esquivamos mostrar escenas violentas o hablar de temas sensibles relacionados a ellas, como pueden serlo homicidios o suicidios. De modo que deben tener cuidado con este video si acaso son personas a las que temas violentos puedan generarles algún daño emocional.

    Por lo demás, este trabajo es un sólo video largo, pero está separado en partes a las que pueden saltar directamente desde la descripción, de modo tal que no necesiten verlo de corrido. Las primeras dos partes van a ser una presentación de God of War y The Last of Us. En la tercer parte presentamos el trabajo de no-ficción con el que también vamos a trabajar, y contamos su historia. Luego en la cuarta parte exploramos vínculos entre los tres trabajos, y recién en la quinta parte planteamos nuestra tesis ya con todo lo anterior previamente considerado. Recién en la sexta parte dejamos nuestras conclusiones sobre cómo esto se relaciona con cuestiones de actualidad.

    

Parte 1: por dios

    El primer trabajo a presentar es una franquicia de video juegos. God of War relata la vida de Kratos, un espartano de la era de los mitos, con una historia de desesperación, resentimiento, y violencia, a niveles que sólo dioses pueden llegar a experimentar.

    Esta franquicia data de la época de la Playstation 2, allá por el 2005, y desde sus orígenes era muy celebrada por su dinámica de juego y su avanzada tecnología visual.

    Francamente yo nunca tuve un contacto felíz con esta franquicia: me parecía muy poco más que otra manera de explotar violencia en videojuegos. Era básicamente lo que Just Write llamó “power fantasy”. En esta oportunidad une encarnaba a un guerrero superpoderoso y superhábil, poco menos que una máquina de matar, que a los hachazos y espadazos se abría camino por campos de batalla y derrotaba a criaturas legendarias con igual pericia.

    Y es que la saga también tenía desde el principio cierto encanto de estar paseando por la mitología griega, la cual ya de por sí abundaba en todo tipo de violencias, aunque esta vez relatado casi en clave “noir”, con un cinismo y acumulación de desgracias que le daban mucha identidad.

    Y así, Kratos, el antihéroe de este relato, resultaba tener una capacidad inusitada para la violencia, la cuál estaba siempre justificada contra un universo maltratador e injusto que sólo le ofrecía sometimiento y desdicha, tal vez con el único bálsamo de la gloria en la conquista militar.

    Esta vida mayormente sin sentido, recién se vería aliviada y resignificada cuando, entre batalla y batalla, Kratos formara una familia con su esposa Lysandra y su hija Calliope.

    La historia de Kratos es trágica desde antes de su nacimiento. Exageradamente trágica, me atrevería a decir. Cansadoramente trágica. Extendieron el concepto de “tragedia griega” hasta lo absurdo.

    Su madre tuvo que escapar con él cuando era muy niño porque sino los iban a matar, fué a parar a la brutal agogé donde ya desde niño debió aprender a sobrevivir, terminó siendo soldado y haciendo de los horrores de la guerra su rutina cotidiana, y todo siempre con un característico ceño fruncido y vengativo que aparentemente mantiene desde su infancia.

    Pero más allá de las muchas injusticias y padecimientos que le tocaron vivir a Kratos, se supone que hay una situación trágica peor que las demás, LA tragedia de Kratos: sucedió que, un día, peleando al servicio de Ares, sin saberlo, Kratos asesinó a su propia esposa e hija. Y ese evento, lejos de ser un accidente, fue un gravísimo error que cometieron los dioses de ese mundo ficcional, quienes prontamente lo pagarían muy caro.

    Después de aquel evento, Kratos queda básicamente en un estado cuasi-psicótico de shock, y por esas cosas de las moiras se entera que la muerte de su familia en realidad fue un evento planificado por Ares, el dios de la guerra. A partir de ese momento, Kratos inicia un camino de venganza y destrucción: primero contra Ares, pero finalmente contra el panteón entero del Olimpo, con Zeus a la cabeza.

    Toda esa historia se narra en tres juegos principales (God of War uno, dos, y tres), y algún que otro juego intercalado entre medio para agregar eventos al relato.

    Relato que, finalmente, termina con Kratos derrotando y matando a todos los dioses de manera brutal. Lo cuál a su vez da lugar a la destrucción del mundo helénico, porque los dioses efectivamente encarnaban diferentes aspectos del mismo.

    Y frente a las consecuencias de sus actos, tomando conciencia de que se había convertido en un monstruo y negándose a tomar el lugar de los dioses, decide suicidarse.

    Hay un montón de detalles vinculados a las decisiones que toma en esa aventura, incluido el suicidio, pero son francamente muchos y no vienen al caso de gran cosa: lo que nos interesa saber de momento es que la historia es brutal, horrible, extremadamente violenta, y termina muy mal. Fín.

    (silencio)

    Excepto que no termina ahí. Como frecuentemente sucede con las franquicias, alguien invirtió en esa propiedad intelectual y entonces en el 2018 continuaron la historia de Kratos, quien lógicamente sobrevivió a su intento de suicidio.

    Pero esta vez el tono del relato fue muy diferente, y dió lugar a un trabajo universalmente aclamado y hasta reconocido como obra maestra: la historia pasó a ser atrapante y conmovedora, Kratos se convirtió en un personaje sofisticado con el que se podía empatizar, los temas fueron tratados con notable madurez emocional y cuidado estético, todo eso dando lugar a una obra bellísima salida del lugar menos pensado.

    La historia de Kratos continuó años pasada la destrucción del Olimpo y de la Grecia mitológica. Él ahora vive en un bosque de tundra, alejado de pueblos y ciudades, en una cabaña donde formó una nueva familia con su segunda esposa Faye y su hijo Atreus. Y el relato comienza cuando Kratos, triste y solitario, está recolectando mediante tala una serie de árboles seleccionados para una pira funeraria, porque su esposa había fallecido.

    El juego comienza entonces mostrando de a poco la relación entre Kratos y su hijo, y la misión del juego es cumplir con el pedido de Faye antes de morir: liberar sus cenizas en la cima de la montaña más alta de ese mundo.

    En ese viaje se descubren muchos misterios, tanto de la vida de Faye como del mundo en sí, pero fundamentalmente es un viaje de crecimiento donde se explora la paternidad de Kratos, toda la angustia y horror de su historia con la que vive aterrado de terminar transmitiéndole a su hijo, y cómo este último vá creciendo e indagando sobre sus propias inquietudes acerca de la vida. El juego termina, luego de una larga peregrinación, en una escena conmovedora donde Kratos y su hijo finalmente llegan a la cima de la montaña, liberan las cenizas al viento, y se despiden de Faye.

    Pero esa es solo la mitad de la historia. Sucede que Faye y ese mundo tenían sus propias cuestiones sin terminar, de las que Kratos y Atreus ahora formaban parte. Se trataba del mundo de la mitología nórdica, con el panteón de Asgard encabezado por Odín, y Faye era una gigante.

    Muy pronto luego de la muerte de Faye, Kratos y Atreus son visitados por alguien del panteón de Odín y con intenciones asesinas. Y muchos detalles mediante, en su largo viaje padre e hijo aprenden la complicada historia de Asgard, la guerra pasada entre dioses y gigantes, y la inminente profecía de Ragnarok: otro fín del mundo, en el que Kratos se veía nuevamente involucrado, esta vez ya muy contra su volutad y sin ninguna intención de tener nada qué ver con ello.

    Precisamente, esta historia se relata en dos juegos, el último lanzado a finales del 2022, y se llamó “God of War: Ragnarok”. En esa segunda parte, Kratos finalmente forma parte del Ragnarok, dando lugar a otra batalla a muerte contra un panteón entero: pero esta vez como general, defensor, teórico de la guerra, y padre; peleando contra las injusticias de Odín tal y como antes lo hiciera contra Zeus, pero ahora para que las generaciones futuras de dioses y gigantes nórdicos tuvieran una oportunidad de vivir en paz. Y no sólo eso, sino que esta vez lo acompañaban les que defendía, que ya eran sus compañeres de vida, y hasta le pidieron que fuera su general: Kratos ya no estaba sólo, ni alienado de su mundo.

    Toda la historia nórdica de Kratos es conmovedora, inspiradora, y brillantemente relatada.

    Los paralelismos con su historia previa en Esparta y Olimpo son muchos, y parte de su viaje es aprender a resignificar todo aquello de modo tal que pueda ser vivido: aprender a vivir con ello. La cara de Kratos esta vez muestra emociones, él mismo expresa rangos emocionales mucho más amplios que en la saga griega. Y las tragedias en su vida esta vez tienen algún sentido, representan cosas, nos interpelan. Los demás personajes son igualmente delicados y significativos.

    Y nada de esto actúa en detrimento de que el juego sea efectivamente “de acción”, y por lo tanto muestre su cuota evidente y necesaria de constante violencia. Kratos sigue siendo un avatar de la violencia: pero ya no es una máquina de matar, sino un ser sensible con el que se puede empatizar, y alguien experimentado de quien se puede aprender.

    

Parte 2: cenizas quedan

    El segundo trabajo que presentamos es otra franquicia de videojuegos, aunque mucho más corta que la anterior, y mucho más cercana a nuestra realidad: ya no se trata de mundos remotos y mitológicos, sino que se ubica en el comienzo de nuestro siglo XXI. Y tanto más cercana a la realidad actual es, que prontamente fué adaptada también como serie de televisión.

    El juego en principio era uno más “de zombies” en una larga lista de juegos “de zombies”, que por aquel entonces estaban de moda. Pero resultó ser uno muy especial, no sólo por su calidad tecnológica sino también artística.

    The Last of Us cuenta la historia de Joel, un carpintero divorciado que vivía con su hija en Texas. De jovencito amaba tocar la guitarra y soñaba con ser cantante, pero se casó muy jóven y pronto se convirtió en padre, frente a lo cuál abandonó sus proyectos personales para dedicarse a los cuidados de su hija. Su vida era laboriosa y económicamente difícil, pero de una manera u otra lograba hacerse algo de tiempo para ser un padre presente, compañero, y amoroso.

    Pero en el año 2013, padre e hija debieron vivir los traumáticos eventos del brote mundial de una extraña pandemia que volvía a la gente salvaje, agresiva, y asesina.

    Se trataba de un hongo, que residía en el cerebro, y desde allí pasaba a controlar a su huesped: una mutación del cordyceps, el famoso hongo que en nuestro mundo real sabe volver zombies a algunos insectos.

    Esta mutación volvía zombies a los humanos, y se esparció por todo el planeta muy rápidamente, desactivando por completo a la civilización humana moderna en cuestión de semanas.

    Esa noche, Joel, su hermano Tommy, y su hija Sarah, lucharon por sobrevivir en medio de un ataque de hordas zombies y una estampida descontrolada de gente escapando por su vida. Los aviones se caian del cielo, los incendios y tumultos se apoderaban de cualquier paisaje, ningún lugar parecía seguro, y eso no mejoró exactamente cuando se involucró el ejército a poner orden, que encima en ese momento todavía no tenía ni un diagnóstico del problema ni un protocolo a seguir.

    Y así fue que, durante el escape de esa situación pesadillezca, Joel carga a una Sarah herida en sus brazos, y es interpelado por un soldado que recibe órdenes de matar a cualquier sospechoso de estar infectado. El soldado dispara su rifle semiautomático, y Joel se tira al piso junto con Sarah tratando de protegerla. Tommy interviene y los salva, asesinando al soldado. Pero cuando revisan si están bien, encuentran a Sarah con problemas para respirar y hablar: había sido alcanzada por un disparo, y se ahogaba en su propia sangre. Murió sufriendo, desesperada, aterrada, y frente a los ojos de su padre que no pudo hacer nada para salvarla.

    Veinte años más tarde, en el 2033, Joel vive en una zona de cuarentena militarizada, en un mundo destruido que jamás encontró ni cura ni solución para la pandemia de cordyceps. Los zombies merodean por las ruinas del viejo mundo, y no existe ningún lugar realmente seguro.

    En ese mundo, Joel es un tipo frío, duro, que se identifica como sobreviviente y trabaja mayormente como contrabandista, realizando todo tipo de tareas deshumanizantes con la mayor naturalidad. Es una especie de matón independiente, que no parece tenerle miedo a nada, pero tampoco se mete en ninguna aventura idealista ni fantasiosa: un tipo con los piés en la tierra, en una tierra hostil y despiadada.

    Ese mundo ya no tenía un estado nacional formal, pero de una manera u otra había algo así como un “ejército de los Estados Unidos” que hacía las veces de soberano, imponiendo su ley marcial sobre las zonas de cuarentena.

    Y en respuesta a ello, surgieron diferentes grupos organizados de protesta, incluyendo grupos armados, que exigían volver a otras formas de organización más democráticas. Uno de esos grupos armados eran las Fireflies, o luciérnagas en español, que consistían básicamente en una organización guerrillera revolucionaria, libertaria, y clandestina.

    Joel era impermeable a los principios idealistas de las fireflies, y veía con malos ojos a sus actividades porque además de idealistas eran siempre muy peligrosas, aunque de vez en cuando podía realizar tareas de contrabando para ellos. Y fué precisamente en uno de esos trabajos de contrabando que se inicia el nudo de esta historia.

    Sucedió que las fireflies estaban apostando toda su operación, y perdiendo, a una misión importante y urgente: realizar una migración desde Boston hasta Salt Lake City, unos 3800 kilómetros, llevando con ellos una carga. Finalmente esa operación se vé seriamente comprometida, y es así que las fireflies le piden a Joel como medida desesperada que lleve adelante parte de la misión: apenas llevar la carga por un tramo corto del viaje.

    Y “la carga” resultó ser una jóven adolescente, llamada Ellie.

    Joel aceptó a regañadientes, en parte por favores adeudados y en parte por una oferta que valía la pena.

    El plan era simplemente acompañar a Ellie hasta un sitio controlado por las fireflies fuera de la zona de cuarentena, de modo tal que no la capture el ejército. Y para ello era necesario atravesar sitios peligrosos: a veces controlados por el ejército mismo, y otras veces sencillamente zonas de nadie repletas de zombies.

    Así comienzan un incómodo viaje donde el caracter de Joel y Ellie choca constantemente y deben aprender a convivir para sobrevivir. Ellie no era una prisionera, de modo que era extraño que las fireflies la consideraran tan importante: aunque a Joel no le interesaban mucho los detalles, y le mintieron diciéndole que se trataba de alguna cuestión personal de la lider firefly, con la cuál era suficiente explicación.

    Pero pronto surgió a la luz la verdad, cuando Joel pudo ver que Ellie tenía una marca de infección de cordyceps en su cuerpo. Normalmente, esa marca significa la zombificación en cuestión de horas, pero de una manera u otra Ellie no se convertía nunca. Resultó que Ellie era inmune al cordyceps, y las fireflies querían llevarla hasta una instalación médica bajo su control para poder desarrollar una cura a la peste que sometía al mundo.

    Para Joel, después de 20 años de supervivencia y miseria, esas cosas eran fantasías ridículas y no se les debía prestar atención. Pero por cuestiones de la historia que no es necesario detallar, luego de que llegaran al punto cercano a la zona de cuarentena al que debían llegar, se encontraron con que las fireflies habían sido emboscadas y asesinadas por el ejército. Y más detalles mediante, Joel finalmente acepta llevar a Ellie directamente hasta Salt Lake City, atravesando a pié todo el continente norteamericano casi de costa a costa.

    The last of Us narra ese viaje de Joel y Ellie. Durante este viaje lleno de eventos que dura algo así como un año, ambos se vuelven una enorme influencia el uno para el otro, llegando a entablar un vínculo de profundo cariño.

    Ellie encontró en Joel no sólo un protector y un amigo, sino también una figura paterna que nunca había tenido, así como también Joel tuvo oportunidad de reconciliarse con sentimientos y con una parte de su historia que para sobrevivir en ese mundo hostil sencillamente había sepultado junto con buena parte de su propia humanidad.

    Tal y como sucedió con la historia de Kratos, la relación de paternidad dió lugar a una historia tan dramática como bella y conmovedora, y sin por ello negar un contexto de violencia y deshumanización generalizados.

    Encontrar esa calibración entre mundo distópico, historia trágica, pero al mismo tiempo relato movilizador, humanizante, y respetuoso de las audiencias, no es un trabajo sencillo, y este fué uno particularmente aclamado.

    Pero también como sucedió con Kratos, la historia no termina de manera tan sencilla.

    Al final de The Last of Us, Joel finalmente logra llevar a Ellie hasta el hospital de las fireflies.

    Ellie llega inconsciente luego de casi ahogarse, y a Joel lo noquean cuando pide ayuda para reanimarla. Pero al despertarse Joel, se encuentra sano y salvo en una camilla, custodiado por algún firefly, y con la lider firefly a su lado.

    Ella le explica que Ellie está bien, y que ya le hicieron algunos análisis, los cuales dieron como conclusión que efectivamente podían hacer una vacuna que protegiera a la gente de la infección de cordyceps. Básicamente, le explicaban a Joel que con su esfuerzo había logrado salvar a la humanidad.

    Pero el precio de ello sería matar a Ellie: debían extraerle del cerebro una variante nuevamente mutada de cordyceps, que era lo que la hacía inmune, y no había manera de que sobreviviera a la operación.

    Y aquí es donde The Last of Us se puso polémico. En una decisión que una década después continúa siendo controversial, Joel se niega a permitir que maten a Ellie, inclusive poniendo en la balanza al resto de la humanidad, y entonces decide salvarla. Para ello, asesina a todo firefly que se cruza en su camino, incluyendo al cirujano que estaba a punto de operar a Ellie, luego de lo cual la toma en brazos y se la lleva del hospital.

    Ellie despierta más tarde en la parte trasera de un automovil conducido por Joel, desorientada, sin entender qué había sucedido: ella nunca estuvo consciente durante los eventos del hospital. Y frente a eso, Joel le cuenta una mentira: le dice que las fireflies finalmente le hicieron estudios, y determinaron que no era posible hacer una cura; que intentaron, que de hecho no era tan especial Ellie porque había otra gente también inmune, pero que los estudios no llevaban a nada y al final las fireflies se dieron por vencidas en su búsqueda de una cura. Ellie, incrédula y triste, no tiene más opción que aceptar la historia como cierta. Y así concluye el juego.

    The Last of Us, a diferencia de God of War, tiene una historia más bien agridulce, sino directamente amarga. Ese final no dejó satisfecho a nadie, y dividió aguas en los debates por internet acerca de la calidad ética de los actos de Joel y sus justificaciones.

    Pero toda esa polémica iba a ser apenas el preámbulo de lo que se vendría. Años más tarde, el mismo estudio lanzó The Last of Us parte 2, continuando la historia. Y si antes fué polémico, esta vez fué un escándalo.

    La continuación de la historia se dá unos años más tarde, donde Joel y Ellie se instalaron en un pueblo que encontraron en su viaje original, junto con otros sobrevivientes saludables. Ellie ya es una jóven adulta, y Joel ya está cerca de los 60 años. El mundo sigue siendo un lugar hostil, pero la vida en el pueblo es amena, y la comunidad se mantiene estable y sólida; casi como un final felíz para la aventura original.

    Pero eso rápidamente se vé quebrado cuando aparece un nuevo personaje: una jóven musculosa llamada Abby, que junto con un grupo de amigos exploran la zona cercana al pueblo, en busca de algo. Finalmente, eventos problemáticos mediante, se revela que Abby está buscando a Joel para matarlo, en venganza por los eventos sucedidos años atrás en aquel hospital.

    Y por detalles de la historia, muy temprano en el juego y para sorpresa de todes les jugadores, Abby finalmente cumple con su objetivo y asesina brutalmente a Joel a palazos en la cabeza, todo frente a los ojos de una Ellie sometida y gritando desesperada frente a la impotencia de no poder hacer más que verlo morir, casi reescenificando la escena en la que Joel perdió a su hija Sarah.

    The Last of Us parte 2 mata al “héroe” de la parte anterior, y de una manera tan espantosa como impresionante. Pueden curiosear por internet las reacciones a ese evento, y van a ver que fue profundamente controversial y shockeante: no solamente porque Joel ya tenía un vínculo afectuoso con la audiencia, sino también por la brutalidad con la que fue asesinado. Y eso era apenas el principio del juego, que termina siendo una especie de descenso en algunos de los rincones más oscuros de la condición humana.

    La mitad del juego pasa a contar la historia de Ellie yendo a cazar a Abby para vengar a Joel, aventura en la que comete todo tipo de actos cuestionables. Pero en la otra mitad del juego se encarna la historia de Abby, que a su vez buscaba venganza contra Joel.

    Sucedió que Abby era la hija de aquel cirujano firefly, de modo tal que este personaje tan odiado en realidad era un reflejo de lo que ahora pasaba a ser Ellie misma. Y no sólo eso: la historia cuenta cómo las fireflies quedaron terminalmente desmoralizadas después de los eventos del hospital, al punto tal que literalmente dejaron de buscar una cura y desarmaron la organización.

    Buena parte de esa decisión pasó por el hecho de que aquel cirujano era la última persona realmente capacitada para realizar las investigaciones adecuadas: ya no había universidades en ese mundo, ni abundaba mano de obra calificada, así que perderlo a él fue perderlo todo.

    Joel efectivamente había hecho un daño muy profundo, no solamente a Abby sino también al mundo. Y Ellie, en principio, desconocía todo esto y sólo buscaba vengar a su amigo, protector, y padre adoptivo.

    El relato es absoluta y extraordinariamente desgarrador. Durante toda la aventura, ambos bandos generan tanta empatía como rechazo, y ambos a su vez viven sus propias experiencias que los llevan a desarrollarse en diferentes sentidos.

    Por un lado, ambos van conociendo sus propias historias, y tienen múltiples oportunidades de evaluar lo que estaban haciendo, mientras que por otro lado el mundo rara vez les dejó otra oportunidad más que reaccionar con violencia y desesperación e ira.

    Esta vez estamos hablando de gente mucho más jóven: aún cuando sus experiencias hayan sido muchas e intensas, no tuvieron las décadas de maseración que pudieron tener un Joel o un Kratos.

    Y así se puede ver cómo a medida que el juego avanza, el aspecto físico de tanto Abby como Ellie comienza a volverse más demacrado, lastimado, frágil.

    Son muchas las escenas conflictivas donde une quisiera simplemente poder elegir otra cosa pero el juego no lo permite, y al mismo tiempo está tan bien relatado que une no puede más que sentir una profunda empatía por los personajes y no puede dejar la historia sin terminar.

    Entonces las acciones que une realiza se vuelven dolorosas para el jugador, difíciles de vivir, y por momentos preferiría tirar el joystick y apagar el juego para no continuar por ese camino de sensaciones tan insoportables: pero la sensación de que esa historia necesita una resolución hace que tampoco pueda dejarse así sin más. Esa historia exige a gritos una resolución.

    Todo esto lleva hasta una pelea final entre Ellie y Abby, ya muy demacradas después de un viaje infernal, a una altura del relato donde ya nadie quiere pelear ni que esas dos sigan peleando. Ya no pasaba por Joel ni por las fireflies ni por el cirujano, sino que ahora todo era una sincera y profunda empatía con ambas, y la sensación de que no deberían estar peleándose porque sencillamente eran víctimas de cosas que las excedían. Pero sin embargo el juego obliga a que esa pelea tenga lugar cuando Ellie recuerda la imagen de la muerte de Joel, e implícitamente se propone que no va a haber ninguna otra resolución que una de ellas matando a la otra.

    Es desgarrador presenciar esa pelea, y es más desgarrador todavía formar parte de ella presionando los botones para que suceda. Pero finalmente, en el último instante antes de asesinarla, Ellie tiene otro recuerdo de Joel, y esta vez el efecto es que suelte a Abby y la deje ir sin seguir peleando. Luego de eso Abby se vá, y Ellie queda arrodillada conteniendo sus emociones. No debe haber nadie que haya llegado a esa escena y no haya entrado en llanto por el extraordinario nivel de catarsis al que dá lugar. Y esta, que pudo ser la escena final, es continuada por una exploración breve del recuerdo que Ellie tuvo antes de dejar ir a Abby.

    Era un recuerdo donde Ellie confrontaba a Joel, por diferentes cuestiones de la convivencia en el pueblo, que los tenía a ellos dos distanciados. Pero durante ese diálogo mencionan otra cuestión: Ellie se había enterado de su propia historia, de aquellos eventos en el hospital, y no lo perdonaba a Joel por sus acciones; eso era lo que los mantenía distanciados.

    Joel, por su parte, mirándola a los ojos y sin duda alguna en su rostro, le dijo que si estuviera en la misma situación otra vez haría exactamente lo mismo. Entonces Ellie le dice las siguientes palabras: “no creo poder perdonarte nunca por lo que hiciste… pero me gustaría intentarlo”. Y fué uno de los pocos momentos de toda la historia donde se lo pudo ver a Joel con las palabras atragantadas. Ese fué el recuerdo que tuvo Ellie, y por el que decidió romper el ciclo de venganza contra Abby.

    Finalmente, el juego termina con Ellie volviendo al pueblo, donde tendrá que afrontar las consecuencias de sus propias decisiones.

    Después del Last of Us 2, fuí a ver comunidades de internet hablando sobre el juego, y parecían más bien grupos de terapia donde todes se acompañaban unes a otres. La intensidad emocional que genera es tan sorprendente como devastadora, y realmente es necesario un descanso luego de una experiencia como esa.

    El juego fue universalmente aclamado, y también considerado obra maestra como el God of War. Pero su exploración de las emociones y relaciones humanas es profundamente enriquecedora, en especial por la experiencia empática de ponerte en los zapatos del enemigo de una manera tan íntima que termina doliendo.

    “The last of us” es un nombre ambiguo ya en su inglés original.

    Puede ser “el último de nosotres”, o “la última de nosotres”, señalando a alguien en particular, como pueden serlo Joel o Ellie.

    Pero también puede ser “lo último de nosotres”, apuntando con ese neutro a alguna característica más abstracta: ¿el último grupo? ¿la última cualidad? ¿”la resaca” tal vez? ¿quizás “nuestro verdadero ser”, el que queda después de todo ese viaje tan difícil de atravesar? ¿Y quién es exactamente ese nosotres? ¿La familia? ¿La sociedad? ¿La humanidad? ¿Cada une de nosotres individuos? A mí me gusta traducirlo como “lo que queda de nosotres”, respetando un poco la ambigüedad de a qué se refiere, pero abrazando lo neutro, y escapándole a la posibilidad de que estuviera hablando de alguien en particular.

    

Parte 3: otros medios

    El tercer trabajo no sólo no se trata de ninguna obra de ficción, sino que tampoco es una obra pensada para consumo popular masivo ni mucho menos entretenimiento: se trata de un texto técnico y científico.

    Es una tesis doctoral en Historia de las Ideas Políticas, escrita en Sueco para la Universidad de Gotemburgo por Amanda Peralta: conocida como “la primer guerrillera de la Argentina”, figura legendaria de la militancia peronista, y miembra fundadora de las Fuerzas Armadas Peronistas (o “FAP”).

    Este trabajo necesita un poco más de contexto, para entender no sólo su relevancia sino también cuál es la figura de Peralta, así como desde dónde escribe lo que escribe. Y si vamos a hablar de militancia peronista, corresponde entonces una breve caracterización del peronismo, en especial por aquel entonces. Y para caracterizar al peronismo, es necesario también caracterizar el momento histórico del mundo.

    Toda la política mundial de la primera mitad del siglo XX estuvo atravesada por el binomio capitalismo-comunismo, o bien la cuestión de la socialización o privatización de los medios de producción, así como también la cuestión de si la economía debía ser planificada o liberalizada, y en ese último aspecto cuál era el rol del estado nacional como institución.

    En los primeros años del siglo XX todavía era poderoso y masivo el movimiento anarquista, aunque en esas décadas sus ideas fueron más bien mezclándose con las de los polos capitalistas y comunistas, dando lugar a diferentes corrientes de ambos cuadrantes ideológicos influidas por el anarquismo.

    Pero frente a la revolución rusa y el auge de la Unión Soviética, en Europa tuvo lugar una reacción que rechazara al mismo tiempo al decadente liberalismo de primer cuarto de siglo (y en profunda crisis) así como también a las ideas revolucionarias anticapitalistas. De esa manera nacía el fascismo, de la mano de gobiernos de corte autoritario, corporativo, militarista, y nacionalista, junto con lo cuál nacía también la noción política de “tercera posición”.

    El fascismo se proponía también como alguna forma de corriente revolucionaria y hasta defensora de los intereses de las clases sociales populares, en particular por sus críticas a algunas ideas liberales y la defensa del capitalismo de estado: pero una vez en el poder resultaban ser gobiernos articulados en torno a intereses conservadores, y gozosos de un amplio colaboracionismo empresario, dando lugar a un enérgico capitalismo explotador instrumentado por un estado autoritario que ejerciera un control marcial de la sociedad antes que de cualquier mercado.

    El peronismo comienza por aquellos años de la primera mitad del siglo XX con Juan Domingo Perón, quien fué una de las figuras más importantes de la historia política argentina, y llegó a la presidencia del país por primera vez en 1946.

    Para ese entonces finalizaba la segunda guerra mundial, ya había bombas atómicas, ya se habían establecido la Unión Soviética y los Estados Unidos como dos superpotencias mundiales en guerra fría, y el fascismo ya había caido en desgracia.

    Perón era un oficial militar de carrera, llegando al máximo rango de General, y un estudioso de las cuestiones políticas y sociales de su tiempo. Y en particular, Perón puso foco en las relaciones entre clase social, medios de producción, y rol del estado nacional, sin adherir a rajatabla a ninguno de los principios canónicos de su tiempo, sino más bien articulando una combinación más pragmática de principios que dieran lugar a una línea ideológica autóctona y adecuada a la realidad argentina.

    Básicamente, para no extender demasiado el preámbulo sobre peronismo (porque no es el tema de este trabajo), Perón implementó principios promotores de la industrialización, el estado de bienestar, y la conciliación de clases (capital y trabajo), con fuerte tendencia gremialista y laborista, como bases de articulación de un gobierno capitalista y nacionalista.

    El peronismo se proponía entonces como una “tercera posición”, y entre eso y otros detalles (como el nacionalismo, la fuerte intervención estatal en la economía, y el liderazgo carismático, encima este último formalmente en un oficial superior militar) llevó a que fuera rápidamente tildado de “fascismo” por sus detractores y hasta algunos analistas académicos.

    Pero en la práctica, el peronismo fue, si no la primera, a todas luces la más trascendente experiencia de gobierno netamente popular de la historia Argentina, lo cuál puede medirse objetivamente en la cantidad y calidad de derechos ganados y cambios radicales implementados en favor de las amplias mayorías populares del país: algo de lo que ningún fascismo puede hacer gala en ningún lugar del mundo y en ningún momento de la historia.

    Pero el peronismo fue el gran parteaguas de la historia política argentina, y como tal recibió una intensa reacción conservadora y unificada entre diferentes grupos sociales y políticos poderosos, a saber: la oligarquía terrateniente agroganadera, en buena medida instalada desde tiempos de la colonia española y beneficiaria provilegiada de aquella; la embajada de los Estados Unidos bajo las directivas de su Departamento de Estado y de Seguridad Nacional; el capital financiero internacional, en especial por aquel entonces la banca norteamericana; los partidos de derecha, conservadores y racistas, que veían con malos ojos las consesiones populares y la intervención estatal, tildando por esa vía al peronismo de “comunista”; los partidos de izquierda, que veían con ojos igual de malos cómo la figura de Perón opacaba la de los avatares marxistas y conducía al movimiento obrero hacia el sostenimiento del capitalismo; la familia militar, en su mayoría de oficiales conservadores y anticomunistas; entre muchos otros de menor envergadura por aquel entonces (como las empresas mediáticas, todavía bajo explícita línea ideológica orgánica y no todavía llamadas “independientes”).

    Y así sucedió que, durante el segundo gobierno de Perón, luego de ser reelecto, fué derrocado en un golpe de estado en el año 1955. Y si bien el gobierno peronista era incuestionablemente de corte popular, y las amplias mayorías de la sociedad votaron a su favor, sus detractores nunca dejaron de clamar que se trataba de un gobierno autoritario, sometedor, y decadente.

    Y en ese sentido, el golpe de estado de 1955 se autoproclamó “revolución libertadora”, en otro hito más de la histórica perversión de la noción de “libertad” tanto en el país como en la región. Y fué un golpe particularmente notorio, porque resultó ser uno de los extraños casos históricos mundiales en los que un país bombardeó su propio territorio, en el tristemente célebre bombardeo de Plaza de Mayo. Con la connivencia de partidos políticos opositores y de la iglesia católica, las fuerzas armadas argentinas abrieron fuego sobre la población civil, directamente utilizando aviones bombarderos sobre la plaza pública. Por esta razón, sus detractores llamamos peyorativamente a este golpe de estado “revolución fusiladora”.

    Todo eso merece su propio análisis, y pueden encontrar por internet y en cualquier biblioteca miles de trabajos al caso.

    Aquí lo que nos interesa marcar es que, luego de la revolusión fusiladora, el peronismo fué proscripto en Argentina, Perón se fué exiliado a Europa, y las dictaduras y pseudodemocracias de la época implementaron un proceso activo de desperonización de la sociedad.

    Pero para ese entonces, además, también había otra influencia muy importante para la política de la región: el movimiento 26 de Julio en Cuba, que terminara finalmente en la revolución cubana, la primera revolución comunista en el continente americano.

    Y ese es el contexto en el que Amanda Peralta comienza muy jovencita su militancia, como parte de la llamada “resistencia peronista”.

    Sus primeros pasos fueron en 1955, donde con 16 años formó parte de la primera generación de “juventud peronista”, las cuales a su vez se integrarían a las llamadas “fuerzas armadas de la revolución nacional” (FARN), y por la cuál fué encarcelada por primera vez durante algunos meses.

    Eventualmente llegó a formar parte de la “acción revolucionara peronista” (ARP), agrupación liderada por el conocido dirigente John William Cooke, de la cuál sería expulsada luego de apoyar una importante huelga de trabajadores portuarios. Por ese apoyo a esa huelga fué nuevamente encarcelada.

    Pero luego de eso finalmente fundó junto con otros compañeros las “fuerzas armadas peronistas” (FAP), que en 1968 llegó a montar un campamento de entrenamiento guerrillero en la localidad de Taco Ralo, en la provincia de Tucumán. En ese campamento, los guerrilleros fueron sorprendidos por la policía, apresados, y enviados en avión hasta Buenos Aires, donde fueron enjuiciados y encarcelados.

    En 1971 se fugó a los tiros de la prisión junto con otras presas, recibiendo incluso un disparo, y pasando a vivir en la clandestinidad. En 1973 las FAP decidieron bajar las armas, luego de que llegara Cámpora al gobierno, y de esa manera se terminara la proscripción del peronismo (por lo tanto también la resistencia peronista). Cámpora indultó a otros compañeros de Amanda en las FAP, y más tarde volvió Perón al país donde ganó las elecicones.

    Pero incluso bajando las armas y con un gobierno peronista debieron continuar en la clandestinidad debido a la acción de la Alianza Anticomunista Argentina (o “triple A”), un grupo parapolicial y paramilitar orquestado por el ministro de Bienestar Social de Perón, José López Rega.

    En 1974 dá a luz a su primera hija. En 1975 ella y sus compañeros abandonaron ya no la lucha armada sino también la militancia, y en 1976 Amanda y su pareja abandonaron el país luego de un nuevo golpe de estado.

    Este golpe de estado se justificó en la presencia de fuerzas armadas revolucionarias (llamadas “subversivas” por los dictadores), pero lo cierto es que la guerrilla en Argentina había sido derrotada tanto política como militarmente para ese entonces, y el golpe fue uno más de los tantos articulados por los Estados Unidos sobre paises de la región en la llamada Operación Condor, y tuvo como fín último la implementación de cambios sociales regresivos, neocoloniales y neoliberales.

    La guerrilla, que la generación de Amanda Peralta encarnó como herramienta de resistencia y liberación, se había convertido en chivo expiatorio para el sometimiento de su nación.

    Así fué que se exilió primero a Brasil durante un corto tiempo, luego pasó por México durante un tiempo más largo donde también nació su segundo hijo, y finalmente logró instalarse en Suecia, gracias a la intervención de un funcionario del Alto Comisionado de las Naciones Unidas para los refugiados.

    Allí, de alguna manera continuó su “lucha”, porque ya adecuarse a una cultura extranjera no es una tarea trivial, la sueca se mostraba además particularmente desafiante, y en ese lugar del mundo eligió el trabajo académico, que ya por sí sólo es un desafío.

    La primer barrera era el idioma, que no es sencillo para nosotres americanes: en las propias palabras de Amanda, “el sueco no es un idioma, es una enfermedad de la garganta”. Pero además, en Suecia existían muchos prejuicios anti-feministas y anti-inmigrantes no-europeos, con lo cuál era triplemente costoso hacerse un espacio en esa sociedad, muy especialmente en su ámbito académico que tiene sus propios vicios agregados.

    De modo que Amanda Peralta debió aprender el idioma a la perfección, intentar integrarse de alguna manera en el mercado de trabajo sueco, en paralelo cursar los estudios primarios y secundarios para adultos, y finalmente entrar en la universidad.

    Y no sólo lo logró, sino que terminó recibiéndose de doctora y publicando su tesis, ya hacia 1990, también logrando por un tiempo ser directora del Museo de Cultura Mundial, y finalmente quedar como investigadora permanente y profesora de la misma institución.

    La tesis de Amanda Peralta se titula: “…Por otros medios. De Clausewitz a Guevara: guerra, revolución y política en la tradición del pensamiento marxista”. Y la primer parte del título viene al caso de una famosa frase atribuída a Clausewitz, que expresa lo siguiente: “la guerra es la continuación de la política por otros medios”.

    Clausewitz fue un pensador moderno de la guerra, profundamente influyente, y Amanda Peralta precisamente analiza cómo esa influencia opera sobre los modos de la tradición marxista y guerrillera. Para ello recorre la historia de los principales pensadores de la guerra dentro del marxismo, comenzando con Marx y Engels, pasando por Lenin en Rusia y Mao en China, para finalmente llegar hasta Martí y el Che Guevara en la revolución cubana.

    Su ex esposo, Nestor Verdinelli, quien también fuera su pareja durante la etapa de las FAP, describe el espíritu de la tesis de la siguiente manera:

    “Naturalmente, producto de la experiencia vivida, Amanda tenía mucho interés en comprender qué nos había llevado a la catástrofe, luego de la victoria de mayo del 73. Cómo, porqué, las organizaciones político-militares de aquellos tiempos se perdieron en las tinieblas que llevarían a una derrota que costaría a nuestro país la pérdida de más de 30000 compañeros y el exilio de muchos miles más. Fue allí donde nace este interés sobre la teoría de la guerra. De dónde viene, qué influencias nos trae. Por qué caminos llegó a nuestra sociedad y a nuestra militancia”.

    A nosotres nos va a interesar este trabajo porque, efectivamente, esta persona de la generación de mis abuelos y abuelas tuvo una experiencia de vida que la llevó a ser no sólo una sobreviviente activa, que literalmente peleó por su vida para sobrevivir, sino también una teórica de la guerra que llegó a reflexionar sobre sus propias acciones y las de su generación, ya no en los términos inmediatos de las acciones concretas sino en términos generacionales, usando su propia vida como caso de estudio.

    No es una biografía, porque no relata su vida particular, pero de alguna manera también sí lo es: porque las cosas que reflexiona son las que le tocó vivir y encarnar, y que más tarde tuvieron consecuencias nefastas en la sociedad que ella peleaba por liberar. Es su manera de aprender a vivir con ello.

    Pero la historia de alguien no se termina con ese aprendizaje, sino que luego de reflexionar sobre las propias experiencias une pasa a tener un vínculo de referencia para con las generaciones posteriores: gente más jóven, sedienta de sus propias experiencias, sensible al mundo que sus ancestros le dejaron, y muy vulnerable a explicaciones inadecuadas o hasta maliciosas. Amanda Peralta nos dejó entonces, a partir de sus experiencias de lucha, una lectura crítica de esa lucha que diera lugar a una teoría, y una toría que intente explicar un poco lo que pasa en el mundo que nos deja y ayude a entender cómo encararlo.

    Luego de publicar su tesis, continuó sus investigaciones sobre procesos americanos de colonialismo y sometimiento. Primero realizó estudios en El Salvador sobre la Teología de la Liberación, publicando “Teoría y práctica en el universo de los pobres” en 1995, y luego pasó a estudiar la historia y resistencia del pueblo Mapuche: proyecto inconcluso, interrumpido por su muerte en el año 2009.

    Su tesis son unas 250 páginas, de las cuales las conclusiones abarcan apenas las últimas dos o tres. Al caso de ello, apenas al comienzo, ella va a decir lo siguiente: “Si la tesis incluye alguna contribución original -lo cual espero- debe salir a la luz durante el transcurso de la tesis y no aparecer como una Deus Ex Machina en la última página”. Es decir que quien quiera obtener algo de su elaboración teórica y técnica, va a tener que ir a leerla, y ningún rejunte corto de palabras pretende ni va a hacerle justicia a un trabajo de esas características.

    Pero de una manera u otra, para cerrar esta parte, es pertinente traer las últimas palabras de su tesis, que a su vez son una cita a otro reconocido compañero de las FAP, Envar El Kadri: “Cuando uno llega a pensar así, cuando uno se pone un uniforme y adopta los escalafones y los modelos de organización del enemigo, finalmente se termina siendo el enemigo… el enemigo te ha vencido porque ha logrado transformarte en él”.

    

Parte 4: acción y emoción

    Todos los trabajos que presentamos anteriormente nos advierten sobre las consecuencias del uso de la violencia, y en particular acerca de las prácticas de la guerra.

    Eso último queda un poco más difuso en The Last of Us, porque no es el tema central del trabajo, aunque es fácil apreciar por todos lados el pensamiento militar y su instrumentalización, así como también la cuestión de plantearse un enemigo y no descansar hasta destruirlo, como sucede en la segunda parte.

    Pero ese va a ser un detalle menor, porque nosotres aquí leemos otro tema diferente en esas obras, que nos parece pertinente a nuestra realidad actual. Son muchos los detalles, y muchos más los que deben dejarse de lado, pero vamos a intentar armar de a poquito un relato que nos permita atravesar estos tres trabajos con un sólo lente.

    La primer cuestión que tienen los tres trabajos en común es un mundo convulsionado y hostil. Kratos y Joel de hecho viven directamente un “fín del mundo”, lo cuál difícilmente pueda ser superado por eventos traumáticos de mayor envergadura, al menos a nivel civilizatorio.

    Y por ahí para muches hoy no lo parece, pero les invito a que vayan a ver grabaciones, testimonios, de personas que hayan vivido la parte más intensa de la guerra fría, y van a tener oportunidad de apreciar hasta qué punto se vivía con miedo al fín del mundo.

    Yo, de hecho, nací temprano en la década de 1980, y una de las fantasías más insistentes y aterradoras por aquel entonces todavía era “el fín del mundo”; tanto es así, que las ficciones apocalípticas sólo se incrementaron en cantidad y calidad con el paso de las décadas, llegando efectivamente hasta The Last of Us. Esa tradición artística no salió de la nada: salió de la historia.

    Pero podemos concentrarnos un minuto en la experiencia de Amanda Peralta desde este punto de vista, para aclarar un poquito este argumento.

    En 1948 se firma la declaración universal de los derechos humanos. Si algún día tienen oportunidad, vayan a la página web de la ONU, descarguen el PDF, y léanlo. Esa carta de derechos, que no era un documento vinculante pero sí un ideario del que constituciones y tratados internacionales habrían de tomar como base, fue creado luego de los eventos de la segunda guerra, y con el objetivo de que eventos de esas características no volvieran a suceder.

    En la mesa donde se votaban esos derechos estaban los Estados Unidos de América y la Unión Soviética. Y décadas más tarde, en 1966, se firmó el Pacto Internacional de Derechos Civiles y Políticos, esta vez sí vinculante.

    La Unión Soviética había resistido la declaración original, y se abstuvo en la votación, mientras que más tarde fueron los Estados Unidos quienes plantearon una férrea oposición a garantizar derechos tales como la vivienda, la salud, o la educación, además del derecho a autodeterminación de los pueblos que tanto daño hacía a los colonialistas en general.

    Todas esas discusiones traían más problemas que soluciones a los paises poderosos, y los sometía a una serie de trabas tanto legales como ideológicas que debían honrar. Era la política, que se articulaba para no dar lugar a aquellos “otros medios” de Clausewitz, en un contexto donde las cosas estaban a un mal día de una tercera guerra mundial.

    Las declaraciones de derechos universales eran parte del clima de época, porque el siglo XX fué el escenario de conflictos por las llamadas “Grandes Ideas”: conflictos ideológicos, donde las ideas que competían eran aquellas que hipotéticamente habrían de explicar a la humanidad, y regir así las normas sociales, políticas, y económicas, de todo el planeta.

    El “universalismo”, en términos planetarios, era el tema de la época. Y era un tema llevado hasta las últimas consecuencias. Cada acto político, cada pequeña adherencia o rechazo en cualquier debate, era leido casi sin excepción como una pieza del rompecabezas que resultaba ser el mapa hacia el futuro de la humanidad. Ya no era resolver los problemas del ahora, sino también los de un mañana que podía ser trágico a niveles de los mitos religiosos. Después de la segunda guerra y la bomba atómica, ya no se podía pensar sin pensar también en el fín del mundo.

    Por supuesto la ciencia y la tecnología tenían mucho qué ver con eso, tanto por el progreso tecnológico como por sus mostruos militares.

    Pero lo cierto es que las acciones políticas se volvían más intensas y trascendentes que nunca, y era bastante común que cualquier acción menor en cualquier organización ignota de cualquier parte del mundo se pensara enmarcada dentro de las acciones necesarias para evitar un apocalipsis, o bien para una nueva y mejor humanidad.

    Lo cuál, a su vez, cuando se mezcla con las pasiones que todes podemos conocer de la política y con la urgencia de un hipotético y verosimil fín del mundo en el corto o mediano plazo, la justificación para escalar conflictos hasta la violencia armada podía ser tranquilamente sentido común. Ese era el clima de la época.

    Desde ya que no todo uso de la violencia era altruista: los actos criminales de la revolución fusiladora eran poco más que odio racial y clasista articulando un conservadurismo recalcitrante que nada tenía de ningún tipo de visión de futuro sino que, de hecho, su vista estaba anclada en el pasado.

    Esto se apreciaba claro en las tristemente célebres palabras del contraalmirante Rial, quien participara en el golpe de estado y lo justificara de la siguiente manera: “esta gloriosa revolución se hizo para que, en este bendito país, el hijo del barrendero muera barrendero”.

    Cosas como el ascenso social y la distribución de la riqueza estaban mal vistas en esos sectores, y lo siguen estando. Esa mezcla esotérica entre clase social y raza, estirpe, condición de sangre, que en Argentina se agrupa bajo el nombre despectivo de “gorila” y que coincide con el antiperonismo, es uno de los truculentos principios premodernos que insisten en sostener vastos sectores de las sociedades de todo el mundo, en especial cuando se trata de vínculos con los colonialismos. Lo cuál en Argentina en particular, y América en general, es un tema central, del que Amanda Peralta terminó convirtiéndose en referente académica desde Suecia.

    Ella se sumó de muy jovencita a la resistencia peronista, por los eventos de la revolución fusiladora. Pero el peronismo en sí fué siempre muy heterogéneo en su composición: siempre se mostró mucho más como movimiento antes que como partido, siempre tuvo vocación frentista, siempre tomó una centralidad alrededor de la cuál los demás cuadrantes políticos debían reorganizarse, y muy especialmente siempre hubo peronismos de izquierda y de derecha.

    Precisamente, las ex-FAP pasan a la clandestinidad durante la presidencia de Cámpora, porque el peronismo de derecha había llevado su anticomunismo hasta el oscuro punto de la policía secreta. Y es que Amanda Peralta formó parte de ese peronismo “de izquierda”, una históricamente incómoda fracción del movimiento peronista que hacía equilibrio entre las ideas marxistas y el problema empírico de la representación de la clase trabajadora como herramienta de construcción de poder popular en una democracia republicana liberal.

    Eso, sumado al momento histórico del foquismo del Che Guevara, donde la revolución socialista en América se mostraba como un resultado verosimil, llevaba a una convivencia muy tensa con el peronismo en general. En palabras de ella misma: “Tengo la sensación de que siempre estuve en el peronismo haciendo la contra, siempre peleando. Desde que en 1957 llegaron las instrucciones de Perón para votar a Frondizi, nunca estuvimos de acuerdo con nada. Siempre estábamos en la vereda de enfrente”.

    Esa “vereda de enfrente” a las decisiones de las dirigencias peronistas la llevó al foquismo, la estrategia revolucionaria instrumentada y llevada a la fama por Ernesto Che Guevara, y que frecuentemente era confundido con la simple y literal instrumentación de acciones guerrilleras.

    Y el foquismo, a su vez, según sus propias reflexiones, generó un quiebre dentro de la resistencia peronista y el movimiento peronista en general, del que más tarde Amanda Peralta consideraría una de las condiciones de la histórica derrota obrera en la Argentina de los setentas.

    Y aquí son pertinentes nuevamente algunas palabras de la propia Amanda Peralta en primera persona:

    

“Estábamos en pleno foquismo, con las anteojeras puestas. Muy influidos por la Revolución Cubana. El foco era la respuesta mágica, maravillosa y perfecta para los problemas del país. Fue nuestra etapa de mayor sectarismo. El hecho de que el gobierno de Illia fuera democrático se consideraba un estorbo para desarrollar el foco guerrillero. (…) Había toda una idealización de la lucha armada. Pero (…) la estrategia del ERP y Montoneros era errónea. También hicimos una crítica al alto grado de violencia que usaban esas organizaciones. (…) Si hubiéramos actuado en la etapa del salvajismo, creo que hubiéramos entrado en la misma dinámica.

    En general, en todos los procesos guerrilleros prima la visión voluntarista de acortar los plazos. Digamos que es la versión de izquierda de lo que el golpe es para la derecha. Yo no creo que se pueda negar la existencia de procesos violentos. Incluso, en gran cantidad de casos, la violencia es un arma de las masas. Pero hoy diferencio esa problemática de la concepción de guerra, así como diferencio entre lucha de clases y guerra de clases.

    Hay una visión acrítica de los procesos de guerra. Se hace una asimilación de lo ineludible con lo legítimo. No podemos plantearnos erradicar la guerra a través de fomentar las guerras. En 1973 esta confusión era muy grande porque allí la violencia no era necesaria. Sucede que la concepción foquista se formó con dos componentes: el nacionalista –con todos sus valores patrióticos, los héroes, el sacrificio– y la concepción marxista de la lucha de clases como el motor de la historia. (…) Fijate que para nosotros el concepto de lo militar, tan odioso para cualquier viejo anarquista o socialista, llegó a perder el carácter negativo. Hacer política era militar. Lo militar era lo más sagrado de las organizaciones foquistas. Después llegaron los grados, los ascensos, las formaciones militares. Lo más triste es que todo esto se vivía como valores socialistas. Ese militarismo pasó a deformar el pensamiento político. ¿Hay algo peor para el desarrollo de una discusión política seria, honesta, profunda, que la subordinación militar?”

    Todos esos extractos son de una entrevista que le hicieran en 1985, años antes de que su tesis estuviera lista. Y fueron precisamente los temas que desarrolló en la tesis que trajimos a condideración.

    Allí se adentró en esa “visión acrítica de los procesos de la guerra” para desarticularla, entender qué le pasó a su generación con ese tema, y dejar no sólo un testimonio sino algo todavía más valioso: alguna forma de verdad sobre la que podamos construir un futuro donde las tragedias de su tiempo ya no sean necesarias.

    Amanda Peralta cambió las armas por la reflexión, y su lucha universalista dejó de ser la de la violencia que se supone cambie con urgencia el curso de la historia sino la de quién busca verdades universales y dedica su vida al caso: la de la ciencia. Y así se volvió una teórica de la guerra, y discutió las ideas de los referentes de su tiempo.

    Hoy de su lucha no nos queda solamente la miseria de su pasado violento, con todas sus consecuencias nefastas, sino también el trabajo crítico sobre su propia experiencia de modo tal que tengamos oportunidad de no repetirla, así como también otros llamados de atención que van a ser pertinentes más adelante en nuestro trabajo.

    Pero ya aquí podemos tomar un poco de distancia de Amanda Peralta y nuestra realidad histórica, y ver cómo algunos de los temas que vivió y estudió ella se aprecian en otros trabajos que poco o nada deberían tener qué ver.

    Esto lógicamente debe realizarse con cuidado de no banalizar temas en realidad muy serios y sensibles, y precisamente allí es donde se vuelve pertinente el hecho de que Amanda Peralta no haya escrito ni sus memorias ni alguna forma de manifiesto político, sino un texto crítico y científico que permita universalizar los debates sobre la percepción, vivencia, e instrumentalización de la guerra.

    Y de esa manera nos permite adentrarnos, por ejemplo, en God of War.

    Kratos, en su momento más decadente, también vivió la guerra idealizada: en su juventud fué un militar exitoso, y la gloria de la conquista y subjugación de sus enemigos por momentos parecía ser su única razón de vida.

    Aunque antes mencionamos que además había formado una familia en Grecia, que se metieron los dioses del olimpo en el medio, y que de allí surge una tragedia de consecuencias apocalípticas. Ahora llegó el momento de explorar un poco más esa parte de la historia de Kratos.

    En realidad, los dioses de la guerra (Ares y Atena) ya se habían involucrado en la vida de Kratos desde temprano. Kratos tenía un hermano menor, Deimos, que fué secuestrado por Ares, llevado vivo al infierno griego, y encarcelado allí de por vida, bajo vigilancia del dios de la muerte Thanatos. Eso ocurrió cuando Kratos y Deimos eran muy jovencitos, apenas niños jóvenes, y aprendían las artes de la defensa personal y la guerra.

    Deimos era un niño más bien temeroso, y Kratos ya era un prodigio en el uso de las armas para ese entonces, razón por la cuál se convertía un poco en su maestro; pero además, Kratos le había prometido a Deimos que, como su hermano mayor, lo protegería. El día que Ares secuestró a Deimos, Kratos intentó defenderlo, pero no tuvo ninguna oportunidad frente al dios de la guerra y fué derrotado de un sólo golpe. La razón por la que Kratos sobrevivió a esa noche fue la intervención de Atena, que viajaba con Ares, y lo convenció de que dejara vivir a Kratos y se concentrara en Deimos.

    Kratos no supo en ese momento quienes fueron los secuestradores de Deimos: eran simplemente dos figuras misteriosas de adultos a caballo. Pero ese evento marcó su vida para siempre, y fué el verdadero evento bisagra que convirtió a Kratos en un tipo prácticamente desalmado. Y es que perder a Deimos, encima sin poder defenderlo, básicamente le rompió el corazón.

    Eso, sumado a que mucho más tarde en la historia quedara establecido que Kratos era un semidios hijo de Zeus, dejaba claro que los dioses estuvieron involucrados en las tragedias de Kratos desde el minuto cero de su historia. Sin embargo, el secuestro de Deimos es un evento de mayor importancia, porque allí está la clave del inicio del gran conflicto.

    Lo que sucedió fue que los dioses estaban al tanto de una profecía apocalíptica: iba a nacer un guerrero con una marca especial, y ese guerrero iba a exterminar a los dioses del olimpo. Deimos tenía una marca de nacimiento, que más tarde Kratos se tatuó en recuerdo perpetuo de su hermano secuestrado, perdido, desaparecido. Pero por esa marca fué que Deimos fuera secuestrado, mientras que Kratos terminó siendo el guerrero que llevara adelante la profecía.

    La cuestión con los dioses y el destino es siempre complicada, porque cuando se involucran es perfectamente legítimo cuestionar si las acciones de los hombres son realmente sus propias acciones: ¿cuál puede ser el valor de la agencia humana en un mundo de profecías, donde somos poco más que la personificación de las voluntades de los dioses?

    Esa cosmovisión tan evidentemente premoderna, en realidad por la época de Amanda Peralta no era tan obsoleta todavía, y de hecho en muchos ámbitos de la actualidad se sigue sosteniendo. Si reemplazan “profecía” por “historia” o “mercado”, y “dioses” por “economía”, se van a encontrar con muchos lineamientos ideológicos tanto de izquierda como de derecha que se supone expliquen el comportamiento de las sociedades y de la humanidad de manera más o menos determinista. Y esas fueron precisamente la clase de “grandes ideas” que se pusieron en conflicto durante el siglo XX, llegando hasta la sombra del apocalipsis, y todo ello durante tiempos modernos.

    ¿O por qué creen que, más tarde, en aquella entrevista, Amanda Peralta relataba que la democracia se sentía un estorbo para el foco guerrillero, sino por la profecía de la revolución finalmente liberadora? Ímpetu revolucionario liberador que, a su vez, terminó compartiendo Amanda Peralta con los dioses malignos de su historia de origen: la “revolución libertadora”, que también pretendía poner un orden definitivo a la sociedad Argentina, en lo inmediato, y por las vías de la fuerza armada. Comparación odiosa que, sin embargo, coincide con las propias conclusiones de Envar El Kadri cuando reflexionara “nos convertimos en nuestro enemigo”.

    Si bien requiere un poco de perspectiva, trabajo intelectual, y sensibilidad, en realidad hay muchas coincidencias entre la historia de Amanda Peralta y la de Kratos. Y es que son historias sobre la guerra, como las miles que tenemos en mitos y relatos históricos, aunque contadas con herramientas diferentes, mentalidades diferentes, y mundos diferentes.

    Lógicamente compararlas impone una serie de distancias que deben ser respetadas, en especial en lo que respecta a las víctimas humanas reales del conflicto armado. Pero si es cierto que la tesis de Amanda Peralta es un trabajo científico, entonces sus conceptos deberían ser posibles de ser utilizados también para contrastar los planteos que la historia de Kratos pudiera hacer sobre la guerra sin mayores dificultades.

    Kratos finalmente también toma conciencia de que se convirtió en su enemigo: un monstruo violento y destructor, cuya consecuencia de sus actos fué una absoluta catástrofe que para ese entonces ya no podía ser evitada. Y frente a ese horror, decide quitarse la vida. Pero aquí vale la pena agregar un detalle más a la histora de Kratos, porque ese suicidio no era solamente justificado por el horror.

    Como parte de su búsqueda de venganza contra los dioses, Kratos debió obtener poder para derrotarlos. Y al caso, como es costumbre en los relatos mitológicos, aparecen los artefactos. Hacia el final del juego, el artefacto de la mitología griega que le permitiera a Kratos derrotar a Zeus fue la caja de Pandora.

    Recordemos, el mito cuenta que la caja de Pandora guardaba diferentes aspectos espantosos de la vida humana, pero también guardaba a la esperanza. Kratos liberó todo eso por su cuenta, y utilizó el poder de la esperanza para derrotar a Zeus.

    Y cuando eligió suicidarse, lo que eligió no fué solamente no quedarse con ese poder, sino también distribuirlo, dárselo a la gente desesperada de esa Grecia ahora en ruinas. Las otras opciones eran apropiárselo, tomando el lugar de los dioses asesinados, o bien dárselo a una Atena manipuladora y en la que no se podía confiar.

    Kratos eligió el sacrificio: un poco convenientemente para ponerle un fín a su insoportable historia de miseria y destrucción, pero otro poco también para que después de él quede algo qué vivir, algo de esperanza, y que su historia no sea ni la última ni la única posible. Aunque finalmente no murió, por cuestiones de la historia.

    Un Kratos ya más entrado en años también se retiró a intentar vivir con la experiencia de semejante desastre que fué su vida en Grecia. Y aunque Kratos no entró en ninguna academia, se concentró en su rol de padre antes que nada como mentor, instructor, pretendiendo transmitir su conocimiento crítico de la guerra a su hijo.

    Pero Kratos pretendió esconderse de la guerra, mantenerla lejos, combatirla de alguna manera simplemente quedando fuera de los conflictos del mundo por vías del exilio. Cosa que más tarde se mostró irreconciliable con la realidad cuando su hijo Atreus no sólo quiso aprender los pormenores de la historia de ese mundo, sino de su propia familia también, y por esa vía la búsqueda de conocimiento lo llevaría hacia el conflicto que Kratos tanto pretendía evitar.

    Los intentos de Kratos por mantenerse lejos de la guerra duraron poco, y muy rápidamente su estrategia de vida debió girar hacia intentar él tambien entender la historia que tanto ansiaba conocer Atreus, acompañarlo en esa búsqueda, e intentar usar su experiencia para proteger al futuro de los eventos atroces del pasado.

    Más allá de que una teórica de la guerra pueda tener cosas para decir sobre la guerra, también es cierto que Amanda Peralta fué efectivamente guerrera. O guerrillera, si acaso es pertinente la diferencia. De modo que tampoco debería sorprender que puedan encontrarse vínculos entre su trabajo y los cuentos sobre dioses de la guerra o sobre guerreros legendarios. Sin embargo, The Last of Us no tiene ninguna de esas cosas.

    En The Last of Us, como ya dijimos antes sobre Kratos, lo que hay es una historia de apocalipsis e historia de origen traumática, además de que Joel se presentaba desde temprano como un tipo excepcionalmente prolífero en los usos de la violencia.

    Aunque esta vez no era idealismo, ni venganza siquiera, ni había ningún horizonte de futuro de la humanidad o siquiera ninguna profecía: era una supervivencia cruda, conservadora, y hasta por qué no nihilista. 20 años después del asesinato de su hija, Joel nunca había vuelto a formar otra pareja, intentar armar otra familia, ni siquiera imaginar ningún proyecto de vida, como sí lo hizo Kratos. Si le preguntábamos a Joel, no había ninguna vida qué imaginar ni por la cuál pelear, salvo la de une misme: la vida es una mierda, y une vive para no morir, fín.

    Está claro que ningún ser sensible y racional quedará jamás satisfecho de su propia existencia con una explicación semejante, pero también cualquier adulto sabe que los problemas existencialistas muy fácilmente se las rebuscan para pasar a un segundo plano cuando una realidad hostil se impone, y así la vida se hace llevadera un día a la vez por poco sentido que pueda tener. Ese al menos es el caso cuando une no cae en algún pozo depresivo, o situaciones sejemantes de salud mental. Con lo cuál me parece legítimo aplicarle a Joel el título de “sobreviviente”.

    Pero si en Kratos pudimos encontrar algunas cosas remota y laboriosamente asociables a las experiencias de algunas izquierdas, en realidad Joel parece más un avatar de los principios de las derechas. Joel no está tratando de revolucionar nada, ni está reaccionando contra ningún agresor por ninguna injusticia, ni siquiera pone en juego alguna gran idea de ningún tipo: es la sobreadaptación personificada.

    Su cuasi nihilismo, y aversión al idealismo y los vínculos interpersonales por fuera de las transacciones comerciales vinculadas a la supervivencia, es adaptarse al mundo espantoso que le tocó vivir y poco más que eso. Cuando la supervivencia se plantea como eje rector del proceso de toma de decisiones, las reglas morales, ideales, institucionales, culturales, o de cualquier otro tipo, son todos constructos de grado muy inferior a las condiciones de la praxis cotidiana.

    O, puesto en palabras menos sofisticadas: sobrevivir implica ensuciarse las manos, y cuando eso implica violencia las reglas son directamente un lujo. Si a eso le sumamos que Joel finalmente termina por actuar activamente en contra de la salvación de la humanidad y beneficiando sus propios intereses personales en aquella polémica escena del hospital, y lo hace a plena conciencia, la figura de Joel bien podría coincidir con la del empresario inescrupuloso que hace cualquier cosa con tal de obtener ganancias y nunca perder nada, o incluso hasta con la figura del mafioso.

    Esas lecturas se van desvaneciendo a medida que se le presta atención a la historia y la cosmovisión de Joel se va transformando en algo mucho más humanizado a partir de su vínculo de cariño con Ellie. Pero el temple original de “tipo duro” de Joel en realidad era algo mucho más parecido a ser un absoluto desalmado, como Kratos en su peor momento. Y como Kratos, ese Joel nació de una tragedia familiar dolorosa hasta lo indecible.

    De hecho, pasó buena parte del resto de su vida sin decir una sola palabra al respecto, así como Kratos también tuvo sus serios problemas para poder volver a poner en palabras su propia historia. Y entonces, frente a Joel, cabe la pregunta de por qué seguía vivo.

    Kratos primero vivía por venganza, luego intentó quitarse la vida, y más tarde, al fracasar en su suicidio, simplemente se fué a buscar una vida pacífica donde ya no le hiciera daño a nadie. ¿Pero Joel? ¿Para qué continuaba con su violencia nihilista y desesperanzada de ningún futuro mejor ni compromiso con ninguna generación futura, en lugar de simplemente ponerle fín a su vida?

    La respuesta estuvo merodeando en las teorías de fans a partir de alguna línea de diálogo entre Joel y Ellie, pero finalmente se hizo explícita cuando adaptaron la historia a una serie de televisión. Joel también intentó suicidarse: él no quería seguir vivo. De modo que convivía con ambas cosas: su aversión por la muerte, y su aversión por la vida. Y acá es donde podemos analizar otro aspecto más de los trabajos que estamos considerando.

    Recién decíamos “Joel era de derecha”, y lo comparamos con empresarios o mafiosos. En realidad, el conservadurismo de Joel tranquilamente pudo ser comparado con el de cualquier obrero promedio de clase media o pobre, pero por alguna razón nunca del todo explicada él más bien terminó quedando como una referencia exitosa de un cuentapropismo post-apocalíptico, y hasta un tipo digno ser respetado o de temer: un referente no sólo de violencia, sino también de autonomía.

    ¿Por qué no siguió siendo un carpintero, un obrero de la construcción, en un mundo donde ciertamente esa mano de obra no le venía mal a nadie, si eso también le permitía seguir siendo conservador o hasta nihilista? Y alguien podría decir, considerando aquello del suicidio, que elegir la vida de contrabandista en un mundo ultraviolento era un poco encontrar el ticket al cielo o el infierno: buscar una ocupación que lo expusiera efectivamente a morir de una buena vez.

    Sin embargo, Joel le escapaba a las operaciones demasiado peligrosas por considerarlas idiotas: buena parte de su anti-idealismo se justificaba de esa manera. ¿Entonces? ¿A qué venía esa vida de violencia de Joel?

    La respuesta que proveemos aquí es especulación. Los datos están en el juego o en la serie, pero no está establecida una relación lineal entre el detalle que traemos y el comportamiento de Joel. Sin embargo es verosimil.

    Sucedió que el intento de sucidio de Joel fue al poco tiempo luego de la muerte de Sarah: no pasaron muchos años hasta que decidiera terminar su vida, sino que fue más bien durante el peor momento de dolor por el duelo, probablemente apenas días después del evento. Pero su incapacidad para quitarse la vida no lo llevó precisamente por un camino de bondad y compasión, sino más bien todo lo contrario: la experiencia de Joel era la de odiarse a él mismo, y odiar también al mundo.

    De hecho, el juego relata que, antes de vivir dentro de la zona de cuarentena en Boston, durante algún tiempo que no queda claro cuánto habrá sido, Joel se dedicó a ser “cazador”: un título que se ponía a la gente que emboscaba y asesinaba a otra gente típicamente inocente. Un ladrón y un asesino, básicamente, con la única diferencia de que en ese mundo no había ley que fuera a impedirlo o siquiera cuestionarlo.

    Su ideario de “supervivencia a cualquier costo” más bien sonaba a una excusa para poder ser él mismo violento. Y un poco eso queda evidenciado en su pelea con su hermano Tommy, al que arrastró hacia esa misma vida. Juntos llegaron eventualmente hasta la zona militarizada de Boston, a la cuál entraron de manera ilegal, y allí adentro fué que discutieron y se separaron: Tommy estaba cansado de esa vida nihilista, y había oido hablar de las fireflies, así que se uniría a ellas.

    De modo que Joel, ya enteramente por su cuenta y sin Tommy, se asentó en la zona militarizada y continuó su vida de violencia sin necesidad de exponerse tanto a las inclemencias de los zombies merodeando en la intemperie: algo así como un punto medio entre la civilización y la barbarie, sin grandes compromisos con ninguno de los dos.

    Y con esa perspectiva queremos frenar un minuto y repensar de qué estamos hablando. Yo tengo 40 años, y puedo dar fé que mi generación ya tiene suficiente con las advertencias acerca del uso de la violencia. Desde sobrevivientes de tiempos más violentos como lo es Amanda Peralta, hasta una infinidad de comentarios sobre cómo la violencia en los video-juegos podría volvernos violentes a nosotres jóvenes jugadores y jugadoras, pasando por incontables observaciones sobre la violencia en la televisión, en el cine, en las historietas, o hasta en la música. Pero así y todo la violencia sigue siendo una especie de amenaza infinita y hace falta entonces repetir hasta el hartazgo la misma enseñanza que nadie nunca aprende. Ya desde muy jovencito esto me despertaba serias sospechas de que algo no andaba bien con todas esas denuncias contra la violencia.

    Es cierto que los videojuegos tienen cuotas importantes de violencia, y reconozco que es legítimo llamar la atención sobre ello.

    Pero como marca generacional yo defendí y defiendo mucho a los videojuegos, y en esa defensa siempre supe responder con el siguiente argumento cuando alguien de mis generaciones anteriores me advertía sobre la violencia: “dos guerras mundiales, dos bombas nucleares sobre territorio civil, no sé cuántos holocaustos y genocidios, todo eso sin videojuegos, y nada de eso llevado a cabo por mi generación. ¡Lávense la boca antes de responsabilizar a mi generación por la violencia en la sociedad!”

    La violencia en los videojuegos, aún cuando pudiera ser un reclamo atendible y legítimo, me pareció siempre más bien un chivo expiatorio para otros problemas. Y esto se hace más y más evidente con casos como God of War y Last of Us: dos obras maestras absolutamente aclamadas, donde la descomunal y hasta exagerada violencia no parece actuar en detrimento de poder plantear una historia conmovedora, emocionalmente madura, y fundamentalmente movilizante. Si la violencia es acaso tan nefasta y deshumanizante, ¿cómo es que logra convivir con todo eso otro?

    Y con esa pregunta planteada, finalmente llegamos a la tesis de este trabajo. Lo que aquí vamos a sostener es que, precisamente, el problema no es la violencia.

    Toda esa violencia que vimos tanto en nuestra historia real como en aquellas historias ficticias, no son la enfermedad, sino apenas uno de los síntomas.

    Si bien los tres trabajos claramente nos dicen cosas acerca del uso de la violencia, y si bien algunas son más obvias que otras, queremos prestarle atención a una de ellas.

    La violencia es fácil de pensar en los casos de Kratos, que fuera específicamente criado para ejercerla y luego despojado de cualquier otra forma de elección de vida, y en el caso de Amanda Peralta, donde la violencia era la regla de su tiempo y la marca clara de una injusticia contra la que decidió levantarse sin tampoco muchas otras alternativas operativas; pero en el caso de Joel se vuelve extraña, difusa, mucho más difícil de justificar.

    De hecho, los actos de Joel casi que permiten caracterizarlo como una pésima persona, muy lejana a cualquier idea de heroismo, mucho más cerca de ser entonces un villano, y por esa vía difícilmente ningún avatar de nada que podamos calificar positivamente. Pero sin embargo, y al mismo tiempo, la historia de Joel también es la de una rehumanización, una recuperación de una humanidad que seguía latente dentro de ese cascarón de muerte y cinismo en el que se había convertido. Rehumanización que estuvo mediada también por la violencia, y no alejada de ella, del mismo modo que también le sucedió a Kratos en su paso por Asgard.

    Joel no era violento ni por decisión de los dioses ni musas, ni por ninguna inevitabilidad económico-material de los mercados ni la historia, sino porque esa fué la manera que encontró de vivir consigo mismo. Esa violencia fué la forma en la que pudo canalizar sus emociones en el mundo que le tocó, y así relacionarse con él de alguna manera, por las vías de la catarsis.

    Bajo ningún punto de vista pretendemos instalar la idea de que convertirse en un asesino despiadado es alguna forma de “terapia”, pero sí mostrar que un personaje como Joel se entiende mucho más a través de lo insoportable de sus experiencias de vida que intentando trazar líneas lógicas de razonamiento.

    Ese cinismo o hasta nihilismo de Joel, que a todas luces operaba sobre un trauma y un bloqueo emocional que contuviera aquellas sensaciones sobrecogedoras e invivibles que llevaban hasta al suicidio, por algún lado requerían también alguna forma de conexión con el mundo.

    Lo de Joel no era ningún plan racional de vida: era literalmente supervivencia como le saliera. No era hipócrita, como quien busca excusas para no aceptar la verdad de lo que hace: era sincero, aún cuando no exactamente racional. Y allí, la violencia, más que su problema, era el mecanismo por el cuál podría expresar de alguna manera todo aquello que no podía ni poner en palabras ni tampoco siquiera someter a alguna reflexión minimamente sanadora. Toda esa violencia era la pura catarsis de lo que Joel llevaba dentro.

    Ni Amanda Peralta, ni Joel, ni Kratos reflexionaron sobre la violencia por la violencia misma, por alguna forma de ejercicio ocioso, sino que lo hicieron sólo cuando tuvieron oportunidad de considerar otras alternativas, de ver las consecuencias del uso de la violencia, y muy especialmente de verse a si mismes como articuladores y responsables de tales consecuencias.

    Todes tenían razones para hacer lo que hacían, pero en todos los casos esas razones se volvieron excusas y justificaciones pecaminosas cuando en realidad se daban cuenta de que querían hacer otra cosa, _ser_ otra cosa.

    Y esas ganas de “ser otra cosa” no florecieron porque llegaron a la conclusión racional de que “la violencia es universalmente mala” ni nada por el estilo. En todos los casos, una vez realizada la catarsis adecuada, tuvieron una ventana de oportunidad para apreciar las situaciones desde otro punto de vista.

    Pero atención que eso tampoco fué por obra y gracia del espíritu subjetivo de cada une de elles, sino en enorme medida por las cambiantes condiciones materiales que les rodeaban.

    Esa catarsis de la que hablamos se realiza en relación a sentimientos propios de cada une de nosotres, pero también son sentimientos que tienen un origen y arraigo en la realidad material conviviendo con nuestras voluntades, y existen en busca de un destino hacia donde ser canalizados. En el proceso catártico somos mucho más intermediarios que creadores, y es un proceso que se inicia siempre en relación con la realidad que nos toca vivir.

    Y si bien todo esto último suena sofisticado o hasta dramático, lo que la caracterización de Joel requiere para entender su violencia es lo mismo que requieren tantas otras formas de violencia normalizadas en nuestras sociedades y aceptadas con absoluta naturalidad.

    La violencia como ejercicio de catarsis es lo que explica la violencia en los videojuegos, los deportes violentos, el hecho de que podamos ver películas de gente tirando piñas y patadas como algo que consideramos “espectáculo” o hasta “entretenimiento”, y tantos otros casos culturales más. En tanto que violencia, como acción humana, no queda eximida de ser una vía de catarsis, y de esa manera una experiencia tan liberadora como representativa de nuestras propias emociones.

    Y eso ya son dos dimensiones de análisis. Por un lado, la liberación catártica nos permite readecuarnos al mundo desde otro estado emocional radicalmente diferente al anterior.

    Y por el otro, su representatividad nos permite interactuar, acercarnos, agruparnos, con otras personas que sientan cosas similares, pudiendo así volverse una herramienta rehumanizante en tanto creadora de vínculos sociales, y dando oportunidad a resignificar aquellas emociones originalmente tan problemáticas para canalizarlas con otros fines.

    Pero atención, que nada de esto pretende ser una idealización, ni siquiera reivindicación, de la violencia: por el contrario, en este canal somos intelectuales y pacifistas, no gente violenta.

    Lo que aquí estamos planteando es que resulta técnicamente equivocado advertir sobre la violencia como si fuera una especie de razgo unidimensional de la condición humana, cuasi irracional y perpetuamente injustificable.

    Lo que estamos diciendo es que el problema no es la violencia en sí, sino lo que dá lugar a ella en primer lugar: aquellas emociones que luego deben ser canalizadas, expresadas, representadas y puestas a trabajar en el cambio de condiciones inmediatas de lo que nos toca vivir y se vuelve invivible.

    Esa experiencia catártica también revela una serie de cosas sobre lo que se está sintiendo y expresando, y es donde Joel se vuelve un caso de análisis productivo en su contraste con Kratos o Amanda Peralta. Porque si bien son todos casos de avatares de la violencia, con Kratos o Amanda Peralta siempre vamos a poder justificar sus actos de una manera más o menos racional, pero Joel se muestra mayormente injustificable.

    Y sin embargo, si le escapamos a la racionalidad, los fenómenos son los mismos: les tres tienen un origen trágico, les tres se vuelven violentes, y les tres finalmente escapan al camino de la violencia catártica y encuentran rehumanización.

    Visto desde esta perspectiva, aún tal vez habiéndose convertido en monstruos de acuerdo a algunos juicios, es difícil intentar afirmar que no son también víctimas en primer lugar, y que entonces la violencia que encarnan no es tanto el problema en cuestión: eso sería un poco como culpar a la persona resfriada por sus estornudos, sin prestar atención a la enfermedad de fondo.

    Este nos parece el problema generalizado con la figura de la violencia.

    Es un tema muy serio, pero se lo toma como si se tratara exclusivamente de una especie de ciclo infinito de violencia como repetición de la violencia en sí, cuando en realidad es otra cosa lo que está sucediendo. Y si eso es correcto, entonces la emergencia de la violencia puede tener otros orígenes.

    Del mismo modo que Amanda Peralta llamó a dejar de tomar el concepto de “guerra” o de “militancia” de forma acrítica, nosotres acá llamamos la atención sobre el mismo problema con el concepto de “violencia”.

    Podemos pensar que si bombardean tu ciudad, muy probablemente consideres tomar las armas para luchar contra el ejército enemigo que bombardea tu ciudad, y eso tiene pleno sentido lógico y racional; del mismo modo que si un dios o cualquier otra entidad articula el asesinato de tu familia es verosimil reaccionar jurando venganza.

    Pero cuando salimos a la calle, en nuestra vida cotidiana, la violencia con la que convivimos hoy en día parece mucho más gratuita, desproporcionada, irracional: gente asesinada por discusiones de tránsito, en situaciones de robos menores donde la víctima ni siquiera se defiende, en demostraciones cuasitribales de valía machista entre adolescentes, y demás barbaridades injustificables.

    Eso convive también con grupos criminales dedicados a aterrorizar a la población para someterla a sus mandatos, lo cuál de irracional no tiene nada; sin ir más lejos, compárese con las justificaciones de la revolución fusiladora para entender que tampoco tiene nada de nuevo.

    Pero aquella otra violencia más bien irracional e injustificada también existe, es visible desde que tengo memoria, y todavía hoy parece escapársele al análisis de la persona común y corriente, a sus interlocutores mediáticos, como una especie de incógnita. Como no es “violencia previa” la causa, entonces se le empiezan a decir “violencia” a cualquier cosa, o se empieza por ejemplo a hablar de “microviolencias”, en lugar de criticar la tesis de la “violencia previa” en sí. Y si no es necesariamente “violencia previa” la causa, necesitamos entender qué sí puede serlo.

    Un proceso de violencia catártica no necesita exactamente violencia previa, sino que alcanza con emociones que tiendan a ser invivibles. Y está lleno de situaciones en nuestras culturas contemporáneas a las que nos vemos expuestes y nos generan un constante ejercicio de tolerancia sin el cuál sencillamente explotaríamos en brotes de furia.

    No es solamente violencia: la miseria, la burocracia kafkiana, la incertidumbre económica o hasta directamente alimenticia, la complejidad inabarcable de un mundo al mismo tiempo inmenso y muy chiquitito, los choques culturales, la falta de techo o salud, el vivir con miedo a la violencia aún sin padecer actos concretos de violencia, los conflictos ideológicos, o hasta las propias urgencias emocionales personales. Creo no estar revelándole nada a nadie con esto que digo, y confío sea algo que cualquiera pueda visualizar fácilmente.

    Pero el punto de todo esta parte del trabajo no es revelar, sino plantear y poner en foco, un detalle vinculado a las advertencias históricas sobre la violencia: el problema no es la violencia misma.

    

Parte 5: La virtud de los desalmados

    Hay una frase célebre de Oscar Wilde que dice: “el patriotismo es la virtud de los tiranos”. O, al menos, esa es la versión que me llegó a mí de jovencito, en algún subtítulo de alguna película de acción en VHS.

    Mientras escribía este ensayo revisé un poco la cita por internet, para ver si realmente existía, y encontré que en lugar de “tiranos” frecuentemente lo traducen como “sanguinarios” o “depravados”. El original, aparentemente, decía “vicious”. Y es pertinente para lo que venimos hablando.

    Uno de los importantes análisis que realiza Amanda Peralta en su tesis pasa por la cuestión de la efectividad de la revolución socialista en Cuba.

    Es decir: la cubana fué una excepción entre la numerosa lista de revoluciones socialistas, comunistas, marxistas, en todo el planeta. Las mismas frecuentemente fracasaron, y entonces el caso cubano, cuyo proceso revolucionario continúa vigente hoy en día, se volvió extremadamente inquietante por aquel entonces.

    Y era el mismo momento de las grandes ideas en pugna, y del gran auge de las ciencias sociales luego de la bomba atómica, y de la más sofisticada y tensa diplomacia en medio de la guerra fría… la revolución cubana se volvía una experiencia extraordinariamente valiosa para entender no sólo los procesos revolucionarios, sino directamente los posibles futuros de la humanidad en lo inmediato.

    En ese contexto se intentó conceptualizar y sistematizar la experiencia de la revolución cubana en alguna teoría que operara de marco para repetir la misma experiencia en otros paises. Y esa teoría fue el foquismo.

    Amanda Peralta, cuenta ella misma, se subió a la ola del foquismo, por la que su generación se vió profundamente interpelada.

    El foquismo terminó siendo un fracaso generalizado, Guevara mismo murió asesinado en uno de tales fracasos, y en general lo único que logró fue dañar la percepción popular de las izquierdas y justificar una reacción conservadora, o al menos eso se le recrimina frecuentemente. En algún momento el foquismo se mostró como la estrategia revolucionaria de vanguardia, pero hoy se usa más bien como término despectivo luego de que el juicio de la historia le bajara el pulgar.

    Pero decíamos antes, Amanda Peralta estuvo ahí, vivió eso, y no sólo contó su historia sino que también la analizó, y por esa vía logró desarticular algunos detalles sobre el marxismo, el foquismo, y la teoría de la guerra en general. En primer lugar, supo rastrear una histórica influencia de las ideas de Clausewitz en la tradición marxista, ya desde el momento de Marx mismo, pero muy especialmente a través de Engels.

    Aquello de “la continuación de la política por otros medios”, concluyó, si bien parece algo cercano al sentido común, tiene necesariamente mucho de interpretación ideológica. Ella cita al caso las reflexiones de Clausewitz mismo cuando dice “la guerra tiene su propia gramática pero carece de su propia lógica; su lógica es la lógica política”.

    Y por esa vía, atravesando diferentes conceptos de “guerra”, el rol del Estado, y la relación con la población civil, Peralta notó cómo en aquellos axiomas de Clausewitz se podía llegar legítimamente a inferir que la guerra se convierta en la necesaria e inevitable continuación de la política.

    En sus palabras: “No todo el mundo puede distinguir en realidad entre una categoría militar y una filosófica o política. Esto es particularmente cierto en los análisis militares, que tratan de llegar a conclusiones políticas sobre la guerra con su propio aparato conceptual”.

    Pero además de los problemas categoriales y las influencias ideológicas, un caso particular fue notoriamente influyente en la tradición marxista, y especialmente la americana.

    No es lo mismo pensar revoluciones en paises otrora centrales, como pudieran serlo Francia, Alemania, o Inglaterra, que pensarlas en los paises periféricos. En América, todas las revoluciones fueron nacionalistas y anti-coloniales: fueron revoluciones independentistas mucho antes que representantes de conflictos ideológicos que articularan grandes ideas en pugna.

    Por esa razón la idea de “libertad” siempre fué una de las banderas más prolíferas del continente, y en buena medida también por cosas como esas el marxismo nunca tuvo tanta injerencia en América como sí lo tuvo en otros lugares del mundo.

    Y más allá de los muchos detalles en esto, de allí surge una importante característica de la revolución cubana: ni siquiera fué una revolución marxista, sino nacionalista y liberadora.

    El movimiento 26 de Julio, aquel movimiento revolucionario liderado por Fidel Castro, era una gesta revolucionaria patriótica, libertaria, y articulada contra la figura de un tirano. El pueblo cubano no abrió los brazos a los revolucionarios por los textos y principios marxistas, sino por la figura de la liberación nacional, tal y como sucedió muchas veces en todo el continente. Pero no fué sino hasta después de derrocar a Batista que, una vez en situación de necesitar decidir la estructura y lineamiento de gobierno, optaron entonces por el marxismo-leninismo.

    La revolución cubana no fué una revolución comunista, y esa es una parte constitutiva de su éxito: fué una revolución ante todo nacionalista. Ese es uno de los detalles sobre los que Amanda Peralta llama la atención en su análisis, y sobre cómo más tarde se mezcló la tradición de interpretaciones políticas sobre la guerra en el marxismo junto con el nacionalismo. Y cito directamente desde la tesis:

    

“En las ideologías nacionalistas, estas ideas han dado argumentos a la política expansionista nacional y belicista, y en el marxismo han dado estructura a una visión militar de la lucha de clases y a una tendencia a imaginar el proceso revolucionario principalmente en términos de guerra. Esta influencia hace que el conflicto social y político sea percibido casi como un acto de guerra.

    Surge una tendencia a pensar la política en términos militares y el aparato conceptual militar se transfiere a la política. Los objetivos políticos se perciben como alcanzables sólo a través de la guerra. De este modo, el aspecto militar cobra cada vez más importancia desde el punto de vista político. (…) Si el objetivo político de la guerra es un cambio social estructural que acelere el progreso de la historia, la guerra se considera como legítima.

    (…) Durante un proceso de guerra revolucionaria, estas dos diferentes concepciones de la legitimidad generalmente se confunden: la guerra se libra para poner fín a las injusticias sociales, e introducir un nuevo orden económico y social en la sociedad.”

    Está claro que el análisis no se aplica solamente a las tendencias marxistas, y la “gramática de la guerra” opera sobre la política en general. La época de Amanda Peralta tuvo lugar durante la peor parte de la guerra fría, y durante el auge del foquismo.

    Pero el momento cuando ella bajó las armas ya era otro tiempo diferente, donde todo parecía más difícil no sólo de justificar sino también de entender. Ella misma hablaba de “confusión” y de una necesidad de reflexionar sobre lo que estaba sucediendo. Y lo que estaba sucediendo es algo que para mi generación ya está bastante claro: era el momento del auge neoliberal, el anti-socialismo creado en laboratorio por think-tanks muy bien financiados durante décadas.

    Y mientras el “socialismo real” de la Unión Soviética llegaba por momentos a estar casi en las antípodas de los ideales que decía representar, los paises de la OTAN se volvían cada vez más beligerantes, en simultáneo a que el estado de bienestar keynesiano mostraba sus debilidades y aparecían crisis energéticas.

    Lo que pasó fue que el mundo se puso cada vez más hostil para todes. Mi continente en particular tuvo que padecer el Plan Cóndor. Pero la verdad es que el resto del planeta tampoco estaba en su mejor momento.

    En los setentas, las derechas hicieron responsables a las guerrillas de izquierda de toda la violencia instalada en la sociedad.

    Pero de eso hace ya 40 o 50 años, la Unión Soviética no existe más desde hace 30, Cuba es una isla aislada y mayormente intrascendente, el “socialismo del siglo XXI” venezolano implosionó luego de la muerte de Hugo Chavez, no parece haber un sólo análisis sobre la actual China comunista que no le diga a su gobierno “capitalismo de estado”, y en las sociedades en general el marxismo solamente se encuentra en libros bastante polvorientos o en universidades donde se estudian cosas que no son las que terminan garantizando un trabajo digno. Y sin embargo, acá estamos: sociedades cada vez más violentas.

    Las guerrillas marxistas fueron reemplazadas por organizaciones narcotraficantes proveedoras de drogas recreativas ilegales a los paises más ricos del mundo, pero fabricadas en nuestros paises sometidos bajo regímenes de brutalidad. Organizaciones mafiosas de todo tipo condicionan no sólo las voluntades populares sino muy especialmente a sus representantes y funcionaries públiques: jueces, legisladores, presidentes.

    El colonialismo sigue rigiendo de-facto a nuestro continente, sometiéndonos al accionar de servicios de inteligencia, mafias locales, y el sistema financiero internacional, de modo tal que la autonomía de las naciones sea una caricatura y dediquemos nuestra existencia a mantener el modo de vida de otra gente que vive muy lejos nuestro y de maneras muy diferentes a las nuestras. Y en ese contexto, los pueblos no están eligiendo ningún tipo de marxismo, sino más bien extremas derechas. Hoy lo que vuelve no es el comunismo, sino el fascismo.

    Los trabajos que presentamos para analizar nos hablan sobre la violencia. Pero nosotres les vamos a pedir que los vean con otro foco.

    Ya dijimos que la violencia no se explica por sí sola, y con todos sus enormes peligros tampoco es algo necesariamente malvado y perverso. Al caso revisamos comparaciones laboriosas entre Amanda Peralta y Kratos, pero también entramos en el caso de Joel para ver un detalle que la racionalidad causalista frecuentemente omite, y es el de la catarsis.

    Catarsis que como concepto frecuentemente forma parte de los estudios del arte, pero que en rigor es un mecanismo de nuestro aparato psíquico, cognitivo, emocional: una cuestión humana. Y sobre la catarsis mencionamos dos dimensiones de análisis: su necesidad de un contacto con la realidad, y su representatividad frente a otres.

    Dijimos que la violencia en la sociedad actual, si bien en muchos casos es legítimo explicarla en base a la violencia previa, en muchos otros casos no: como sucedía con Joel en su contraste con Kratos y Amanda Peralta, está lleno de casos cotidianos donde la violencia es difícil de explicar, y hasta parece alguna forma de “locura”.

    El chivo expiatorio luego de que dejaran de existir las guerrillas marxistas pasaron a ser “las drogas”, en tandem con “la televisión” o “los medios”: todas cosas que “te vuelven loco” o “te queman la cabeza”. Los videojuegos tienen también su lugar en esa explicación. Y tal y como sucedía con las guerrillas marxistas, son verdades a medias: efectivamente allí hay violencia, pero eso está muy lejos de ser una explicación.

    Una discusión de tránsito que escala hasta el homicidio, por dar un ejemplo típico, se explica mucho más por catarsis que por influencias explícitas o estrictas de violencia previa. Y, francamente, permítanme anotar, lo más probable es que los vieojuegos violentos sean una forma mucho más saludable de hacer catarsis violenta que entrar en peleas con desconocidos por nimiedades.

    Precisamente, nuestros niveles de tolerancia completamente saturados explican mucho mejor las explosiones de violencia furiosa, desesperada, o hasta nihilista, que se ven a diario en nuestras sociedades contemporáneas. Y esa saturación, esa sobrecarga de nuestros niveles de tolerancia emocional, no puede venir más que de nuestras propias experiencias cotidianas.

    Cualquier marxista diría con razón que allí lo que hace falta analizar entonces es “las condiciones materiales e históricas” en las que eventos indeseables como esos suceden, especialmente las condiciones de orden socioeconómico, o si se quiere incluso directamente las de clase social. Esto es evidente: el pobre tiene una vida peor que el rico, no hay discusión seria posible al respecto, y las razones sistémicas de esa pobreza y esa riqueza son entonces absolutamente pertinentes.

    Pero los modos particulares de los fenómenos también son pertinentes, y aquí no creemos que sea enteramente cuestión de clase. Por supuesto que sí lo es: pero también hay otras condiciones, que si estamos en lo correcto no dependen de la clase social, o siquiera necesariamente de la economía, y no por ello dejan de ser condiciones materiales e históricas. Nos referimos a las de orden cultural.

    Una sociedad, en tanto que sistema, consiste en las relaciones entre sus componentes.

    La cultura es un marco de relaciones posibles entre las personas y la realidad material. En diferentes culturas se dá lugar a diferentes acciones políticas, diferentes sistemas de gobierno, y en definitiva diferentes organizaciones de sociedad. Así, la forma en que nos relacionamos entre nosotres forma parte integral de nuestra realidad, tanto cognitiva como política.

    Lo que nos interesa marcar es que en diferentes culturas las relaciones entre las personas y la realidad se va a articular de diferentes maneras, aún cuando seamos todes humanes.

    Y la cultura no es alguna forma de absoluto conceptual para una sociedad dada, sino que existen múltiples culturas implementadas en una sociedad, por los componentes de la sociedad misma, y de esa manera las diferentes culturas se influencian entre sí y van cambiando: no existe una cultura, pura, nítida, inmutable, de la cual hablar, sino tan solo recortes históricos y locales.

    Los intentos por universalizar culturas siguen siendo fallidos hasta la fecha, y en el siglo XX casi llegaron hasta la guerra mundial termonuclear. Lo más parecido a alguna cultura universalizada es esto que vemos hoy en día, y que funciona así de horrible como se lo vé: un mundo de hegemonía neoliberal, que encima se pretende unipolar.

    Amanda Peralta supo ver que algo raro pasaba en los setentas, y que las guerrillas “se convertían en el enemigo”. Para entender eso raro que pasaba fué a ver su propia historia a la luz de la teoría de la guerra.

    Pero sin detrimento alguno a su trabajo, lo raro que pasaba era el giro neoliberal, cuya vanguardia formó parte central del Plan Condor. Y ese giro neoliberal, que fue cuidadosamente diseñado durante décadas y del que ya hablamos en varios videos anteriores, se esgrimía bajo consignas del tipo “no hay sociedad sino sólo individuos”, o bien “no hay alternativa”.

    No era solamente la izquierda convirtiéndose en su enemigo, sino las sociedades de todo el mundo siendo sometidas a una influencia cultural que venía a romper cualquier tipo de lazo social que no fuera el de la competencia individualista: era la creación de una cultura de la crueldad.

    En neoliberalismo se analiza frecuentemente desde sus insostenibles propuestas económicas, pero en lo cotidiano es un sistema mucho más de orden cultural que económico: sus relaciones sociales van a continuar siendo mayormente hostiles y eventualmente invivibles aún en momentos de bonanza económica.

    En los setentas se articuló en base a golpes de estado, donde las fuerzas militares encarnaban la figura de una violencia mafiosa y genocida que supuestamente vendría a purificar las naciones del tan odioso comunismo, y terminó en desastre económico, político, y social.

    Pero pocos años después, en los noventas, cuando el comunismo ya no existía más y el mundo ya era unipolar, se articularon principios socioeconómicos neoliberales que llevaron a la Agentina al desastre económico y político y social en el año 2001.

    Hoy se vuelven a proponer los mismos principios como si nos fueran a salvar de algo: de la pobreza, de la violencia, de la corrupción. Y la razón por la que el neoliberalismo continúa seduciendo a los pueblos después de tanto tiempo de dar solamente decepciones y miseria y desastre, es que efectivamente representa la experiencia cotidiana del pueblo: una vida de crueldad.

    Ante este planteo, pasamos a revisarlo un poco más en detalle.

    Las “power fantasies” que mencionaba Just Write en su video sobre the daddening no son un caso solamente de “poder”. Si curioseamos otros casos de personajes de ficción poderosos y también mayormente orientados a adolescentes, encontramos muchos cuyo poder se articula de maneras protectoras o hasta benefactoras, aún cuando también violentas.

    Por el contrario, esas “power fantasies” como la que encarnan un Kratos o un Joel son crueles. Parte de la catarsis a la que dan lugar, del disfrute que ofrecen, es la posibilidad de ser crueles en un entorno controlado y con un relato que lo justifique.

    La violencia es instrumental para la catarsis, y da lugar a cierta representación en los personajes, pero no por eso la violencia particular que llevan a cabo deja de tener sus detalles importantes.

    La historia de Kratos y de Joel coincide en el camino de vida que realizó Amanda Peralta: un día se dieron cuenta que por su camino se convertían en algo que no querían ser, y tuvieron una oportunidad de elegir otro.

    Amanda Peralta abandonó la lucha armada, y con ello la guerra: aunque en declaraciones posteriores siempre pareció sospechar de que la violencia tampoco podía abandonarse definitivamente. Eso también forma parte del espíritu de su trabajo posterior, “por otros medios”, donde analiza las maneras, los objetivos, los modos posibles de la guerra, no solo intentando reflexionar sobre su experiencia sino también intentando dejarle algo a las generaciones futuras que enfrenten problemas similares. Finalmente ella abandonó la guerra, pero no la lucha, a la cuál transformó en investigación para desentrañar los problemas de su tiempo y de su pueblo.

    Kratos también intentó abandonar la violencia y la guerra, pero tarde o temprano eso se mostró imposible, y entonces la decisión pasó a ser cómo se usa esa violencia, con qué fines, con qué medios: la misma búsqueda que Peralta rastreó desde Clausewitz para entender la tradición marxista.

    A Joel por su parte el mundo no pareció darle nunca la opción de abandonar la violencia: pero no obstante también se cruzó con el problema de en qué se había convertido, por qué razones, y si realmente quería continuar ese camino.

    Y en todos los casos el cambio sucedió recién cuando debieron considerar lo que dejaban a las generaciones siguientes, el cómo se relacionaban con ellas.

    Ni Kratos ni Joel abandonaron finalmente la violencia, sino que la resignificaron: se volvieron protectores, padres, y mentores. Sus catarsis, aquello insoportable que llevaban dentro, no estaba determinado entonces por “la violencia”, sino por el mundo cruel y despiadado en el que les tocó vivir. Y lo que cambió en ellos fue lograr sostener relaciones de cariño con otras personas, pudiendo finalmente así rechazar aquella crueldad que los aislaba de les demás y los reducía a pura violencia.

    Como le sucedió a Amanda Peralta y sus compañeres guerrilleres, por el camino de la crueldad se convirtieron en “el enemigo que antes estaban combatiendo”, y se dieron cuenta que por allí no se podía llegar a ninguna sociedad mejor.

    Aquellas “power fantasies” tienen mucho más qué ver con dejar brotar libremente toda nuestra crueldad acumulada que venimos soportando, y nada mejor que un mundo absolutamente cruel para escenificarlo. Así, el “poder” que se experimenta en esa violencia no es tanto la violencia misma, sino ejercer nosotres una crueldad a la que nos vemos sometides en nuestro día a día.

    Eso nos hace tener un vínculo catártico con los personajes, y por esa vía experienciar alguna forma de representación (y por lo tanto compañía), aún cuando se trate de personajes ficcionales haciendo cosas brutales en un mundo radicalmente diferente al nuestro.

    La crueldad que acumulamos adentro nuestro, si bien viene de afuera, ya es nuestra. Y tenemos esa crueldad adentro en primer lugar porque la misma forma parte de nuestra cultura desde hace ya mucho tiempo.

    Entonces, lo que pasa con esas fantasías de poder no es que nos creamos dioses de la guerra: nos sentimos empoderades al vivir nuestra crueldad como acciones justificadas.

    El problema entonces no es la violencia: el problema es la crueldad. Y lo que se aprecia en esas escenificaciones catárticas es que la crueldad es la virtud de los desalmados.

    Es lo que los hace sobrevivir en un mundo cruel, lo que les permite matar, y lo que finalmente les permite hasta destruir a sus enemigos. ¡Y cuanto mejor si acaso esa crueldad tuviera una justificación en un relato! En ese caso ya no son desalmados, sino alguna forma de héroes.

    Con sensaciones como esas fue que generaciones como las de Amanda Peralta terminaron abrazando un militarismo que prometía gloria y sólo trajo desastre; es la misma historia que se relata de Kratos, cuando la gloria de la conquista militar le dejó finalmente vacía el alma. Y es la misma alma que Joel nunca logró llenar ni con toda la violencia del mundo.

    Es pertinente notar que Kratos y Joel optaron por el suicidio para poner fín a su vida de miseria: así también se siente la crueldad. Pero no tuvieron éxito en sus intentos por morir, y debieron entonces seguir viviendo, frente a lo cuál improvisaron alguna vida posible para la persona en la que se habían convertido.

    Y por muy campeones de la violencia y la supervivencia que pudieran haber sido, no fué suficiente para elles con simplemente seguir viviendo: hasta que no encontraron vínculos sanos y sostenibles con otres, no tuvieron oportunidad alguna de sanar su alma, ni de ser ninguna otra cosa más que instrumentos de crueldad.

    

Parte 6: conclusiones

    Lo que comenzó en tiempos de Amanda Peralta, y que estamos viviendo hoy en día, es la implementación planificada de un sistema social de extrema crueldad.

    Y en estos días mi país está atravesando un proceso electoral donde el pueblo coquetea con votar a Javier Milei: uno más en la larga lista de personajes instalados por gente con demasiado dinero, que se presenta como novedad para quienes viven alienades de la historia del país, y que representa catárticamente gente de toda clase social e ideología al hacer declaraciones mediáticas de crueldad; alguien que le pone voz a esa crueldad, que la legitima, que la publicita como absolutamente necesaria, y así le dá sentido a la vida invivible a la que está sometida mi pueblo.

    Desde esa representación arma un relato mentiroso prometiendo gobernar para los intereses populares cuando sólo menciona propuestas políticas netamente corporativas que beneficiarían a los más ricos y a ninguna otra persona.

    Un tipo que explota el profundo desencanto para con la política establecida, encarnando entonces una “tercera posición” supuestamente original y renovadora, pero trayendo al caso nuevamente el ideario neoliberal, e incluso literalmente a las personas que formaron parte de las anteriores iteraciones de gobiernos neoliberales, incluida la dictadura militar y genocida.

    Argentina está a las puertas de elegir el fascismo, y para ello la crueldad es absolutamente central e instrumental: es, de hecho, la virtud de este desalmado que habla de grandes glorias en la competencia, en la guerra contra un enemigo que resulta ser el pueblo mismo. Pero al que confunde diciéndole que su sufrimiento está justificado por la acción de infiltrados corruptos entre el pueblo, y desde ese planteo nefasto dice luego que las cosas van a estar mejor cuando todo sea todavía más cruel. Darwinismo social neoliberal.

    Este hombre logra representar a una parte importante de la sociedad porque efectivamente esa sociedad vive en condiciones cada día más insoportables: la crueldad que interpela es real, y exige una catarsis cada vez más urgente.

    Y esa crueldad no es solamente “pobreza”, o “pérdida de poder adquisitivo”: es también tener que esperar meses para conseguir un turno médico, tener escuelas públicas que se caen a pedazos o hasta directamente ya no tienen vacantes, tener un transporte público colapsado e inseguro, no poder confiar en las instituciones en materia de seguridad o justicia, o padecer inundaciones y otros eventos naturales sin que durante décadas se implementen las obras de infraestructura necesaria para paliar sus efectos. La clase media también está harta.

    Y no es solamente tampoco una cuestión de clase: esa crueldad va a tocar el corazón de quienes padezcan soledad, marginalización, problemas de salud mental, o dificultades de todo tipo en la vida frente a las que experimenten la insoportable crueldad del desamparo.

    Hace tiempo la sociedad está siendo sometida a un asedio por parte de la derecha mafiosa y parásita de siempre, mientras del otro lado hay una centroizquierda pusilánime que ni enamora ni representa ni parece capacitada para prometer nada: siempre hay excusas para cumplir con urgencia las exigencias del sistema financiero, pero rara vez para cumplir las de los pueblos.

    De esa manera, donde antes había conservadurismo y progresismo, ahora el mapa político está partido en tres bloques equidistantes, donde el tercero representa al hartazgo. Y es un hartazgo cuyo único cable a tierra llega curiosamente por derecha.

    Ojalá fuera solamente un problema de Argentina. Pero lamentablemente se trata de un fenómeno mundial.

    Y por ello ya en el 2021 el doctor en Historia Pablo Stefanoni se preguntaba si la rebeldía acaso se había vuelto de derecha: porque en pocos años comenzaron a aparecer en todos los continentes del planeta, e incluso en paises centrales, un montón de figuras carismáticas de derecha que mezclaban un tanto de incorrección política con otro poco de ideas disparatadas, y parecían ser muy eficientes en la interpelación de juventudes y de otros amplios sectores de la sociedad.

    Estas derechas se muestran “rebeldes”: como en otra época lo hacían las izquierdas que combatían lo establecido hasta tomando las armas, pero que desde el auge del neoliberalismo parecen estar fuera de toda contienda política significativa.

    En este trabajo nosotres sostenemos que el neoliberalismo se convirtió en la base cultural, y no económica, que da lugar a esa clase de fenómenos. Los ciclos económicos van y vienen, y cuando vuelve el keynesianismo sin demasiado esfuerzo se vuelve a elegir más tarde economía neoliberal con las mismas excusas de siempre.

    Y el secreto para ello es sencillamente romper los lazos de solidaridad y humanización en la sociedad, ya sea por la vía de sembrar el miedo al otre o de seducir con la gloria de la competencia, generando en cualquier caso una alienación para con la historia, al mismo tiempo que una constante urgencia por catalizar los niveles cada vez más grandes de angustia y padecimiento personales.

    Por eso, porque ya estamos en ese marco cultural, es que cualquier cosa que suceda en el mundo (pandemia, guerra, desastres naturales) siempre termina capitalizada electoralmente por las derechas. Esa cultura neoliberal al mismo tiempo desempodera a las izquierdas y corre toda discusión política hacia la derecha hasta donde llegue.

    Y la economía es un chivo expiatorio. El objetivo no es enriquecerse, porque el keynesianismo y el estado de bienestar también les permite enriquecerse: el objetivo es un tipo particular de sociedad “donde el el hijo del barrendero muera barrendero”. Que digan lo que quieran sobre el marxismo: en este momento de la historia de la humanidad no existe ningún clasismo más intenso que el de las derechas.

    Para sorpresa de nadie, el marxismo tan supuestamente obsoleto y superado en realidad lo estudian en detalle y utilizan a diario las personas que trabajan en los mercados de valores: el sistema financiero, y las escuelas de negocio. Eso es así porque Marx dejó un mapa conceptual de extraordinaria precisión sobre el funcionamiento del capitalismo, a punto tal que muchos conceptos hoy elementales para explicar la realidad económica son netamente marxistas. El marxismo no fué superado: fué apropiado y por las derechas. Y junto con Marx, ¿saben qué otro autor se lee en las escuelas de negocio?

    Clausewitz. Toda esa “competencia” de “los mercados” que se supone le hace bien a alguien, está profundamente influenciada por la teoría de la guerra, y no debería tampoco sorprender a nadie que efectivamente conduzca hacia ello. Del mismo modo que les marxistes de la época de Amanda Peralta convertían “lucha de clases” en “guerra de clases”, así también lo hacen les capitalistes con sus negocios.

    Amanda Peralta revisó la tradición marxista en su relación con la guerra, porque pudo apreciar que una concepción acrítica de la guerra podía llevar a consecuencias desastrozas. Y efectivamente encontró enmarañados en el marxismo a la guerra, la lucha de clases, la política, y la revolución. Por ese camino terminó rechazando las vías de la guerra, e intentando dejar algunas bases que den lugar a otra forma de política.

    Pero desde aquel entonces, y mientras tanto, las derechas se la pasaron articulando todo tipo de guerras tan espeluznantes en sus consecuencias como costosas en su implementación, y mayormente fracasadas en su resultado final: “guerra contra las drogas”, “guerra contra el delito”, “guerra contra el terrorismo”…

    las derechas insisten e insisten, y nunca parecen pagar el precio altísimo que debió pagar la izquierda por alguna vez haber tomado las armas y llevado violencia a las sociedades. En este trabajo, al respecto, nuevamente llamamos la atención sobre cómo eso es por una cultura, y no una economía, neoliberal: una cultura de la crueldad en la que no se puede vivir sin ciclos brutales de catarsis.

    Y ante este planteo, me permito un breve paréntesis.

    Cualquier marxismo vulgar sostiene que la lucha de clases es el motor de la historia. Respetuosamente, a mí la lucha de clases me resulta más parecida al caño de escape que al motor.

    El juego de poner a la economía en el centro del razonamiento a esta altura podemos decir sin lugar a dudas que no ha beneficiado nunca a ninguna izquierda, y eso tiene mucho más qué ver con nuestra historia que el a qué clase social realmente beneficiamos.

    No es que niegue los intereses de clase: creo haberlos reivindicado durante todo el ensayo. Mi llamado de atención es sobre otras dimensiones humanas que son por lo menos tan importantes como la economía para entender a las sociedades, y en este caso particular me refiero a la cultura.

    Por los mismos años que Keynes le respondía al liberalismo, Freud ya hablaba del “malestar en la cultura” en uno de sus ensayos más citados. Y si tomamos las ideas populares de ese Freud al pié de la letra, de aquello de la sociedad sometiendo al sujeto como “motor de la historia” psicoanalítico probablemente no surja concepto más intensamente catártico que la libertad, el gran avatar neoliberal.

    El punto de este paréntesis es que el neoliberalismo es una perversión del marxismo y del psicoanálisis, entre otras herramientas científicas liberadoras. Como contamos en otros videos, desde los think tanks neoliberales estudiaron a ambos, les quitaron la condición de “ciencia”, y luego usaron sus conceptos contra las voluntades populares. El neoliberalismo siempre fue multidimensional, por muy cavernícola que luzca.

    Pero volviendo a la lectura sobre la guerra y las derechas, si bien Amanda Peralta sólo estudió la tradición marxista, ella publicó su tesis en 1990, cuando la guerra fría estaba terminando y con la caida de la Unión Soviética el marxismo pasaba más a decorar bibliotecas que a pelear ninguna sociedad diferente. Sin embargo, en 2005 hubo una segunda edición de su libro, y en el prólogo anotó algunas observaciones sobre las cosas que fueron pasando en esos años de hegemonía neoliberal planetaria. Y cito:

    

“De algo podemos estar seguros: el mundo unipolar no es un mundo pacífico.

    (…) Aquel mundo tal y como lo conocíamos a principios de los años 90 ha dado un giro insólito debido a la organización en redes, Internet como el gran acelerador tecnológico de la globalización y la velóz internacionalización de diversos fenómenos sociales, desde las organizaciones de base no gubernamentales hasta la cooperación policial.

    Algunos de los conceptos clave de la modernidad han perdido su significado, han sido cuestionados o bien sometidos a nuevas interpretaciones.

    En un mundo donde las estructuras supranacionales se han convertido más en regla que en excepción, el nacionalismo, por ejemplo, se vuelve difícil de localizar y definir. Su papel se hace menos tangible. Aún así el nacionalismo surge todavía fingiendo como si nada hubiera sucedido.

    Al mismo tiempo, el sentimiento nacionalista ha sido en gran medida desterritorializado. (…) Los territorios fijos desempeñan un papel cada vez más reducido para las nuevas identidades que van surgiendo. (…) Podemos constatar que la idea de revolución en sí misma se ha vuelto más difusa y plenamente vinculada a los movimientos sociales que tratan de implementar cambios sociales concretos desde las bases.

    En este ámbito, se puede afirmar que se han superado las creencias militaristas que han dominado al movimiento radical por el cambio social en los últimos 200 años. Después de ese extenso período de tiempo, empieza a ultimarse el divorcio entre los conceptos de guerra y revolución. (…) El pensamiento radical parece tomar una distancia definitiva de la fórmula clausewitziana-marxista-leninista.”

    Ahí termina la cita. El mundo finalmente cambió, la de Amanda Peralta no fué la única izquierda que bajó sus armas sino que todas las demás también lo hicieron, el nacionalismo se hizo cada vez más difícil de articular, y nada de eso hizo que el mundo pasara a ser exactamente más pacífico ni justo.

    Eso fué escrito hace 15 años: otro montón de cosas más sucedieron en el camino. Pero como mencionaba antes, las derechas nunca parecen pagar el costo de la violencia. Amanda Peralta se perdió muchos eventos, pero ya en su momento tuvo oportunidad de escribir esta otra cita que traigo a continuación:

    “Ahora es necesario formular otra pregunta: ¿en qué o en cuáles áreas es todavía actual la idea de Clausewitz sobre la guerra como continuación de la política? (…) El racionalismo de la modernidad con su pensamiento político-ideológico se convierte en un pensamiento cultural-étnico-religioso. El nuevo fantasma aterrador pertenece a otra civilización y adora a otro Dios. Se lucha contra él con la ayuda del propio Dios.

    Las pasiones, los miedos y las creencias son motivaciones irracionales que se convierten en armas apropiadas en una guerra de este tipo. La ambición civilizadora y la afirmación universalista que caracterizaban al sistema mundial moderno-colonialista, viven todavía en el autoretrato occidental. Frases que conocemos desde el apogeo del colonialismo brotan hoy de las bocas del poder y son propagadas con entusiasmo por los medios de comunicación.

    (…) El altruismo de los ciudadanos es un valor del que el Estado no puede prescindir ni puede forzar. (…) El Estado sigue siendo el principal responsable de la guerra, pero hoy cuenta con intereses privados que actúan como su socio o corresponsable. Esto implica que el concepto de política, que para Clausewitz significaba sólo la política del Estado y que los marxistas ampliaron a política de clase, modifica ahora su contenido.” (Fín de la cita)

    Cuando escribió eso, hacía pocos años del atentado a las torres gemelas. Pero ya en su momento le había parecido claro que había una política diferente operando en el mundo, con una guerra también diferente. Una política más xenófoba, oscurantista, corporativa, privatizada. Un poco sostenida en algunas ideas de antaño, pero otro poco también adecuada a una realidad donde el altruismo de los pueblos ya no permitía llevarlos tan fácil hacia el conflicto, y sobre ese altruismo habría que trabajar.

    Fue por esa vía que, apenas en una década, tanto internet como los medios masivos de comunicación comenzaron a experimentar cambios veloces y radicales, al mismo tiempo que crecían las ansiedades de las personas. Convenientemente llegó justo a tiempo una crisis financiera de escala mundial, que llevara a hablar al mundo nuevamente del ajuste necesario y la austeridad y el sacrificio al que se debía someter a los pueblos, mas no a los bancos ni las grandes empresas.

    Súbitamente comenzó a ser estimulada la xenofobia y el racismo ya sin ningún tipo de vergüenza o moralina o siquiera reglamento en los medios de comunicación, y más temprano que tarde empezaron a aparecer por las calles de Estados Unidos hordas envalentonadas de jóvenes con antorchas e iconografía nazi hablando de resistencia.

    La conspiranoia que en un principio generaba burla de repente llenaba estadios, y en 10 años desde que Amanda Peralta llamaba la atención sobre cómo los principios del sometimiento colonial pasaban a ser celebrados en primera plana, llegaba a la presidencia gente como Donald Trump.

    El neoliberalismo, socialmente hablando, es una forma del fascismo: aquel monstruo supuestamente exterminado durante el siglo XX, que se decía popular pero resultaba ser corporativo, autoritario, y cómplice del capital.

    Al respecto, Daniel Feierstein escribió recientemente un libro titulado “la construcción del enano fascista”, donde explora cómo los discursos de odio, y muy especialmente en expresión y representación mediática, son instrumentales para la configuración de prácticas sociales que formen parte de estrategias políticas, coherentemente con lo que venimos denunciando sobre la cultura.

    Feierstein explica que el fascismo se puede caracterizar de diferentes maneras, donde él plantea tres: fascismo como ideología, como forma de gobierno, y como práctica social.

    Él no estaría de acuerdo en nuestra afirmación de que el neoliberalismo coincide con “un fascismo”, pero de una manera u otra dedica buena parte de su libro a llamar la atención acerca de que, en tanto que prácticas sociales, estamos experimentando una ola política que se parece mucho al fascismo. Él advierte que la violencia en la sociedad está siendo estimulada, que los prejuicios acríticos circulan libremente por los medios del mismo modo que las mentiras, y que todo eso está articulado en función de la apatía para con las prácticas políticas. En sus palabras:

    

“(…) aquello que tienen en común [las experiencias nuevas] con las experiencias del siglo XX pareciera resultar mucho más importante que sus diferencias, muy en especial en torno a reflexionar sobre los modos necesarios para confrontarlos políticamente. (…) Caracterizar como fascistas las realidades contemporáneas solo puede tener sentido si es que las experiencias fascistas previas -y la lucha política para contraarrestarlas- puede tener algo para enseñarnos en el presente”. Y algunas páginas más atrás también afirmaba: “allí radica el aporte que pueden realizar las ciencias sociales: identificar similitudes en contextos diferentes”.

    Con eso en mente fue que trajimos una tesis doctoral en ciencias sociales para hablar de nuestra actualidad política, aún mezclada con cosas tan heterogéneas y disímiles como pueden ser videojuegos o historias mitológicas: son contextos totalmente diferentes, donde de una manera u otra podemos encontrar los mismos problemas. Y si hablan de los problemas, también nos pueden ofrecer reflexionar acerca de qué hacer al respecto.

    Nosotres pusimos énfasis en el detalle de la catarsis y la representación por sobre los actos de violencia en sí, y cómo la crueldad previa es un problema mucho más constante, invasivo, e insistente, que la propia violencia.

    A veces mezclar las cosas puede ser banalizarlas, y las comparaciones requieren delicadeza; pero eso no quita que nuestro panteón de cobardes que juegan cruelmente con las vidas de las personas inocentes se llama sistema financiero internacional, que sus montes olimpos son rascacielos, que hoy el dios de la guerra ya no se llama Ares sino BlackRock, que fantasear nosotres con llevar la guerra hasta sus patios es una receta de desastre garantizado, y que si no queremos convertirnos en parte del mismo panteón de crueles y miserables lo que debemos es encontrar otras relaciones con nuestro mundo, otras formas de resistencia más sostenibles, otros medios.

    Amanda Peralta, como nosotres en este canal, eligió la ciencia para continuar su lucha.

    Y es importante notar que resulta además absolutamente intolerable que la violencia se plantee como una especie de tabú corruptor al que se le debe escapar, mientras en rigor la derecha la sigue ejerciendo a discreción sin pagar nunca ningún costo. Los pueblos del mundo tienen que reflexionar con seriedad cuál es el rol de qué violencias para qué sociedades.

    Yo particularmente no estoy convencido de que la violencia sea necesariamente mala, y que no deba ser también una herramienta legítima de los pueblos. Muy especialmente considero esto en lo que respecta a la amenaza narco, a las policías y poderes judiciales corruptos y antipopulares, los servicios de inteligencia bajo control corporativo, y a la defensa de los recursos naturales.

    Pero como muy bien escenifican Joel, Abby, y Ellie, la violencia nunca va a curar las heridas de la crueldad.

    Sin embargo, ni estoy diciendo que haya que perdonar a nadie, ni que existan dos violencias de izquierda y derecha cual “dos demonios” comparables o asimilables: lo que estoy diciendo es que la crueldad es carísima para la sociedad, nuestras generaciones anteriores ya lo aprendieron por las malas, y bajo ningún punto de vista eso puede tomarse a la ligera cuando se piense ni en violencia ni en liberación. O, dicho a la inversa, como bien lo explica Amanda Peralta: nuestro altruismo tiene un precio muy alto como para andar malusándolo.

    Pero hay otra coincidencia más por la que elegimos a Amanda Peralta.

    La historia de Kratos en Grecia es muy distinta a la que luego inicia en Asgard. Allí, la segunda parte en realidad es mucho más la historia de Atreus que de Kratos, y de hecho culmina en Atreus iniciando su propio viaje de vida.

    Lo mismo sucede con la historia de Joel: una vez que salvó a Ellie, su historia no fué mucho más lejos que eso, y la segunda parte es casi enteramente el viaje de Ellie.

    Kratos y Joel lograron encontrar un cierre a su propia historia a partir de que tuvieron un nexo con la generación siguiente. Amanda Peralta, sin embargo, es más bien de la generación de mis abuelos y abuelas. Su generación siguiente es la que hoy conocemos como “generación diezmada”: la que padeció el secuestro, desaparición, tortura, y asesinato, de 30000 personas. Es una generación donde muchas tradiciones históricas quedaron truncadas, mucho conocimiento quedó perdido, y muchas historias no encontraron ningún tipo de cierre.

    Yo soy de la generación que sigue a esa: la que ya nació en pleno neoliberalismo y que nunca tuvo oportunidad de elegir otra cosa más que capitalismo, la que gritó “que se vayan todos” en el 2001 y fué lo más cercano que tuvo a alguna forma de revolución. Soy de una generación de sueños negados, de esperanzas sedadas, que heredó las heridas de la última dictadura y que ahora se aguanta su ira contenida con impotencia.

    Buscar en mis generaciones anteriores es también un intento catártico de reconectar un vínculo histórico roto por la dictadura genocida, en una época donde la violencia y el fascismo parecen querer volver a robarnos los sueños a los pueblos de todo el mundo. Traer a Amanda Peralta es un intento por subsanar algo de ese vacío intergeneracional que me distancia de un mundo anterior al neoliberalismo.

    Pero esto último no es un ejercicio de nostalgia. Por el contrario, sucede que yo ya no soy la generación que encarna la juventud de mi tiempo: yo soy ahora une de les adultes que como mínimo le debe explicaciones a esa juventud acerca de por qué las cosas son como son.

    Y cuando repaso mi propia historia, la soledad que sentí en el 2001, el odio que sentí por mis generaciones anteriores, que me dejaban esa sociedad en ese estado desastroso y sin más explicaciones que balbuceos repetitivos e incoherentes sobre grandes y solemnes ideas muertas, no puedo más que sentir compasión y responsabilidad por les jóvenes que les toque vivir esta era de neofascismo.

    Yo quiero hacer algo por la gente que viene después de mí. Por eso me pareció sensato buscar algún trabajo como ese, y ponerlo a dialogar con obras de esta generación: para que también, cuando a les jóvenes de ahora se le hable de violencia, puedan reflexionar además sobre el fascismo, sobre las izquierdas y derechas, sobre razón y revolución, y qué rol tenemos nosotres y nuestras emociones en todo eso.

    Los pueblos furiosos que eligen derechas no son idiotas: son víctimas. Su ira está justificada, racional y espiritualmente.

    No sé qué va a elegir mi pueblo, en buena medida eso está todavía en manos de los y las líderes de la generación anterior a la mía. Pero si algo claro nos dejan esas tres obras que trajimos, y muy especialmente al ponerlas a dialogar, es el consejo sincero, cariñoso, pero no por eso menos visceral, de que en nuestras elecciones de vida consideremos con la mente y el corazón, e intergeneracionalmente, cuando las angustias cedan y den una oportunidad, qué es a fín de cuentas lo que queda de nosotres.

    La inteligencia artificial lleva meses formando parte de debates sostenidos a nivel mundial en todas las esferas de discusión. Desde titulares en diarios y revistas de todo tipo, hasta opiniones de intelectuales prestigioses e incluso referentes polítiques, por todo el mundo se especula con cuestiones como el reemplazo de seres humanos por inteligencias artificiales en ámbitos laborales, los cambios sociales que se nos avecinan con la explotación de estas tecnologías, o hasta francas ideas apocalípticas. Y en el corazón de este fenómeno está un proyecto que se abrió al público general para su uso, y tuvo muchísima prensa: ChatGPT. Nosotres tenemos algunas cosas para decir al respecto, así que esta vez escribimos directamente una tesis, titulada “de máquinas y revoluciones”.

    

Disclaimer

    Antes de comenzar, corresponde una breve explicación de este video: porque ciertamente es larguísimo para los estándares de consumo actual, y tememos entonces que los momentos menos llevaderos sean pedirle demasiado a cualquier audiencia. Este video pretende dar un panorama de la cuestión Inteligencia Artificial desde diferentes perspectivas, todas mezcladas. La primera de ellas es una perspectiva histórica, y principalmente por eso se hace largo: aquí narramos una historia de la Inteligencia Artificial, seleccionada por nosotres, en sus puntos vinculados a la tecnología, la cultura, las sociedades de cada momento, y el espíritu de época. En segundo lugar, yo que escribí y relato esto soy trabajador de la Informática, y entonces este relato tiene mucho de perspectiva gremial: la Inteligencia Artificial tiene una íntima relación con la Informática, y quienes trabajamos de ello podemos brindar algunos detalles desde la cocina de esas cosas, además de que personalmente me interesa también que por esa vía otres compañeres del gremio tengan contactos con los relatos históricos o historicistas. En tercer lugar, este canal se dedica al contacto entre epistemología, sentimientos, y política, de modo que también el relato concentra buena parte de su cuerpo en tales cuestiones, para nosotres centrales.

    Con todo eso, lo que se pretende es un trabajo de divulgación, que al ser heterogéneo en su contenido pueda ofrecerles datos o temas interesantes a diferentes personas. Si une curiosea la historia de la Inteligencia Artificial por internet, frecuentemente se encuentra con planteos por demás técnicos, vinculados a técnicas matemáticas y estadísticas que pueden decirle mucho a la persona informada pero prácticamente nada a todes les demás. Nosotres quisimos evitar eso. Sin embargo, el video es largo, y va paseando entre tema y tema, época tras época, dando lugar a que muchas partes puedan ser más bien aburridas para diferentes personas. Por ejemplo, para alguien culte en política, los planteos que aquí hacemos pueden ser más bien del orden del sentido común, y por lo tanto aburrido; pero para obreres de la informática quizás no sea el caso. Del mismo modo, cuando hablemos de historia de desarrollos informáticos, especialmente la historia más reciente, probablemente muches de informática no tengan ganas de estar una hora escuchando cosas que ya conocen: pero a la gente que trabaja con política tal vez le resulte conocimiento nuevo, y por qué no hasta interesante. Lo mismo sucede con quienes estén formades en Arte, en Filosofía, en Historia, o en Ingeniería: van a haber partes más llevaderas que otras. Desde esa idea les pedimos paciencia para con las partes que requieran más trabajo seguir prestando atención.

    Nadie va a salir siendo especialista en nada luego de ver este video, por largo que sea. Pero sí nos gustaría generar algunas curiosidades en la audiencia: acerca de temas, de eventos históricos, de detalles en los que se puede ahondar. Nuestro intento con este ensayo fué el de llenar algunos huecos entre disciplinas, intentar tender puentes interdisciplinarios. Esto es muy especialmente el caso entre informática, historia, y política: pero en realidad son muchas las incumbencias aquí incluidas. Y también tenemos la fantasía de, tal vez, en alguna medida, poder incluso despertar algún interés entre la gente más jóven sobre alguno de los tantos temas que mencionamos: mostrar las relaciones interdisciplinarias, estamos convencides, da lugar a tomar conciencia de la importancia de nuestras actividades en un plano más general de cosas, que excede lo que llegamos a percibir en nuestro día a día, y que abre mucho los horizontes de imaginación.

    De modo que les invitamos a que lo vean con un espíritu tolerante y sin apuro. Para ello separamos el video en partes, de modo tal que puedan verlo también en diferentes momentos. Y si sienten que el relato se vuelve tedioso o les excede, supongo que también pueden saltar directamente hacia las conclusiones: aunque difícilmente tengan sentido pleno sin considerar todo el resto del relato, pero en una de esas les sirve para ver si les interesa el por qué alguien diría esas cosas, y entonces sí ver el trabajo completo. Eso lo dejamos a su criterio.

    

Introducción

    Ahora sí, comencemos por el principio. ChatGPT es un servicio online y gratuito de diálogo con un programa (o “chat bot”), que implementa los modelos grandes de lenguaje natural GPT-3 y GPT-4, todo esto desarrollado por la organización OpenAI. Y ya solamente esa oración requiere que hagamos una pausa y la analicemos más en detalle.

    En primer lugar, cabe la pregunta de por qué alguien querría voluntariamente tener un diálogo con un “chat bot”. No lo mencionamos antes, pero sí: la gente voluntariamente se pone a charlar con ese programa. Teniendo en cuenta que ese tipo de programas ya se encuentran presentes en nuestras sociedades desde hace tiempo, en lugares como “atención al cliente” o en “buscadores” más bien inútiles, y no son particularmente celebrados sino más bien todo lo contrario, cabe indagar por qué en este otro caso sí parece ser un fenómeno popular celebrado. Y la respuesta a esto es afortunadamente muy sencilla.

    Sucede que los diálogos con ChatGPT son sorprendentemente sofisticados, al punto tal que no se siente como un diálogo con un programa sino con otro ser humano. Y no sólo eso, sino que este programa parece ser capaz de responder sobre cualquier cosa. Además, sus respuestas son productivas: une le puede pedir que escriba una canción, un programa de computadora, un argumento para una novela u otro proyecto multimedial, y lo realiza con inquietante facilidad y precisión. Y así como ChatGPT trabaja mayormente con texto, otras inteligencias artificiales permiten crear imágenes a partir de frases escritas, transformar imágenes en otras imágenes modificadas, y muchas otras tareas donde también sorprenden los resultados y la facilidad con la que parecen llegar a ellos.

    Por supuesto que frente a ese fenómeno, las especulaciones sobre su potencial y su lugar en la sociedad son absolutamente legítimas, aún cuando tal vez un tanto superficiales. Más allá de qué tan cierto termine siendo lo que suceda con este desarrollo, está claro que, una vez vistos los resultados, no se trata de ninguna discusión ni idiota ni fantasiosa, sino que más bien se está tratando de dimensionar al fenómeno.

    Pero ya vamos a tener oportunidad de ahondar en ese aspecto. Volvamos ahora a los detalles de aquella definición. ChatGPT es “un servicio online y gratuito”. “Servicio” se refiere ambiguamente a un modo de software y a una relación comercial: por un lado, en términos computacionales, “servicio” responde a “lo que provee un servidor”, donde “el servidor” es alguna computadora con algún programa funcionando. Pero por otro lado refiere al hecho de que allí se involucra una transacción comercial como con cualquier otro bien o servicio. De hecho, la aclaración de “gratuito” es muy pertinente al caso de eso último, porque también hay modos de uso de este mismo servicio que no son gratuitos. Algunos ejemplos de “servicios gratuitos” como este pueden ser al mismísimo buscador de Google, o cualquier servicio de e-mail gratuito como los históricos de Yahoo o Hotmail. Pero cualquiera de estos servicios también están disponibles en diversos formatos arancelados.

    Allí se vuelve pertinente otro detalle: “desarrollado por la organización OpenAI”. Esta es una organización originalmente sin fines de lucro, que en 2019 mutó en una corporación bastante lucrativa. Su historia es fácil de acceder por internet, y no queremos dedicarle demasiado tiempo a los detalles, de modo que la resumimos muy brevemente. A mediados de la década pasada, OpenAI fué creada como organización sin fines de lucro y financiada por un grupo de reconocides empresaries, con el fín de concentrar y acelerar el desarrollo de la inteligencia artificial, y hacerlo de manera colaborativa con diferentes instituciones. Cabe aclarar que, en el contexto de la tecnología, y muy especialmente de la informática, “open” unánimemente remite a “open source”: que viene al caso precisamente de permitir acceder a los debates detrás de una tecnología y, en última instancia, cuando se trata de software, acceder también a su código original. Ciertamente, el nombre “OpenAI” y aquel espíritu colaborativo rememora todo eso. Pero cerrado ese paréntesis, OpenAI comenzó su historia en 2015 con una inversión de mil millones de dólares de parte de varias fuentes. Y en 2019 se convirtió en organización con fines de lucro, con otra inversión de mil millones de dólares, pero esta vez proveniente de una sola fuente: Microsoft. Y en Enero de 2023, después de diversas otras inversiones y “partnerships”, Microsoft anunció un plan de inversiones en OpenAI por diez mil millones de dólares.

    Pero más allá del nombre de la empresa que lo creó, ChatGPT no es “open source” en absoluto, al ser un “servicio online” no se puede descargar y ejecutar en una computadora propia, y básicamente es el caballito de batalla de Microsoft para competir con Google, Amazon, Facebook, y otras empresas del área, en productos vinculados a inteligencia artificial.

    Y con eso en mente, hagamos un poco de memoria: yo tengo 40 años, y desde Juegos de Guerra y Terminator me crié en un mundo donde la inteligencia artificial fue siempre parte de nuestra mitología, aún viviendo en un lugar del planeta absolutamente periférico. Un año antes de ChatGPT el mundo jugaba a hacer imágenes desde textos con DALL-E, unos años antes los deepfakes eran una amenaza que al final terminaron reviviendo actores y actrices fallecides, por esa misma época había películas como Her, o Ex Machina, o Trascendence, y salía a la calle una remake de Westworld, antes de eso los drones norteamericanos eran un tema al mismo tiempo que por internet veíamos a los robots esos de Boston Dynamics… ya hace rato que se insiste con la inminencia de la inteligencia artificial, y todos sus problemas. ¿Tan excepcionalmente radical es el cambio con ChatGPT? ¿Tan pendiente de ese cambio está la gente en todo el mundo, que de repente esto es un tema? El punto de estos comentarios es que, si bien es cierto que este software puede dar resultados sorprendentes, es igualmente cierto que buena parte de su popularidad se sostiene en una muy intensa campaña publicitaria.

    Pero esto es una introducción. Ya veremos más en detalles algunas de las cosas que comentamos aquí. Antes de enredarnos en eso, volvamos a aquella primera definición, y a la parte de la que todavía no hablamos, que resulta ser la más importante: “implementa los modelos grandes de lenguaje natural GPT-3 y GPT-4”. ¿Qué es todo eso?

    Que “implementa” significa que es algo que ChatGPT usa a nivel software. Es decir: sean lo que sean esos “modelos”, son en rigor componentes de software. Pero son algo más sofisticado que simplemente software, y aquí es donde aparecen las particularidades de esta forma de inteligencia artificial tan en boga.

    “Modelos de lenguaje natural”, por ejemplo, remite a trabajos de la lingüística, donde desde hace ya más de 100 años se trabaja investigando los pormenores del lenguaje en sus múltiples dimensiones de análisis; e incluso existe formalmente el área de “lingüística computacional”, y hasta más exactamente la de “natural language processing”, o “procesamiento del lenguaje natural”. Allí, un referente histórico del área es Noam Chomsky, actualmente más reconocido como referente intelectual de izquierda estadounidense, pero que en su momento fuera vanguardia en la lingüística formal y en el camino hacia la actualidad pasó por múltiples áreas: filosofía, ciencia cognitiva, historia, política. Y lo primero que podemos decir acerca de la experiencia histórica de Chomsky es que la reflexión sobre el lenguaje casi inevitablemente deriva en reflexiones sobre la comunicación, la mente, la relación con la realidad, y lógicamente la política.

    Sin embargo, GPT-3 y GPT-4 no son esa clase de “modelos” como los que hacía Chomsky en su momento en el MIT, y decenas de miles de científiques alrededor de todo el mundo luego. Estos modelos son otra cosa, mucho más relacionada con software, y de hecho con un modo muy particular de software. Son el producto de una serie de estrategias matemáticas aplicadas en software, que en su conjunto se llaman “Machine Learning”, o “aprendizaje de máquinas”. Es un área de inteligencia artificial que desde finales de los noventas ha ganado mucho impulso a través de inversiones y desarrollos tanto tecnológicos como científicos, y que hoy se muestra como la vanguardia en términos de resultados. Y tiene la particularidad de ser tan flexible que permite generar “modelos” para muchos casos de uso radicalmente diferentes entre sí: desde identificar e interpretar voces humanas, hasta emular la capacidad humana para detectar objetos, crear imágenes a partir de planteos, o cosas tanto más sofisticadas como banales como pueden ser bots para videojuegos. Esa clase de desarrollos de inteligencia artificial, en otros momentos podía requerir de años o décadas de trabajo coordinado entre científiques de múltiples áreas: pero Machine Learning viene a reducir todo eso a una lista finita de técnicas matemáticas e informáticas, aplicadas al consumo masivo de datos, para identificar y explotar patrones en esos datos. Y es precisamente de allí que se llaman “grandes modelos”: porque en rigor estas técnicas se pueden aplicar a conjuntos de datos pequeños sin ningún problema, pero los modelos como los de ChatGPT manejan una cantidad tal de datos que sólo pueden ser procesados por supercomputadoras o grandes infraestructuras, convirtiéndose en un desafío importante de ingeniería: que es a donde van a parar todos aquellos millones de dólares, además de usarlos en publicidad.

    Lo que estamos viendo, entonces, no es el auge de la inteligencia artificial, sino del machine learning: un área muy particular de la inteligencia artificial, que hoy se roba la atención de todes. Y es muy importante entender esto, y sus detalles, antes de ponerse a hablar de sus posibles consecuencias o sus peligros. Por ejemplo, una de las diferencias más notorias entre los modelos científicos y los modelos de machine learning, es que los últimos no pretenden ni explicar nada ni dar cuenta de los pormenores detrás de aquello que se modela: donde Chomsky y compañía pretendían comprender y explicar el lenguaje, punto desde donde se pretendía además interactuar e intervenir en muchos temas relacionados, al Machine Learning esas cosas le son sumamente accesorias y se concentra fundamentalmente en resultados lo suficientemente productivos. Y para esto, Machine Learning aplica técnicas de estadística sobre sus datos, dando lugar a la identificación de patrones y la generación de resultados adecuados a curvas de distribución de indicadores en esos patrones. Los modelos de Machine Learning operan como “cajas negras”, a las que se les brinda un input y con eso ofrecen un output: si ese output es útil o válido, al modelo se lo considera exitoso, y el cómo exactamente se llegó a ese output será otro problema separado al de la productividad.

    Machine Learning está permitiendo que, con una lista finita de técnicas, y utilizando hardware actualmente ya existente, lograr software mucho más “generalista” de lo que lograban inteligencias artificiales de antaño. Si bien tenemos computadoras que derrotan a campeones de ajedréz, o bien tenemos otras que traducen palabras o detectan cosas que se les programa detectar, ahora emergen inteligencias artificiales que parecen ser capaces de hacer muchas cosas más y sin un límite claro aparente. Y como nos tiene acostumbrades la tecnología, todo se siente que sucede demasiado rápido.

    Entonces, con esta introducción ya planteada, vamos a ahondarnos un poco más en detalles de esta actualidad de la inteligencia artificial, que mantiene al mundo entre diferentes ansiedades. Y para ello, como es costumbre, vamos a darle contexto a la cuestión mediante un paseo por la historia: del tema, y de sus ideas.

    

El tren de la historia

    La historia de la inteligencia artificial, como sucede con todo, es la historia también de otro montón de cosas. Y cuando se la pretende contar, los problema historiográficos comienzan a aparecer muy rápidamente. Por las dudas, mejor lo aclaramos desde el principio: mucho más que una historia exahustiva y meticulosa que se utilice como referencia, esto se pretende un relato coherente que permita a cualquier interesade ir a revisar las cuestiones por sus propios medios, al mismo tiempo que abre temas de discusión que nosotres pretendemos instalar. No miramos con buenos ojos que nuestro relato tenga datos falsos (si los hubiera), pero sí somos tolerantes con el hecho de que dejemos de lado mil cuestiones relacionadas, eventos, y personajes de diferente trascendencia en la historia real del tema. Tenemos plena conciencia de que un simple ensayo nunca va a poder abarcar ninguna cuestión por completo, y entonces el objetivo no es tanto hacer historia en términos rigurosos. Pero ello no quita que valoremos al rol de la historia como un eje fundamental para entender la realidad actual, y por ello la ofrecemos siempre como una parte constitutiva de nuestras propuestas de discusiones. Una historia rigurosa será tarea de historiadores e historiadoras, mientras que nuestra tarea aquí es otra.

    Aclarado eso, si tuviéramos que ponerle un punto de inicio a la historia de la inteligencia artificial como la conocemos hoy, diríamos aquí que arranca con las dos grandes guerras a principios del siglo pasado. Aunque debemos ir más atrás en el tiempo para hablar de los eventos que llevaron a la primera y segunda guerra mundial, por razones que lamentablemente sólo pueden quedar claras después de tener presente al relato ya planteado. Pero les pedimos nos crean, y nos tengan paciencia: si no contamos algunas cosas que parecen no tener nada qué ver, lamentablemente no se va a entender tampoco lo que está pasando con la inteligencia artificial en toda su dimensión.

    De modo que, como suele suceder en este canal, una vez más se trata de una historia de la modernidad. Y “modernidad” significa un montón de cosas diferentes dependiendo a quién se le pregunte. Hay un concenso generalizado de que se trata de un momento histórico, pero ese concenso muy rápidamente empieza a diluirse cuando se indaga en los pormenores de su definición. Por ejemplo, no hay muchas dudas de que en tanto momento histórico comienza con fenómenos culturales y políticos tales como el Renacimiento o la Ilustración, allá por los siglos XVII o XVIII; pero no hay un concenso preciso sobre un sólo evento, un sólo momento particular, un conjunto de eventos siquiera, o una fecha. Del mismo modo, hay personas que miden la modernidad en sus patrones culturales, otras personas en sus organizaciones económicas y políticas, otras en lineamientos filosóficos, y en su defecto hoy en día contínua un debate desde hace décadas al respecto de si la modernidad no ha efectivamente finalizado y estamos entonces en otro momento histórico diferente. Nosotres en este canal hablamos de una modernidad ya finalizada, pero muches intelectuales no consideran válido a ese razonamiento, o hasta lo consideran incluso dañino. De modo que es un concepto repleto de dificultades.

    En cualquier caso, está claro que por aquellos siglos hubo un antes y un después en el mundo. “El mundo”, en principio, sería lo que coloquialmente se llama “occidente”; pero en rigor los eventos que sucedieron en Europa y sus colonias tuvieron impacto en el planeta entero. Y todo comenzó con los eventos que dieron lugar a grandes cambios políticos y culturales en Europa, inicialmente en relación a lo que fuera por aquel entonces el rol de la religión en la articulación de las sociedades. Múltiples fisuras en el status quo de por aquel entonces llevaron a múltiples fenómenos sociales, a veces encadenados, otras veces paralelos: como pueden serlo la emergencia del protestantismo contra la iglesia católica, del racionalismo en filosofía, o de un antropocentrismo más generalizado en diversas praxis humanas que diera prioridad al ser humano incluso por sobre los textos sagrados. Y las consecuencias fueron muchas: aparecieron la ciencia, el capitalismo, el estado republicano liberal, el industrialismo, y muchos otros eventos y conceptos que harían a este ensayo básicamente infinito si se pretendiera abarcarlo todo. Por eso mejor le prestamos atención a dos grandes eventos históricos, canónicos como puntos de inflexión: las revoluciones francesa y norteamericana, por un lado, y la revolución industrial por el otro.

    La idea de que diferentes personas podían simplemente ponerse a pensar cómo funciona el universo, cómo puede funcionar de otras maneras, y qué en definitiva es bueno o malo, sin tener que rendir cuentas formalmente a ningún poder superior al caso de todo esto sino articulando las ideas entre pares de manera crítica, dió lugar a que los órdenes sociales de aquel momento fueran estudiados y criticados, dando a su vez lugar a la creación de órdenes sociales alternativos. Durante la revolución francesa, que duró unos diez años, el “antiguo régimen” fué cuestionado y rechazado en términos políticos, culturales, económicos, y religiosos. Por ese entonces ya se hablaba de “leyes de la naturaleza” (en contraste a los mandatos divinos) en todas las áreas del pensamiento, y las ideas de lo que más tarde fuera llamado “liberalismo” ya estaban lo suficientemente maduras como para empezar a requerir con fuerza articulaciones sociales que las pusieran en práctica. Y en el mismo momento que en Francia, aunque comenzando algunos años antes, en América se vivía una revolución paralela y similar contra la corona británica, que llevaría a la instauración de la primer democracia liberal en el mundo.

    Y también en paralelo, y también algunos años antes de la Revolución Francesa, sucedía otro evento histórico en Europa profundamente transformador de las sociedades del momento, y del curso de la historia hasta la fecha: la revolución industrial. Esto tuvo su origen mayormente en Gran Bretaña, aunque fue un proceso que se extendiera durante décadas y se propagara por el resto de Europa, así como también a los Estados Unidos de América. Lo que sucedió fue que algunos desarrollos tecnológicos fueron implementados en procesos de producción, resultando en índices de productividad sin precedentes hasta la fecha, y con muchas otras consecuencias relacionadas: sorprendente generación de riqueza, impensable crecimiento poblacional, cambios drásticos en la logística y diagramación de pueblos que pronto pasaban a ser ciudades… el mundo comenzó a transformarse muy rápidamente.

    Por ese entonces las ideas de Adam Smith ya eran influenciales, y representaban bastante el espíritu de la época: mediante el uso del pensamiento científico como fuerza liberadora, se daba al mismo tiempo una nueva explicación del universo, así como también justificaciones para transformaciones sociales futuras pensables. Y así, al mismo tiempo que aparecía la industrialización, en “la riqueza de las naciones” se discutían los supuestos límites en la producción de riqueza que por aquel entonces se comprendían como naturales o hasta divinos, y se articulaban los principios de lo que velozmente se tornaría ideología.

    La Revolución Francesa fue entonces una revolución capitalista. Y sin embargo, curiosamente, de la revolución francesa nos queda también una categoría política hoy más bien antitética al capitalismo: “la izquierda”. Durante las sesiones de los cuerpos legislativos de aquella Francia, les conservadores (defensores del antiguo régimen, o bien resistentes a los cambios revolucionarios) se sentaban del lado derecho del establecimiento parlamentario, mientras que les revolucionaries se sentaban a la izquierda. Y así sucedió que la primer “izquierda revolucionaria” de la historia fue liberal y capitalista.

    Pero muy pronto en la historia, apenas al llegar la siguiente generación, otra figura por lo menos tan influyente como Adam Smith se puso a discutir sus ideas, esta vez además con algunos datos empíricos extra de qué pasaba en el mundo con aquello de la riqueza y las naciones. Por supuesto nos referimos a Karl Marx, cuyos trabajos no sólo marcaron para siempre a la historia del pensamiento, sino que de hecho hasta el día de hoy es prácticamente sinónimo de “izquierda”. Y entre muchas otras cosas, lo que hizo Marx fué diseccionar y analizar en detalle al capitalismo, poniéndolo además en el contexto de su historia, y planteando otros horizontes de sociedades posibles muy diferentes a los propiciados por Smith. Marx dijo que la historia de las sociedades es la historia de sus conflictos entre clases sociales, que una característica fundamental del capitalismo es la propiedad privada de los medios de producción, que la división del trabajo que Smith leía como productiva era también profundamente alienante, y que básicamente la revolución francesa reemplazó una aristocracia por otra pero las clases sociales superiores e inferiores siguen estando allí: “libertad, igualdad, y fraternidad”, que era el slogan de la revolución francesa, podía ser posible sólo para los burgueses, y ni siquiera se daba entre ellos.

    Y acá hagamos una breve pausa, para tomar un poquito de aire y pensar de qué estamos hablando. Hay dos hilos unificadores en este bosquejo de relato histórico. Uno de ellos es la impresión de que, casi de repente, en algún momento de la historia pareciera que algunas personas se pusieron a criticar el estado de las cosas, y eso convenció a muchas otras de tomar medidas drásticas al respecto. El segundo, es que las cosas empezaron a cambiar muy rápido, y muy radicalmente. Y esas son precisamente las dos sensaciones unánimes de la mordernidad. Encontrar una definición indiscutible de lo moderno es una tarea imposible, por la cantidad de factores que se requiere y los infinitos disensos: pero la influencia explosiva del pensamiento crítico, y la sensación de aceleración de la historia, han de ser unánimes. Y lo mencionamos casi como aviso: porque a partir de este punto al que llegamos, todo se vuelve todavía más sofisticado, más rápido, y mucho más explosivo.

    Además, mencionamos a la religión casi como una cosa del pasado, pero la realidad es que no se fué a ningún lado, y de hecho acompañó a todo este proceso. Las religiones frecuentemente eran ya antropocentristas desde antes, en el sentido de que no era raro encontrar escrituras sagradas donde el ser humano era el hijo predilecto de los dioses, y entonces era elemental para cualquiera que todo lo demás en el universo existiera para ser sometido por la voluntad humana. Y este supremacismo antropocentrista se vió mayormente inalterado cuando las religiones comenzaron a perder poder ante el racionalismo y el liberalismo: no porque Dios exista o deje de existir, ni porque el mundo se volviera ateo (cosa que jamás sucedió), sino porque la humanidad se emancipaba de los dogmas escritos en textos sagrados e interpretados por elites religiosas para luego ser implementados como normas sociales. Reivindicar la inteligencia racional como característica suprema del ser humano se vivió como una experiencia profundamente liberadora.

    Pero atención, que eso no sucedió por virtud y gracia del racionalismo solamente. Fueron múltiples condiciones las que dieron lugar a que cambios tan radicales y rápidos fueran posibles. Por ejemplo, la decadencia de un status quo que no respondía con adecuada pericia a los problemas de sus épocas. Pero también muchos descubrimientos, muchos intercambios culturales, muchos eventos históricos… hay hasta quienes indican como un factor importante al hecho de que en Europa se comenzara a tomar más café y menos alcohol, dando lugar a la proliferación de la actividad intelectual. En cualquier caso, las ideas asociadas al racionalismo traían resultados: explicaban cosas que hasta el momento eran difíciles o imposibles de explicar, resolvían problemas irresolubles, y brindaban horizontes de nuevas sociedades posibles. Y esa cuestión del futuro era tan estimulante, porque del racionalismo surgían no sólo explicaciones, sino también predicciones: aquello que eventualmente pasara a llamarse “leyes científicas”, eran nuevas formas de certezas sobre las cuales construir infinidad de cosas, y por lo tanto eran muy valoradas; razón por la cuál la actividad científica también comenzaba a gozar de más y más prestigio.

    Así arrancó la modernidad: con mucho optimismo, y con una mirada más puesta en el futuro que en el pasado. Smith y Marx son apenas dos referencias contundentes y fáciles de citar, pero en realidad el mundo se revolucionaba por todos lados al compás de la ciencia y la tecnología, tanto antes como después de ellos. Y los mismos fenómenos sucedían en todas las áreas de praxis humanas: una división del trabajo similar a la del industrialismo de repente se replicaba en la especialización de las ciencias (que arrancaran siendo casi todas “filosofía”), una generación de personas se dedicaba a tareas que en la generación anterior no existían, un mundo que décadas antes era enorme comenzaba a sentirse cada vez más pequeño, y todo ello (con todos sus innumerables pormenores) al mismo tiempo alimentaba a las ciencias y filosofías e ideologías que seguían agregándole velocidad a esa rueda, generando en iguales cuotas ímpetus revolucionarios y resistencias más bien inquebrantables.

    Al mismo tiempo que Marx, por ejemplo, aparecía Darwin. Darwin de repente dijo que el humano desciende de otras especies, que la razón de ello es algo llamado evolución, que toma millones de años (por lo cuál la tierra era mucho más vieja de lo que el común de la gente creía), y que la evolución además se rige por un mecanismo llamado “selección natural”. Esa “selección natural” se opone a la “selección artificial” (que sería aquella determinada por criterios humanos), y consiste en millones de años de variaciones pequeñitas y arbitrarias entre descendientes: dando lugar a diferencias entre sujetos, y eventualmente a la emergencia de diferentes especies. Las extinciones se explican porque, en situaciones de crisis (típicamente cambio climático, enfermedades contagiosas, o escases de recursos), esas diferencias pueden constituir ventajas relativas al contexto, y entonces así sobreviven los sujetos que mejor se adaptan al ambiente: “supervivencia del más apto”.

    Todo eso de Darwin, lejos de cerrar ninguna cuestión anterior como la religión o la supremacía, las volvió todavía más virulentas. La religión y la ciencia ya no podían ser amigas, donde el texto de Darwin es un elogio de la diversidad les supremacistes interpretaron la “supervivencia del más apto” como un elogio de la competencia, la cuestión de la exclavitud pasó a estar científicamente fundamentada tanto a favor como en contra (les racistes cómodamente pueden afirmar que la gente de diferente color de piel es sencillamente otra especie, y por lo tanto no son seres humanos), y así aparecían nuevas y más urgentes razones para separar el trabajo intelectual en especializaciones, separar los grupos sociales a partir de creencias, o pretender más cambios radicales con iguales magnitudes de resistencias.

    Y de cambio en cambio y revolución en revolución, se pasó volando el siglo XIX y el incipiente siglo XX encontró un mundo entre vanguardias tecnológicas e intelectuales y conservadurismos más bien medievales y recalcitrantes. Al mismo tiempo convivía gente que se rehusaba a resignar el uso del caballo como transporte con gente que pretendía hacer máquinas voladoras. En paralelo convivían feudalistas con monarquistas con capitalistas con socialistas. Y por ese entonces ya empezaban a hacer lío Freud y Einstein: uno diciendo que la racionalidad tenía límites más bien evidentes, y el otro pensando cosas raras sobre el tiempo y el espacio. Todo podía ser un evento histórico: desde una nueva forma de propulsión, hasta el descubrimiento de cómo funcionan las plantas, pasando por el rol de las mujeres en las sociedades o alguna nueva herramienta matemática. Y esto, por supuesto, tenía infinitas consecuencias sociales y políticas.

    Una característica de la modernidad que pretendimos dejar al alcance de la vista con nuestro relato, es el hecho de que esas cosas llamadas “progreso” o “revolución” no eran una especie de “paso de página”. Hay una concepción ingenua de la historia, muy frecuente entre las personas que no reflexionan mucho al respecto de todo esto, por la cuál se imagina algo como lo siguiente: dado un hito de progreso, aquello anterior a ese progreso queda más o menos inmediatamente obsoleto y olvidado, ciertamente superado. Pero la historia se parece mucho más a un agregado de capas que a un salto de página: más que una vuelta de página en un libro, es algo más parecido a la acción de agregar capas de papel transparente, con tan sólo algunos componentes dibujados, sobre otras capas y capas y capas anteriores. El punto es que lo nuevo no elimina lo viejo, sino que conviven. Y entonces, si una persona vive problemas del siglo XVIII, los problemas del siglo XIX no quitan a aquellos problemas viejos sino que más bien ahora tiene problemas nuevos agregados. Y lo mismo va a seguir pasando en los siglos siguientes.

    

Cambalache

    Y así llegó el siglo XX: un momento de la humanidad con iguales cuotas de maravilla y de horror. Cosas cuasi-mitológicas o hasta otrora divinas fueron logradas por la humanidad durante el siglo XX, y siempre bajo la figura del “progreso científico”. Por izquierda y por derecha, entre clases altas y clases bajas, en oriente y en occidente, la figura de la ciencia gozaba de un prestigio y una trascendencia difícil de comparar con ninguna otra institución humana del momento. De modo que todo lo que se hacía por aquel entonces intentó ser “científico”, y tratar de meter ciencia en cualquier actividad era el espíritu de la época. Y, por supuesto, en un contexto como ese, tanto para entender sus pormenores como para protegerla de usos espúrios o falsificaciones, la ciencia en sí fue estudiada cada vez más en detalle. Así nacían filosofías que plantearan metodologías para los quehaceres científicos, sus límites, o sus cualificaciones, bajo el nombre de “epistemología”. Para esta altura, no sólo la ciencia era prestigiosa, sino que el mecanismo inverso también se aplicaba: todo lo que no fuera científico era visto como alguna forma de razonamiento de segunda o tercera categoría, nada meramente racional estaba a la altura de lo científico, y las pruebas de ello eran las ya incontables manifestaciones del progreso. Ciertamente, la ciencia requería se le preste una atención especial.

    Así que se creaban ciencias para todo, dividiendo más y más el conocimiento científico en ciencias “especializadas”. Y una de esas ciencias tenía como objeto de estudio los pormenores en la toma de decisiones a nivel estatal, para lo cuál se requerían analizar grandes cantidades de datos provenientes de paises enteros. Esta “ciencia del Estado” se llamó “Estadística”. Y si bien (como todas las otras ciencias) levaba siglos de hitos en su desarrollo en diferentes lugares del mundo y diferentes momentos históricos, dió grandes pasos en los primeros años del siglo XX y se consolidó como disciplina formal y autónoma. Pero las técnicas estadísticas, que nacieron en el contexto de utilizar a las por demás prestigiosas matemáticas en el proceso de toma de decisiones estatales, rápidamente pasaron a utilizarse como herramienta para el proceso de toma de decisiones de cualquier otro contexto: negocios, confirmación o refutación de hipótesis científicas, diagnósticos, construcción de tesis históricas o antropológicas, etc. Y en el corazón de la “toma de decisiones en base a la estadística” estaba la predicción de eventos futuros: mientras de la mano de la predicción de eventos futuros mediante técnicas matemáticas aparecían los “modelos” de como funcionaban ciertos objetos de estudio, ya fueran componentes de la materia o sociedades humanas. Modelos que podían ponerse a prueba. Modelos estadísticos.

    En ese contexto, el análisis de datos, o a veces también llamados información, tuvo otro compinche con el cuál hicieron las veces de “dúo dinámico” de la historia científica y tecnológica del siglo XX: la informática, o “ciencia de la información”; otra disciplina también incipiente y también descendiente de las matemáticas, aunque más cercana a la tecnología, y por lo tanto la física, y la electrónica, y la ingeniería. Al mismo tiempo que aparecían necesidades de trabajar grandes cantidades de datos con grandes procesos matemáticos, aparecían sofisticados aparatos de vanguardia ingenieril que eran capaces de ejecutar procesos matemáticos mucho más rápido de lo que los seres humanos podríamos llegar a hacerlo. Y esto a su vez alimentaba al trabajo científico, que ahora tenía herramientas para trabajar sus complicadas hipótesis sobre la realidad, que requerían cálculos enormes para considerar las muchas variables involucradas en sistemas cercanos a lo real, y a su vez permitían producir predicciones que luego podrían ponerse a prueba. La existencia misma de computadoras generó una demanda inmediata en ciertos círculos muy especializados, y allí nacieron algunas de las hoy grandes empresas informáticas: como ser la otrora dominante IBM. Así, la estadística, de la mano de la informática, comenzaba a constituirse como un espacio de la ciencia y la tecnología tan prometedor como esotérico, y las fantasías sobre aparatos que tomen sus propias decisiones no tardaron en emerger en la cultura popular.

    Aunque “aparatos tomando sus propias decisiones” tampoco era algo estrictamente vinculado a las estadísticas tampoco, ni a la informática. Si bien estadística era casi sinónimo de “toma de decisiones”, también existía otro concepto igualmente incipiente y persistente desde hacía ya mucho tiempo: “control”. Y como ya había radio, y ya había electrónica, emergieron ideas tanto teóricas como puestas a prueba de cómo controlar aparatos a distancia con diferentes fines: y si bien estos aparatos no tomaban sus propias decisiones, la fantasía de que pudieran eventualmente hacerlo y la problematización del cómo lograrlo era moneda corriente en esas áreas de la ingeniería. Un ejemplo paradigmático fue el llamado “telekino”: hoy nombre de lotería por televisión, pero por aquel entonces una combinación de los términos griegos “remoto” y “movimiento”. El telekino fue un sistema por el cuál se podían enviar comandos, mediante ondas de radio, utilizando un aparato transmisor hacia otro aparato receptor. Este aparato receptor tenía un componente llamado “memoria”, donde persistía temporalmente los comandos que se le enviaban, para eventualmente ejecutarlos de diferentes maneras luego de interpretarlos. Y las primeras pruebas exitosas en público fueron, precisamente, controlar un bote a distancia. Aquí no hay tanto ni informática ni estadística, sino más bien ingeniería electromecánica; pero sin embargo, alcanzaba ya sólo con eso para empezar a hablar de metáforas metafísicas sofisticadas como “memoria” o “interpretación”.

    Es fácil imaginar que el espíritu moderno podía hacerse delicias de fantasías con estos desarrollos. Pero todos los cuidados del mundo no lograron evitar que la ciencia fuera utilizada, además de para maravillas, también para horribles desastres. Todo esto del control o la estadística no fueron la excepción. Y es que la ciencia y la tecnología nunca existieron aisladas de sus sociedades, y todas las fuerzas sociales e históricas interviniendo en ellas.

    En las primeras décadas del siglo XX tuvo lugar un evento que resultó un cachetazo de realidad para los optimismos tecnológicos y cientificistas: la primera guerra mundial. Con todo lo que ya dijimos sobre el tren de la historia moderno, los detalles sobre la guerra son triviales y tienen poco sentido, mientras que las razones del conflicto fueron, como siempre, puramente humanas. Los paises de Europa entraron rápidamente todos en una misma guerra, y esta guerra tuvo como novedad muchos cambios en la forma de llevarse a cabo. Los modos de la guerra ya estaban influenciados por nuevas ideologías, nuevas morales, nuevas concepciones de lo social y lo nacional, o hasta de lo humano. Pero muy especialmente estaban influenciados por nuevas tecnologías. La ciencia y tecnología aplicadas a los actos de guerra dieron nacimiento a armamento tan novedoso como aterrador: ametralladoras, tanques de guerra, aviones de guerra, armamento químico, y explosivos poderosos de todo tipo. La devastación de la primera guerra mundial fue shockeante, lo cuál se expresó de forma más contundente en la cifra de muertos y heridos, que se contaban por decenas de millones: algo nunca antes visto en la historia de la humanidad.

    Fue prontamente rotulada “la gran guerra”, y constituyó una aterradora contrapartida al optimismo de comienzo de siglo. La tecnología bélica fue protagonista central de uno de los eventos más oscuros jamás vividos en ningún otro momento que se tuviera registro, y detrás de esa tecnología estaba la constante y hasta ese momento “neutral” o hasta “benefactora” figura de la ciencia. No hubo nada de neutral en esa guerra: la ciencia y tecnología fueron decididamente contrarias a cualquier forma de beneficio de ninguna sociedad, cualquier forma de moral o ética ni académica ni religiosa, cualquier forma de “bien”; la ciencia fué antihumana. Aún cuando críticas a la ciencia y la tecnología pudieron existir desde siempre, fué después de la gran guerra que se comenzó a cuestionar con seriedad y contundencia al optimismo científico y tecnológico que se venía propagando e intensificando por todo el planeta desde el nacimiento de la modernidad. El único atisbo de optimismo luego de la gran guerra fue la ilusión de que esta habría sido la última, “la guerra que ponga fín a todas las guerras”.

    Y una vez más, nada de esto detuvo al tren de la historia, sino que lo aceleró todavía más. El moderno aparato productor liberal que ya llevaba bastante tiempo explotando trabajadores hasta niveles francamente retorcidos, y sin nunca mostrar un límite concreto en el horizonte sino más bien prometiendo para siempre más de lo mismo, hizo más y más y más intensos los clamores de una nueva revolución. Pero esta vez no una capitalista, burguesa, comerciante, sino una obrera y socialista. El fantasma del socialismo sin dudas recorría Europa desde Marx mismo, pero estaba cada vez más cerca de dejar de ser inmaterial. Y así se llegó a la revolución rusa de 1917, que eventualmente llevara a la creación de la Unión Soviética en 1922, sobreviviendo no sólo al daño de la gran guerra sino a su propio conflicto civil. Esto, ciertamente, no tranquilizó a la Europa liberal, que se volvió furibundamente antirevolucionaria, y en ese caldo de cultivo nació también el fascismo.

    Pero las heridas de la guerra no terminaron de sanar, y el planeta no llegó a olvidar: muy pronto llegó la segunda guerra mundial, cuyo desastre opacó incluso a la anterior, y hasta la hizo ver pequeña en comparación. Se pueden hablar horas y horas sobre los detalles sociopolíticos, históricos, económicos, e ideológicos del conflicto, tanto antes como después de que sucediera. Pero esto es un ensayo sobre inteligencia artificial, ¿recuerdan?. De modo que tenemos que concentrarnos en lo que nos importa. Y para el caso, no hay nada más elocuente que prestarle atención a cómo terminó.

    El 6 y 9 de Agosto de 1945, los liberales y liberadores Estados Unidos de América, en consenso previo con sus parientes europeos del Reino Unido, lanzaron dos bomas atómicas sobre las ciudades japonesas de Hiroshima y Nagasaki, matando centenas de miles de civiles. Casi como si la devastación de las dos guerras no hubiera sido suficiente dolor, desamparo, y pánico, ahora el mundo podía ver de repente el absoluto colmo: armas de destrucción masiva, tan absurdamente poderosas y mortales que por primera vez en la historia de la humanidad aprendieron a compartir el mismo pesimismo fatalista y apocalíptico tanto gente creyente como gente atea; por primera vez, la humanidad se enfrentaba objetiva e incuestionablemente con la posibilidad de su propia extinción. Y no sólo eso, sino que la posibilidad venía de la mano de las “maravillosas” ciencia y tecnología.

    Para muches, estos fueron los días donde la modernidad se terminó: no tanto porque sus prácticas en órdenes productivos o socioeconómicos hayan dejado lugar a otras diferentes, o porque las instituciones de la época hayan cambiado de alguna manera radical, sino por el hecho incuestionable de que a partir de ese momento ya nadie en el mundo volvió a ver a la ciencia y tecnología con los mismos ojos. Mientras la ansiedad nuclear llenaba el corazón de personas en todo el planeta, el optimismo se evaporó rápidamente, y la sensación unánime fue que al tren de la historia había que ponerle frenos. Para muches, estos días dan lugar al comienzo de una nueva “era atómica”, mientras que muches otres simplemente se refieren a todo lo posterior como “post-modernidad”. Muchas, pero muchas cosas sucedieron antes, durante, y después de la segunda guerra, vinculadas a ciencia y tecnología, y al cómo se relaciona eso con las sociedades. Y fue en esta era, con todo ese baggage que contamos y bajo ningún punto de vista aislada de ello, donde nació finalmente la inteligencia artificial.

    Durante las dos grandes guerras, y especialmente durante la segunda, la informática y las disciplinas vinculadas a la “toma de decisiones” vieron grandes desarrollos. Es de conocimiento popular, por ejemplo, la figura de Turing (uno de los “padres” de la computación) descifrando mensajes nazis. Pero las matemáticas, estadísticas, y su compañera la informática, eran protagonistas silenciosas en muchas áreas. Lógicamente todo lo que remitiera a armamento novedoso tenía mucho de física involucrado, y frecuentemente requería cálculos muy rápidos, ya solamente por las urgencias del momento. Todes pueden imaginar la cantidad de cálculos que se necesitaron durante el Proyecto Manhattan, que diera lugar a las primeras bombas atómicas. Y no hacía falta tampoco irse tan a los extremos: ¿recueran al “telekino”, que se usó para controlar botes a control remoto a principios del siglo XX? El mismo ingeniero que lo creó intentó continuar sus investigaciones aplicándolo a torpedos. Fue antes de la primera guerra y no consiguió financiamiento, pero el cómo se usarían esas tecnologías era más o menos evidente para cualquiera, y de hecho dió lugar precisamente a la creación de los misiles teledirigidos durante la segunda guerra.

    Pero la vanguardia tecnológica militar traía nuevos problemas a les ingenieres del momento, y uno de ellos fué una de las personas más importantes en la historia de la inteligencia artificial. Este hombre cuenta en sus libros cómo, por aquel entonces, se enfrentaba con un problema tecnológico complicado: los aviones de guerra comenzaban a ser demasiado veloces. Si los aviones eran demasiado veloces, ningún ser humano podía apuntarles con armamento antiaéreo para detenerlos. Y si eso era imposible, entonces no existiría manera de detener a los aviones, y no existiría pues zona segura contra ellos. El desafío de ingeniería que se enfrentaba, entonces, era desarrollar defensas automáticas, que detectaran a los aviones enemigos y tuvieran la capacidad de derribarlos, lógicamente apuntando y disparando a velocidades que ningún humano era capaz de ejecutar. Estos fueron problemas típicos, si bien de vanguardia, en una disciplina llamada ingeniería de control.

    Este ingeniero entonces relata que, en sus investigaciones al respecto de cómo lograr esa defensa automática, tuvo oportunidad de reflexionar acerca de cómo funciona todo aquello que es autónomo. Es decir: los mismos principios que se aplican a una torreta antiaérea que apunta y dispara hacia aviones demasiado rápidos para la interacción humana, son principios de autonomía de sistemas que se pueden generalizar a cualquier otro sistema. Y rápidamente se dió cuenta que esos otros “sistemas” excedían a las máquinas, y también incluían a seres vivos. La mecánica fundamental estaba en los mensajes que se enviaban entre componentes del sistema, así como también las fronteras con los límites del sistema y las maneras de identificar variables de su contexto.

    Por ejemplo, en el caso de la torreta, de alguna manera era necesario detectar los aviones, que a tales velocidades no se podía simplemente esperar a que vuele por encima sino que habría de ser detectado desde lejos: sensores adecuados eran necesarios, o caso contrario el avión era “invisible” a la torreta; pero luego era necesario también hacer interpretaciones de los datos de esos sensores, de modo tal que se anticipara la trayectoria del avión enemigo, y entonces se pudiera apuntar a los puntos de intersección correctos con los proyectiles defensivos. Nada menor, dicho sea de paso, especialmente teniendo en cuenta que era todo electromecánica, y las computadoras como las conocemos hoy no existían. Pero en esa aventura, una de las condiciones elementales que prontamente aparecían eran detalles tales como que no se puede apuntar con un sólo dato, sino que se necesitan varios: una historia de datos, guardados en alguna forma de memoria del sistema sobre la que luego se realizan operaciones que permitan predecir eventos futuros. En el corazón de estos mecanismos se encontraba, según este ingeniero, la noción de “bucles de retroalimentación”, o “feedback loops”, que refieren a ciertos ciclos de trabajo en los que las acciones de un sistema van calibrando acciones futuras en relación a los resultados de acciones en tiempos anteriores. Y esos bucles de retroalimentación se podían encontrar por todos lados en el universo.

    El ingeniero en cuestión se trata de Norbert Wiener, y relata todo esto en la introducción de su primer libro: “Cybernetics: Or Control and Communication in the Animal and the Machine”, publicado en 1948, apenas tres años después de los bombardeos nucleares. Ese libro constituye la fundación formal de una nueva disciplina científica llamada Cibernética. Y cuando usamos una palabra como esa, intuitivamente y en seguida nos damos cuenta que dejamos de divagar por la historia social y política del mundo y ya estamos yendo al grano. Pero en realidad la cibernética venía desarrollándose desde hacía tiempo, y ahí es donde importa mucho la historia de la ciencia. Wiener cuenta cómo su libro fue el producto de años de discusiones técnicas y filosóficas con científiques de diferentes áreas, poniendo especial énfasis no sólo en matemáticas o física o ingeniería, sino también muchísimo en medicina. Sucede que Wiener veía a la ciencia misma (y sus científiques) como sistemas, y también vió la necesidad de comunicación y retroalimentación entre ellos, para lo cuál constituyó un lenguaje común inter-disciplinario que permitiera encontrar problemas cibernéticos en múltiples áreas. Y entonces, entre las muchas repercusiones del trabajo de Wiener, la Cibernética tuvo la característica de ser la primera ciencia formalmente inter-disciplinaria.

    La historia de la ciencia era importante, porque desde la epistemología se decían constantemente un montón de cosas, y entre ellas ya se había llamado la atención acerca de la sobreespecialización de las ciencias que tal vez podía estar formando científiques con conocimientos demasiado especializados: un efecto similar a la alienación del trabajo que Marx supiera denunciar en su época. Y esto se había hecho más, y más, y más notorio con el paso de las décadas, a medida que aparecían diferentes especialistas en diversas disciplinas que se permitían sostener teorías basadas en tecnicismos que parecían ignorar casi cualquier otra dimensión de análisis, muy especialmente la histórica y política. Por supuesto, todo esto sólo se veía profundizado frente a la urgente pregunta de cómo podía ser que la ciencia hubiera tenido el rol que tuvo en las dos guerras. Y aunque al marxismo canónicamente se lo suele acotar a “teoría económica” o “teoría política”, constituye en sí también una rama de la epistemología, muy enfática en lo que respecta al rol de la historia en el desarrollo de los sistemas económicos y sociales.

    Es decir que en paralelo a que gente como Wiener reflexionaba sobre el rol de la historia en los sistemas de comunicación y control, las escuelas marxistas de pensamiento llamaban la atención sobre el rol de la historia en el desarrollo de la ciencia y la sociedad; así como también Wiener desarrollaba un lenguaje trans-científico y una teoría inter-disciplinaria al mismo tiempo que desde el marxismo llamaban la atención sobre la alienación en la sobreespecialización. Y estos debates no fueron casualidad. Sucede que el marxismo seguía y sigue siendo muy influencial tanto en filosofía como en ciencias humanas de todo tipo, incluyendo a la economía pero excediéndola por mucho. Pero además, en el marxismo seguía existiendo una alternativa a la cosmovisión liberal que se expandiera desde las revoluciones francesa y norteamericana: una que se pretendía más humanista y más justa, en medio de un mundo donde la humanidad se veía en peligro y la calamidad llegaba antes que cualquier justicia. Tan poderoso era el marxismo en el pensamiento del momento, que dividió al mundo en dos, cuando luego de la segunda guerra se instauraron los Estados Unidos de América y la Unión de Repúblicas Socialistas Soviéticas como dos superpotencias mundiales en pugna por una hegemonía ideológica mundial, dando lugar a la llamada “guerra fría”.

    La guerra fría era una época tan novedosa como inquietante. El campo de batalla pasó muy velozmente de lo estratégico productivo a lo psicológico, y de repente todo lo que se pensara o se dejara de pensar era sospechoso de ser aliado o enemigo, occidental u oriental: capitalista o comunista. Las otras ideologías como el fascismo o el anarquismo rápidamente perdían centralidad y cuerpo para dar lugar a un infinito combate ideológico mundial como nunca se había tenido registro. Fiel al espíritu moderno, la guerra fría era una experiencia nueva e intensa y se metía por la fuerza en la vida de cada persona de las maneras más impensadas (aunque siempre compulsivas), como ya había pasado con tantas cuestiones modernas antes. Aunque para esta altura, aquel optimismo moderno de otras épocas era mucho más difícil de encontrar por ningún lado.

    Y la cibernética es hija de su época. En su introducción a “Cybernetics”, Wiener predecía cómo las máquinas autónomas venían a reemplazar al trabajo humano, por dos razones. La primera era la obviedad de que las máquinas podían tener regímenes de rendimiento que los seres humanos eran incapaces de implementar ni sostener: como sucedía con aquella torreta defensiva contra aquellos aviones tan rápidos. Pero además, las máquinas no se cansan, no se deprimen, no hacen huelgas, no hay que pagarles un salario… son, en las propias palabras de Wiener, trabajo esclavo. Y también en palabras de Wiener, teniendo todo aquello en cuenta, en términos de costos es imposible para los trabajadores asalariados competir con trabajo esclavo, y encima uno con la potencialidad de ser más productivo. De modo que, relata también Wiener, se acercó a contarle estas cosas a diferentes líderes sindicales de su momento, para que los trabajadores pudieran al menos estar al tanto de lo que se venía: pero, aunque lo trataron cordialmente y lo escucharon, no parecían tener herramientas intelectuales para asimilarlo en toda su complejidad, ni entonces comprender nada de esto como algo que requiera la atención de los sindicatos; las urgencias eran otras.

    Insisto en que eso sucedió en 1948. Tómense por favor un momento para reflexionar qué pudo haber pasado en el camino para que hoy, año 2023, tanta gente se muestre sorprendida por la inteligencia artificial y la inquietud laboral como si fuera alguna súbita novedad. Porque es muy, muy importante este detalle, y después vamos a hablar sobre eso.

    Como fuera, Wiener no era un tipo al que no le importara qué iba a suceder con la sociedad. Él pretendía que la cibernética fuera una fuerza fundamentalmente liberadora. A esa altura ya no se podía ser ingenuo con las consecuencias de los desarrollos científicos y tecnológicos. Entonces, de aquella anécdota vinculada al sindicalismo y el valor del trabajo, concluyó que la solución sería cambiar a un sistema donde el principio rector no fuera la competencia, ni el andar comprando y vendiendo cosas; una vez más, en curiosa sintonía con las típicas interpretaciones sobre la sociedad de cualquier marxismo vulgar. Y no fué la última coincidencia, ni mucho menos. Después de la trascendencia que tuvo su libro “cybernetics”, escribió otro al poco tiempo, orientado hacia un público más general, y concentrado precisamente en el impacto social de su trabajo. Este segundo libro se llamó “el uso humano de seres humanos”, en sospechosa sintonía con el célebre concepto de Marx, crítico hacia el capitalismo, de “explotación del hombre por el hombre”.

    ¿Acaso Norbert Wiener era un marxista? No, no lo era. Wiener era un científico, un filósofo, un intelectual. Sus planteos no eran el producto de un pliegue y subordinación políticos hacia un lado de un conflicto, sino el resultado de sus propias experiencias y reflexiones. Era un librepensador: algo eminentemente mucho más liberal que marxista, muy especialmente por aquel entonces. Pero en tanto que libre, no tenía ningún problema en cuestionar los límites o hasta fracasos del capitalismo: él no tenía compromiso alguno con el capitalismo, a pesar de la ya insistente propaganda que pretendía asimilar los conceptos de capitalismo y de libertad. Y esto es algo que en un mundo polarizado e ideológicamente competitivo es muy difícil de comprender. En América en general, y muy especialmente en Estados Unidos, la influencia del marxismo fué mucho menor a la que se experimentó en Europa y Asia: América siempre fué mayormente liberal. Eso no es nuevo: el marxismo como movimiento político suele ser profundamente eurocéntrico, y al caso alcanza con revisar las opiniones de Marx mismo sobre figuras hoy canónicas de “izquierda” en América, como Simón Bolivar. Y el punto es que, además de marxismo, en América siempre tuvimos otras “izquierdas”, otres revolucionaries diferentes a les de Europa. En particular, Estados Unidos tiene mucho un concepto que hoy suena casi oximorónico, pero que si contemplamos sus orígenes históricos no tienen nada de raro: “izquierda liberal”.

    Wiener era ciertamente “de izquierda”: levantó la voz contra el racismo, contra el anti-semitismo, contra los abusos ecológicos, contra el financiamiento militar, y contra el anti-humanismo capitalista. Pero Estados Unidos nunca fué un buen lugar para ponerse a criticar al capitalismo, y menos todavía lo era por ese entonces, cuando la guerra fría se volvía más y más virulenta. Al poco tiempo de publicado su segundo libro, en Estados Unidos emergían el Macartismo y la segunda ola de “miedo rojo”: dos tendencias conspiranóicas muy intensas que operaban bajo sospechas constantes de que cualquiera pueda ser comunista, de que ser comunista era ser un agente enemigo, y de que secretamente estos agentes comunistas estaban infectando las estructuras estatales norteamericanas.

    ¿A qué viene esto de historia y marxismo y tantas otras cosas que no parecen tener mucho qué ver con nada? A que cuestiones políticas del momento fueron profundamente dañinas en la capacidad de Wiener para conseguir financiamientos para sus investigaciones en cibernética, y de esa manera sucedieron otro montón de cosas. Por un lado, muches empezaron a tener reparos en quedar asociados a la figura de Wiener, razón por la cuál tomaban distancia. Y por el otro, mucha gente seguía de una manera u otra profundamente interesada en los planteos de la cibernética, que en ningún momento dejó de mostrarse como una disciplina seria y poderosa: razón por la cuál comenzaron a plantear diferentes áreas de estudio más especializadas que la cibernética, que en la práctica competirían con ella en la búsqueda de financiamientos para las investigaciones. Sistemas de control, ciencias de la computación, teoría de juegos, y otros espacios de las ciencias y las ingenierías, eran revalorizados o creados en el contexto del auge de la cibernética. Y entre ellos tuvo lugar la creación de un área de estudio nueva, hija directa de la cibernética, pero esta ya con el único objetivo de replicar la inteligencia humana por medios tecnológicos: “inteligencia artificial”.

    Es irónico que una disciplina concebida para combatir la sobreespecialización termine condenada a la sobreespecialización, ¿verdad?. Pero es más irónico todavía si consideramos que en buena medida sucedió “por ser de izquierda”, y al mismo tiempo miramos cómo le fué en el hipotético paraiso izquierdista que debía ser la Unión Soviética, en ese momento con Stalin y Lysenko. Allí, la cibernética fue vista con sospecha y sometida al aparato de propaganda anti-occidental, razón por la cuál rápidamente se la caracterizó de “pseudo-ciencia”. Ese es un término técnico de la epistemología normativa, que se utiliza para distinguir qué es ciencia y qué no lo es: algo que, como mencionamos antes, era de suma importancia y por muchas razones. Hoy nosotres sabemos, por el paso del tiempo, que tanto “occidente” como “oriente” fueron tan reaccionarios como dogmáticos en muchas cuestiones, incluida esta; pero por aquel entonces esas cosas todavía eran discutidas, y que en la Unión Soviética desacreditaran a la cibernética le hizo más daño que favores a Wiener.

    Y entre paréntesis, ya sea por lysenkoismo o por macartismo, esta historia nos hace pasar por una pregunta: ¿quién controla a la ciencia? Tal vez para no ser paranoiques corresponda no un quién, sino un cómo. Y tengan en cuenta que en un mundo con cosas como bombas nucleares y gas mostaza asesinando a decenas de millones de personas, y viviendo básicamente en un estado de constante ansiedad y pánico gracias a ello, esta no era ninguna pregunta ociosa. ¿Cómo es eso de que una ciencia prospere o deje de prosperar por motivos políticos? ¿Cómo prosperan entonces las ciencias? ¿No eran autónomas y libres y queseyó?

    Como sea, a mediados de la década de 1950 nace “inteligencia artificial” como disciplina académica. Y con las iteraciones de experimentos sorprendentes, si bien humildes para nuestros estándares actuales, no tardó en conseguir financiamiento del Departamento de Defensa: ese al que Wiener le escapaba después de él mismo haber formado parte de los esfuerzos de la segunda guerra. Pero aquellas cosas que sucedían alrededor de máquinas y matemáticas en el prestigioso MIT no eran las únicas que sucedían alrededor de la inteligencia artificial. Todas las ciencias en todo el planeta avanzaban de manera tan sorprendente como convulsionada, con diferentes intereses. Y en este momento de la historia, todo empieza a retroalimentarse.

    Por ejemplo, la lingüística y la filosofía del lenguaje tuvieron sus propias revoluciones durante estos tiempos de guerras y modernidad tardía. Y desde esas áreas tenían un montón de cosas para decir sobre la sociedad y el ser humano: cómo pensamos, cómo nos comunicamos, cómo eso nos hace humanos. Nutrido de ello fue que emergió la jóven figura de Noam Chomsky en los mismos años que nacía la inteligencia artificial.

    Realmente no hay forma de hacerle justicia a todo lo que pasaba por ese entonces: al mismo tiempo que aparecía la pastilla anticonceptiva, la iglesia católica se amigaba con la evolución darwiniana, se utilizaba el primer corazón mecánico en un ser humano, y aparecía la televisión a color; la biblia junto al calefón, nunca mejor dicho. Todo se mezclaba con todo: ese era el clima de época. Turing podía publicar textos sobre máquinas que piensan, pero también sobre morfogénesis celular, o sobre problemas matemáticos que probablemente no le importaban ni a los matemáticos. La guerra fría era aterradora, pero poquito a poquito el clima de posguerra comenzaba a sentirse más y más ameno en la medida que progresaban los esfuerzos de reconstrucción (léase keynesianismo y redistribución) y la ciencia y tecnología volvía a dedicarse más a las maravillas que a los desastres.

    De hecho, aquella cuestión del macartismo no duró mucho qué digamos, y a los poquitos años ya podía haber otro McCarthy como referente de la inteligencia artificial: irónicamente, esta vez uno criado explícitamente comunista y con muchos amigos soviéticos declarados. Y del mismo modo, al morir Stalin, rápidamente la Unión Soviética revalorizó a la cibernética y más bien se volvió furor. No debería extrañar a nadie que, el mismo año, mientras por un lado se reconciliaba con Darwin, la iglesia católica también exigía a les científiques que eviten concentrarse en estudiar al alma: casi como negociando a plena conciencia de lo que se venía en el futuro. Y esto era todavía 1953.

    Los problemas de Wiener pues, y de financiamiento de la cibernética, no fueron solamente por sesgos ideológicos; o al menos no de ese tipo que todes conocemos. La cuestión del generalismo e interdisciplinareidad era también muy costosa, porque el financiamiento generalmente está sujeto a resultados, y la cibernética estaba más apurada en crear cuerpos intelectuales que den lugar a costumbres científicas novedosas antes que en máquinas que jugaran ajedréz. Lo cuál, por supuesto, no quitaba que querían máquinas que jugaran ajedréz: ¿quién no quiere máquinas que jueguen ajedréz? Pero la manera de conseguir financiamiento para eso ciertamente no es ponerse a cuestionar teoría del valor y de relaciones laborales. Ejemplificar este problema con aquellos comentarios sobre el trabajo puede ser elocuente, pero el otro sesgo del que hablaba antes pasaba por otras cuestiones: por ejemplo, les cibernetistes encaraban el estudio de la inteligencia artificial curioseando la jóven noción de “redes neuronales”, a partir de un modelo de neurona y de la aplicación de técnicas matemáticas e ingenieriles para articular diferentes relaciones entre ellas, poniendo foco en una idea general de inteligencia y en la comunicación entre componentes de un sistema. O bien se concentraban en sistemas auto-organizados, programación evolutiva, biónica, o computación biológica, por mencionar algunos temas. Todo esto era caro, lento, y mucho más difícil de aplicar o explicar que el simplemente hacer una máquina con algún uso particular. Ahí hay un sesgo mucho más instrumental que capitalista o comunista. Y si a eso le agregamos la carrera espacial, es fácil esperar sesgos de financiamientos.

    La carrera espacial es útil para apreciar cómo en la historia podemos ver sesgos compartidos por la Unión Soviética y los Estados Unidos. Los mismos sesgos afloran independientemente de los principios ideológicos canónicos, cuando la competencia escala hacia el supremacismo. Y el supremacismo de posguerra, encarnado en la mismísima guerra fría, pasó a manifestarse en la idea de “qué proyecto de sociedad es mejor para la humanidad”.

    Para les supremacistes, no hay coexistencia: sólo hay sometimiento y subordinación, cuando no directamente exterminio. Y el siglo XX fué una era dorada del supremacismo. Es fácil pensar en fenómenos como el nazismo, y es fácil también ver la competencia globalizadora entre el capitalismo y el socialismo, pero en el camino se nos escapan muchas cosas si no prestamos atención. Por ejemplo, a principio de siglo era furor el fordismo, que se pretendía la mejor manera de articular la producción: y cuando alguien dice “la mejor manera”, lo que está haciendo es desvalorizar cualquier otra, dando lugar a que rápidamente se entiendan como “equivocadas” u “obsoletas”. Por supuesto que el fordismo fracasó miserable y rápidamente, generando con aquel optimismo de “descubrimiento del método definitivo” una crisis de acumulación y sobreproducción como nunca se había visto. Pero eso de los “modos definitivos” pasaba por todos lados, constantemente: método definitivo de hacer ciencia, modo definitivo de organización de la sociedad, forma definitiva de entender al ser humano… mil y una veces, la humanidad se obstinó en pretender ponerle un fín a la historia en la fantasía de haber entendido todo lo que se debía y podía entender. Todas esas veces se volvió urgente establecer aquellas grandes ideas, y la urgencia siempre fué la excusa perfecta para intentar establecerlo por la fuerza. Así, la razón instrumental fue un sesgo inter-ideológico que se encontraba por todos lados y durante el siglo XX se volvió el mejor amigo de los supremacismos.

    Pero la interdisciplinareidad era una idea que no tan lentamente se convertía en fenómeno primero, tendencia luego, y finalmente en movimiento. No es que alguna de estas tendencias “fracasaba” o las otras “prosperaban”: a todas les iba más o menos bien si se las miraba con el paso del tiempo. Por ejemplo, a la década de la fundación de “inteligencia artificial” hubo una segunda ola de cibernética, al mismo tiempo que el constructivismo radical de Piaget gozaban de mucho prestigio. Para ese momento Wiener ya había muerto, pero muchas otras personas alrededor de todo el mundo se sumaban a las prácticas e ideas de la cibernética. Sin embargo, esta segunda ola cibernética estaba más lejos de lo tecnológico (que seguía acaparando el financiamiento) y mucho más cerca de las ciencias humanas. Para esta altura, estas cuestiones ya desbordaban los ámbitos especializados, y para finales de los sesentas se comenzaba a filtrarse en otra área de la que todavía no dijimos casi nada: la cultura.

    

La revolución televisada

    Desde esclavos eficientes hasta gente desafiando a los dioses, pasando por demonios haciendo lo que se les antoja, la historia está llena de registros de criaturas o dispositivos como los que hoy llamaríamos robot, androide, o cyborg. Estas cosas aparecen ya en los cuentos de Homero, y siempre que se escarba esta historia aparecen El Golem y Fránkestein. Aunque este último merece una rápida mención, por ser considerado por muches el primer trabajo de ciencia ficción. No es casual que el subtítulo sea “el prometeo moderno”. Fránkestein ya tenía a la ciencia y la modernidad como eje central de su trama, más allá de lo que dijera al respecto. Y el fuego prometéico de Fránkestein era la electricidad: esa cosa tan esotérica que allá por el siglo XIX permitía fantasear tantas cosas, y hoy da vida a la inteligencia artificial.

    La ciencia ficción, depende a quién le preguntes, se pretende más especulación cientificista que literatura en sí; no es que no fuera literatura, o el medio que se pretenda (cine, teatro, y demás), sino que la especulación sobre el futuro de la humanidad de la mano de la ciencia y la tecnología sencillamente no es secundaria. La ciencia ficción en general tiene algunos temas recurrentes, que por supuesto serían grandes hitos de la ciencia y de la humanidad si algún día fueran logrados: inmortalidad, viajes en el tiempo, viajes por el espacio, etcétera. Entre ellos están también la creación de vida artificial, y otras cosas que sucederían con la humanidad si acaso la comenzáramos a modificar por medios tecnológicos. Fránkestein de nuevo, claramente. Y si medimos a Fránkestein con esa vara, yo diría que algunos detalles se le escaparon, pero en líneas generales no estaba tan desviado en lo que se venía: tanto los desarrollos científicos, como algunas reacciones sociales vinculadas a ellos, y algunos comportamientos de la comunidad científica también.

    El Doctor Fránkestein no fue el primer “científico loco” ni mucho menos: ya por el 1500 había personajes de ese estilo. Y viceversa también: científiques reales y cuerdes se ponían a imaginar cosas, las escribían, y esas ficciones claramente han de valer algo en esta historia. Pero es común que se ponga en Fránkestein un antes y un después, que francamente es cómodo para nuestro relato. Y las especulaciones cientificistas sobre futuros posibles, así como las novelas y cuentos inevitablemente imbuídas del espíritu moderno, no hicieron más que crecer desde aquel momento.

    No nos interesa aquí ser minucioces en el recuento de items y condiciones de la ciencia ficción, porque es un trabajo que le queda muy grande a este ensayo. Pero sí nos es importante mostrarla como hija predilecta de una modernidad que afectaba directamente a las culturas de todo el mundo. Todas la eras tuvieron y tienen sus mitos y relatos, así como también diferentes roles para las diferentes artes, y diferentes medios técnicos y tecnológicos. La modernidad aceleró la heterogeneidad de medios técnicos a partir del desarrollo tecnológico de la imprenta, que a su vez tuvo impacto y contexto político en las incipientes ideas liberales, que a su vez daban lentamente lugar a una idea de arte más cercana al entretenimiento que a la artesanía o la filosofía, a su vez influenciado por los costos de materiales y legislaciones de propiedades intelectuales, dando lugar por esa vía nuevas técnicas y tecnologías… Es una historia enorme, que visto desde lejos nos permite abstraer sistemas retroalimentándose entre la política, la cultura, la filosofía, el arte, la ciencia, y la tecnología, entre muchos otros y con todos sus pormenores. Y así, para el siglo XX, “de repente” teníamos radio, y cine, y hasta televisión, donde los “géneros” se volvían una idea cada vez más difusa, y cada vez tenían más vínculos con sus “medios”.

    Y además de “géneros” nuevos, aparecían también conceptos nuevos, propios de su época. La ciencia ficción no daba solamente historias sobre el futuro de la humanidad o lo que hacen “científicos locos”, sino también personajes de fantasía que convivían con las sociedades actuales y daban lugar a conflictos de todo tipo: meta-humanes, más coloquialmente conocidos como “super-héroes”. Entre las tantas fantasías que la ciencia y la tecnología nos permitían, una de las más insistentes era la posibilidad superar los límites del ser humano, literalmente. Y así emergieron extraterrestres que vienen a la tierra a defender el estilo de vida americano, supersoldados creados por la ciencia del momento para combatir al nazismo, millonaries industrialistes que usaban su fortuna e inteligencia para combatir al crimen y la injusticia con tecnología de avanzada, víctimas de accidentes en experimentos científicos que terminan luego con resultados tan inesperados como espectaculares y dramáticos, mutantes a los que la evolución darwiniana les permitía hacer cosas que en otras épocas hacían los semidioses, o incluso hasta dioses mismos que ahora pasaban a tener una explicación acorde a las sensibilidades modernas y podían vivir aventuras a la luz del día sin perjuicio de ninguna escritura sagrada.

    Todas esas ideas que en otros tiempos eran raras si no impensables, en el siglo XX eran ya sentido común. Y rápidamente en ese sentido común también se instalaron otros dos personajes mitológicos de nuestra era: la máquina consciente de sí misma, y el ser humano con partes maquínicas en reemplazo de las biológicas; o bien la inteligencia artificial y el cyborg, en términos ya más contemporáneos.

    Los medios impresos pasaban de texto a imágenes, y del blanco y negro al color, del mismo modo que llegaban noticias y radioteatros hablados en la misma época que llegaba también el cine a las ciudades, y así Fránkestein y su critatura era cada vez menos un producto de la imaginación y más una imagen concreta. Lógicamente esto no hizo más que acelerarse cuando, además, apareció la televisión.

    Estas cosas suenan más bien inocuas o hasta irrelevantes, pero tienen consecuencias importantes en las sociedades. Por ejemplo, en diferentes oportunidades hablamos de cierto optimismo moderno, especialmente en lo que respecta a la ciencia y la tecnología. En realidad, si miramos un poquito más en detalle, esos optimismos frecuentemente tuvieron sus fuerzas contrarias que les dieran cierto balance: corrientes conservadoras, pesimismos, o hasta experiencias fallidas, de todo tipo (ideológico, religioso, antropológico, etcétera). Pero ahí se vuelve notorio un componente estructural de la modernidad, que todavía hoy vivimos con mucha intensidad, y en otras épocas difícilmente podía existir o lo hacía en dosis muy limitadas: una especie de activa desconexión intergeneracional más bien sistémica. No queremos tampoco extendernos mucho en esto, por las mismas razones que no quisimos ahondar en otros temas, pero es necesario mencionarlo de una manera u otra: en la modernidad, cada generación de seres humanes parece querer romper con la historia y dar lugar a un mundo radicalmente nuevo. Hay un ímpetu por formar parte de una fuerza de cambio tanto a nivel social como mundial, y esto sucede en izquierdas y derechas por igual. En eso se mezclan un poco de supremacismo, y otro poco de la experiencia aletéica en el conocimiento científico y el trabajo intelectual; pero también tiene qué ver con ese impulso del tren de la historia, esa aceleración aparentemente indetenible desde el siglo XVII, de la que por muchas vías se estimula a las juventudes a formar parte.

    A veces es el ímpetu a formar parte de la historia, haciendo algún descubrimiento o desarrollo que cambie algo para siempre: curar una enfermedad, explicar algo inexplicado, solucionar algún problema sistémico. Otras veces es por “salir de la pobreza”, donde te invitan a meterte en una universidad y aprender cosas que luego te permitan acceder a “un mejor trabajo”, y allí une accede a tantas ideas tan sofisticadas y transformadoras. Pueden ser también cosas más mundanas, como simplemente la búsqueda de poder, o incluso el mero seguir la corriente de la época. En todo caso, cuando une comienza esos caminos, las influencias culturales cobran especial centralidad, y nos sirven al mismo tiempo como metáforas para entender y horizontes para seguir. Así fué que la carrera espacial tuvo al menos tanta influencia de Julio Verne y compañía como de intereses geopolíticos, y así fué también que durante la segunda guerra hubo intentos legítimos de crear supersoldados y explorar la modificación física de seres humanos y animales en general, con diferentes fines.

    Si une se pone a pensar esas influencias entre cultura, ciencia, política, y tantos otros sistemas, siempre aparece la pregunta por “el huevo o la gallina”: es decir, cuál vino primero en la historia. Pero desde una perspectiva cibernética, esa pregunta importa poco para explicar las relaciones entre sistemas: lo que importa son los ciclos de retroalimentación entre sí. La búsqueda por el “primer” componente, el más elemental de todos, frecuentemente es la búsqueda por aquél que permite regular todo, el que controla a los demás: pregúntenle sino a cualquier marxista por el rol de la política y la historia, o bien a cualquier liberal por el rol de la autonomía de las personas y los intercambios comerciales. Pero es inconscientemente una búsqueda supremacista: la cibernética nota que, una vez que los sistemas están inter-relacionados, se aplican estrategias de control sobre cualquiera de las varialbles involucradas sin necesidad de que ninguna sea más importante que las otras. Eso no quiere decir que no haya diferentes importancias: pero son contingentes, y tienen qué ver con diferentes relaciones antes que con naturalezas de las variables. Y frente a eso se puede apreciar fácilmente cómo la cibernética, lejos de tratar de concentrarse tan sólo en “inteligencia artificial”, o en el problema epistemológico de la interdisciplinareidad, o en ciencia y tecnología siquiera, más bien se mostraba como alguna forma de lineamiento ideológico, y entonces sus ancestros son mucho más el liberalismo y el marxismo que la computación.

    Y la cibernética no era la única que se manejaba con esta clase de ideas. “Ciencias de la complejidad”, “ciencia del caos”, diferentes tipos de “holismos”… en diferentes lugares del mundo y bajo el amparo de diferentes disciplinas, se tomaba consciencia de las relaciones entre problemas y sistemas abstractos, y lo complicado que resultaba intervenir en ellos, mientras se vivía bajo la sombra de los eventos recientes y la necesidad urgente de poner en contacto a la ciencia con la sociedad. La interdisciplinareidad era en buena medida parte del espíritu de la época, y su implementación llevaba a muchas ideas transformadoras. Aunque también se presentaba como una amenaza para algunos círculos de poder. Y ahora que ya hablamos de tantas cosas y llegamos hasta la cultura, si la cibernética es la heroína de nuestro relato histórico, es un buen momento para introducir también a nuestro villano.

    Mencionamos casi al pasar que el fordismo había fracasado miserablemente, ¿verdad?. Bueno, en realidad ese fué un evento importantísimo en el siglo XX: la gran crisis de 1930. En la década de 1920, mientras Europa vivía de revolución en revolución y en paises otrora centrales ahora había inseguridad alimenticia generalizada, en Estados Unidos se dió un proceso de sobreproducción y acumulación de capital en pocas manos como nunca antes; amparado este último en una posición privilegiada frente al desastre Europeo, y en un montón de fantasías. Las ciudades seguían creciendo de la mano del industrialismo, que fantasiaba con un crecimiento infinito del valor de sus acciones, y una expansión infinita de sus mercados y mejoras técnicas y quién sabe qué más. Todo esto generó situaciones de especulación y crédito hoy a todas luces ridículas, y para 1929 esa burbuja de optimismo finalmente reventó llevándose con ella el valor de casi todo.

    En esas dos décadas, 1920 y 1930, el liberalismo en general estaba en crisis, y muy especialmente en su acepción económica. La necesidad de los Estados de intervenir en la producción y el comercio era absolutamente clara para cualquiera, y al mismo tiempo que el empresariado no era visto como motor universal de ningún progreso también sucedía que el marxismo era una opción muy presente. El liberalismo, en definitiva, perdió muchísima influencia ideológica por estos años, y con ello mucho poder político. Y ya fuera por intervención estatal o por revolución marxista, los intereses de les entonces liberales se veían en profunda crisis, de modo que comenzaron rápidamente a organizarse al caso.

    No es lo mismo la defensa del liberalismo que la defensa del capitalismo. Por ejemplo, en respuesta al liberalismo decadente de su tiempo surgió el keynesianismo, que prometía en el consumo y la distribución las bases de un “capitalismo bueno”: una idea muy necesaria cuando en la vereda de en frente están las hordas obreras con rastrillos y antorchas. Y al keynesianismo lo conocemos todes. Pero la historia de la reacción liberal es casi tan opaca como la historia de la cibernética.

    El primer gran hito surge de los Estados Unidos, de la mano de un periodista y escritor llamado Walter Lippmann. Este señor publicó un libro llamado “An Inquiry into the Principles of the Good Society” en 1937, y un año más tarde se daría lugar en París al “Coloquio Walter Lippmann” donde hablaría de aquello que publicó en ese libro. Asistieron un montón de figuras relevantes del momento a esa convención, donde tuvieron oportunidad de debatir al respecto de la situación del liberalismo en ese momento y las reformas necesarias para adecuarlo a un mundo muy diferente al de siglos anteriores. Y hacia el final discutieron el nombre que tendría esta nueva y refrescada iteración de liberalismo: triunfó el poco sorprendente término “neo-liberalismo”.

    El gran enemigo de Lippmann era el colectivismo: no importaba mucho si el enemigo era el fascismo o el comunismo, el punto era prestarle atención a las libertades individuales, y el colectivismo atentaba contra eso. Y, hasta acá, nada nuevo bajo el sol: lo mismo que diría cualquier liberal que conozcan. Lo curioso de Lippmann en ese contexto es que, y presten atención a esto, estaba rotundamente en contra del libre mercado. Si, así como escuchan: la parte “neo” en ese “neoliberalismo” naciente era esa diferencia radical con el viejo y vetusto liberalismo de siglos anteriores. Lippmann podía pasar cientos de páginas hablando mal de sus enemigos ideológicos, pero cuando hablaba de cómo debía ser la sociedad liberal, no dudaba un segundo: el estado debía intervenir, porque el libre mercado generaba absolutos descalabros de poder en la sociedad. Así que el neoliberalismo nació básicamente keynesiano.

    Ese opaco hito histórico del liberalismo fué puesto bajo la lupa en algunas oportunidades por diferentes intelectuales que estudiaran al liberalismo. Pero ciertamente el neoliberalismo que conocemos se parece poco a eso de Lippmann, y del mismo modo cuando se busca su origen aparece otro evento histórico diferente, ya pasados diez años más. En 1947 se crea un grupo de pensadores dedicados a interpretar los principios de la “economía occidental” y cómo adecuarlos a su contemporaneidad. Este grupo sería uno de los que más tarde se conocerían como “think tanks”, y reunió a las figuras más importantes del liberalismo del momento, de las que Lippmann ya no formaba parte. Y este grupo ya no tenía los reparos de Lippmann: así como la libertad de expresión, y cosas como la “sociedad abierta”, defendían también al libre mercado. Se trata de la Mont Pelerin Society, o MPS, que sí es el origen canónico del neoliberalismo como lo conocemos.

    La cibernética nació al mismo tiempo que el neoliberalismo. Y el MPS no fué el único think tank que apareció, sino apenas el primero, y si se quiere el más prestigioso. Y pregunta para la clase: ¿creen que los think tanks neoliberales tuvieron problemas para conseguir financiamiento? Por supuesto que no. Estos think tanks tuvieron no solamente recursos económicos, sino también muchas ideas con las que trabajar: formaban parte del mismo clima de época donde la inter-disciplinareidad y la complejidad eran cosa en boca de todes. Así, se ocuparon no solamente de la economía, sino de todas las dimensiones de su actualidad: política, ciencia, cultura, historia… nada quedó fuera de su alcance.

    De hecho, la inteligencia artificial también nació bajo el ala de otro think tank: la RAND corporation, creada en 1948. Pero la cibernética captó el interés no sólo de la RAND corporation, sino también del MPS, fundamentalmente de Friedrich Hayek. Hayek participó de convenciones de cibernetistas en la década de 1960, interesado en la noción de “organismo o sistema auto-organizado” para aplicarla a la idea de “mercado”: eventualmente llegó a decir que aquella famosa “mano invisible del mercado” era un mecanismo cibernético.

    Y esto no era algo que solamente podía ver un liberal: en la Unión Soviética, cuando la cibernética finalmente fué reconocida y comenzó a gozar de mucho prestigio, comenzaron a desarrollar un plan de economía sin moneda, utilizando terminales computarizadas distribuidas por todo su territorio, que mediante la actual infraestructura telefónica tendrían capacidas para compartir información en tiempo real con un centro de cómputos centralizado, así como también capacidad para comunicarse entre sí, y de esa manera realizar pagos de forma electrónica. Eso era en 1962, y el sistema se iba a llamar OGAS. Por si no entendieron: los soviéticos pudieron tener internet, email, google, y mercado pago, todo bajo control estatal, en la década de 1960. ¿Qué pasó con eso? Para 1970 el partido le bajó el pulgar negándole financiamiento, y si le creemos a los comentarios que encuentro al respecto parece que fué fundamentalmente porque iba a depender del ministerio de estadística en lugar del ministerio de economía, lo cuál generó desconfianzas desde este último.

    Las aventuras izquierdistas de la cibernética no terminan ahí, y apenas un año después Salvador Allende contrata cibernetistas para crear el proyecto de gestión estatal del gobierno socialista democráticamente electo chileno: cybersyn. Este sería un sistema más orientado a la toma de decisiones en general antes que a la estricta gestión económica. De hecho, era un sistema con múltiples componentes, donde uno de ellos pretendía obtener en tiempo real información acerca de cómo se sentía la población en general, y más exactamente qué tan felices eran: lo mismo que hacen hoy facebook y amazon. Y la persona contratada para estar al frente de este desarrollo se llamaba Stafford Beer, un cibernetista que trabajaba áreas a las que nadie jamás relacionaría con socialismo: administración de empresas, y gestión de recursos humanos. A diferencia del OGAS soviético, cybersyn no sólo llegó a entrar en funcionamiento (aunque no en su totalidad), sino que además fué exitoso en resistir algunas pruebas bastante duras para cualquier sistema de por aquel entonces: fué capaz de permitir organizar la logística industrial durante un período intenso de lockouts patronales. Más tarde no logró sobrevivir a asaltos de grupos comandos y a bombardeos, pero esa es otra historia.

    Y tanto la idea de resistir bombardeos, como también todas aquellas ideas vinculadas a la comunicación, el extender la mente humana, el conectarse, y las preguntas por el conocimiento, llevaron por estos mismos años a la creación de ARPANET: la naciente red internacional de computadoras occidental, que inicialmente conectó a los Estados Unidos con Inglaterra y Francia, casi rememorando los orígenes revolucionarios modernos. Y también por la misma época Marshall McLuhan hablaba de “aldea global”, y de cómo los medios de comunicación y la interconexión iban a tener qué efectos sobre las sociedades de todo el mundo.

    Se puede apreciar cómo la cibernética claramente no era “inteligencia artificial” per sé, y que la excedía por mucho. Y que, de hecho, no tenía tanto qué ver con computadoras: “recursos humanos” ciertamente no se trata sobre eso. Pero también queda claro que su impacto era profundo, aún cuando otras disciplinas obtuvieran mejor y más estable financiamiento. Tanto es así que ya en la década de 1960 se había acuñado el término “cyborg” en la literatura popular, referido primero al concepto de un ser humano mejorado con componentes tecnológicos, y más tarde al de “organismo cibernético”. No muchos años después de eso, ya se hablaría de “cyberpunk” como género. La cibernética ya era parte integreal de la misma cultura en la que convivían los superhéroes y superheroinas con los conflictos ideológicos y los tiempos modernos.

    Mientras tanto, la historia de la inteligencia artificial, si bien tiene mucho de filosofía y ciencias exactas, también es una historia muy ligada al desarrollo del hardware computacional, que para este entonces estaba en su adolescencia: bastante grandecito como para hacer de cuenta que necesitaba pañales, pero al mismo tiempo con muy pocas competencias para una vida de adultez. Y fue exactamente en la misma época donde esa historia le dió un impensado hermanito menor a la inteligencia artificial: los video juegos. En 1962, en el mismo MIT donde convivían Wiener con Chomsky con McCarthy con Misnky, y tantas otras figuras importantes de este relato, aparece “Spacewar!”, el primer juego de computadora conectado a una pantalla de tubos catódicos.

    Antes de spacewar hubo otros juegos, donde el más notable probablemente sea “Tennis for two”, que mostraba un juego de tenis desde una perspectiva lateral y en una pantalla de osciloscopio. Tanto en “Tennis for two” como en “Spacewar!” se podían apreciar algunas implementaciones físicas: como ser la trayectoria de la supuesta pelotita de tenis, o bien incluso la atracción gravitacional de la estrella en medio del espacio de batalla. Antes de estos juegos existieron otros, donde se podía jugar ta-te-tí o nim, aunque estos no tenían pantalla. Sin embargo, muy tímidamente, estos aparatos que se suponían para jugar, de inmediato empezaron a mostrar que en realidad eran más bien para simular.

    Esto podría haber sorprendido al publico general, o quizás incluso a inversores, pero no al ámbito tecnológico, por ese entonces ya inmersos en la carrera espacial. Carrera que comenzara como estrategia militar muy vinculada al desarrollo de misiles, pero que temprano en la década de de 1950 se convertía en un horizonte para la humanidad y un componente central de la competencia ideológica. E, irónicamente, también otra esquirla de la segunda guerra mundial: fueron los nazis quienes avanzaron con la misilistica durante la guerra, y una vez finalizada se repartieron esos conocimientos entre la Unión Soviética y los Estados Unidos. Y también fué durante la segunda guerra, y con fuertes hitos históricos nazis, que se trabajó en la propaganda: el influenciamiento de la población general con discursos meticulosamente calibrados. Los cohetes y la propaganda ya existían antes de la segunda guerra, pero como todo lo demás que relatamos estas dos otras cosas también subieron sus órdenes de magnitud novedosos, dando lugar a nuevos fenómenos relativos a esas escalas. Como fuera, en la primera mitad de la década de 1950 salían publicaciones soviéticas contándole al pueblo que la exploración espacial era inminente, mientras desde Estados Unidos respondían con exactamente las mismas premisas pero articuladas por Disney. Para 1957, la Unión Soviética ponía en órbita al Sputnik 1, el primer satélite artificial de la humanidad, y meses después de eso ya se hablaba en la cultura popular de “beatniks”. Un año después nacía la NASA, en 1961 Gagarín se convertía en el primer ser humano en el espacio, y en los mismos sesentas aparecía Star Trek en las televisiones estadounidenses: donde la utopía liberal era encarnada por una pacífica federación de planetas sin comercio ni dinero ni ambiciones de conquista, y con mucho para decir sobre los problemas sociales del momento. Para 1969, Neil Armstrong era el primer ser humano en pisar la luna. Las computadoras y sus parientes no estaban para nada disociadas de eso, y así teníamos en 1965 a “perdidos en el espacio”, donde un robot era el mejor compañero de un grupo de cosmonautas, y a “2001: odisea en el espacio”, donde la exploración espacial se muestra como parte de la evolución humana y la inteligencia artificial encarnaba a un memorable villano.

    Todo influenciaba a todo: el aleteo de una mariposa fascista durante la segunda guerra en Europa podía generar un terremoto cultural en la televisión americana o soviética dos décadas más tarde. Y todo se retroalimentaba: la propaganda establecía intereses públicos, que a su vez establecía tanto clamores populares como especulaciones financieras y mercantiles en inversionistas de todo tipo, lo cuál le daba a los muchos grupos de investigación estrategias para conseguir financiamientos, que a su vez resultaban en teorías y tecnologías novedosas que daban lugar a nuevas fantasías, y el ciclo parecía nunca acabar. Todo esto era una máquina muy difícil de calibrar, con consecuencias también difíciles de medir. Todo lo que contamos en estos párrafos parece más bien felíz, pero en la misma década también se vivió la crisis de los misiles cubanos y el asesinato de Kennedy, con todas sus consecuencias. Lo cuál es un relato mayormente enfocado en Estados Unidos y la Unión Soviética: no estamos diciendo casi nada sobre Europa, Asia, África, ni ningún otro lugar del mundo. El punto de todo esto es precisamente tratar de dar una idea de la magnitud, la cantidad, la densidad de eventos que se vivían en los cincuentas y sesentas, a la luz de maravillas y a la sombra de catástrofes.

    En 1963, Martin Luther King Jr. escribía una frase célebre y característica de aquello último: “Nuestro poder científico ha sobrepasado a nuestro poder espiritual; tenemos misiles dirigidos y hombres mal dirigidos”. La traducción hace que se pierda el juego de palabras entre “guided” y “misguided”: pero si le damos una pequeña vuelta de tuerca y decimos “misiles teledirigidos”, muy fácilmente podemos llamar la atención sobre la televisión y lo que ya hacía sobre la gente. Eso sólo emperó con el tiempo, y diez años más tarde, en 1976, la hoy clásica película Network lo supo decir con mucha más contundencia.

    Cualquiera fuera el caso, los setentas van todavía más rápido, y los eventos suceden con más densidad. Al mismo tiempo que se prometía un nuevo mundo de maravillas, tanto la Unión Soviética como los Estados Unidos seguían sumando crímenes a sus prontuarios. Wiener ya está muerto, y el otrora comunista McCarthy que fundara la inteligencia artificial lentamente se volvía un conservador republicano, desencantado luego de presenciar personalmente la invasión soviética a Checoslovaquia. El mismo desencanto vivía gran parte del pueblo estadounidense con los pormenores de la guerra de Vietnam; y casi como si una guerra fría entre superpotencias planetarias no fuera suficiente paranoia, entre el asesinato de Kennedy y el Watergate de Nixon, la presencia de los servicios de inteligencia estadounidenses era tan intensa en la cultura popular como la figura de la stasi nazi de antaño o la siempre amenazante KGB soviética.

    Para los setentas, en la televisión estaba la mujer biónica, y en el MIT y aledaños ya se hablaba de “hackers”, mientras aparecían también los arcades y las consolas hogareñas de video-juegos, con el pong a la cabeza del fenómeno cultural. Pero en el mundo de las computadoras, muchos de los juegos eran basados en texto, con lo cuál debían comprender comandos cercanos al lenguaje natural, y de hecho eventualmente adquirieron el nombre de “aventura textual”. Esas aventuras podían ir desde explorar calabozos de fantasías tolkenianas, hasta combates contra el imperio Klingon en el universo Star Trek. No tardaron mucho en aparecer experimentos de mundos tridimensionales y experiencias inmersivas. Todo esto era parte de un doble juego retroalimentado entre nuevas generaciones con sus propias culturas apropiándose del uso de computadoras, abaratamiento de los componentes y técnicas de fabricación, matrícula en las universidades tecnológicas, y financiamiento de los grupos de investigación, entre tantos otros vectores de influencia que se disparaban para todos lados.

    En los setentas, también, la competencia espacial entre Estados Unidos y la Unión Soviética había finalmente dejado lugar a la cooperación, firmando tratados que regularan la proliferación armamentística en el espacio, y de hecho colaborando en la construcción de la estación espacial internacional. Pero estos eventos esperanzadores significaban poco en otros frentes, donde la guerra no tan fría continuaba de manera despiadada. Uno de esos frentes fue América: antes territorio colonial europeo, y ahora patrio trasero de los Estados Unidos. La experiencia de la revolución cubana había influenciado a muchos grupos de izquierda revolucionaria en toda América del centro y del sur. En muchos paises se intentaba aplicar el foquismo como estrategia revolucionaria, con diferentes resultados aunque mayormente sin el éxito deseado. Sin embargo, Chile mostraba una experiencia novedosa a nivel mundial: un socialismo electo por vías democráticas y en plena continuidad del orden institucional previo; es decir, un socialismo no revolucionario. Su revolución no sería la toma del poder por las armas, sino precisamente un intento de ingeniería sustentable y pacifista, donde la cibernética tuvo un rol central. Pero las reacciones a todo esto no tardaron en aparecer, y así fué que en esta década a mi región le tocó padecer el Plan Condor: una estrategia contrarevolucionaria, neocolonial, y hegemonizadora, articulada a sangre y fuego por los Estados Unidos sobre el resto de América. El Cybersyn de Allende fué destruido luego del derrocamiento violento de su gobierno, y con Pinochet en el poder se utilizaba a Chile como sede de un experimento exactamente inverso al inmediatamente anterior: la instauración del primer gobierno explícita y estrictamente neoliberal.

    A primera vista no parece, pero este es un punto de inflexión en la historia de la inteligencia artificial del que rara vez veo a alguien tomar dimensión. Sin el Plan Condor no habría neoliberalismo como lo conocemos, por un lado, pero ya el más elemental sentido común permitía fantasear incluso por aquel entonces las consecuencias geopolíticas que podría tener el éxito de un sistema como Cybersyn. La cibernética era la teoría que daba lugar a una nueva vanguardia socialista. En lugar de eso, y como reacción, a partir de aquí comienza la propaganda neoliberal más virulenta, cuyas consecuencias seguimos viviendo.

    Mencionamos la guerra de vietnam, pero no fué la única “proxy war” de por aquel entonces: también sucedió en esta época la llamada “guerra de Yom Kipurr”. Esta última no duró años sino poco menos de tres semanas. Sin embargo, fue suficiente para detonar una crisis vinculada a la energía. Sucede que en toda esta historia casi no hablamos, ni del resto del mundo por fuera de las dos superpotencias, ni de la cuestión de la energía. Y sucede que estos puntos ciegos también afectaban la visión de quienes tomaban decisiones por ese entonces. Kissinger, por ejemplo, cuenta que el foco en Vietnam tuvo como consecuencia que no le prestaran tanta atención al oriente medio, en especial la unión entre Arabia y Egipto. Para esta época la producción de petróleo en Estados Unidos comenzaba a declinar, mientras que su maravilloso “modo de vida americano” con tantas maravillas tecnológicas requería cada vez más petróleo. Y luego de aquella corta guerra de Yom Kipurr, los paises árabes establecieron un embargo de petróleo sobre los paises que habían ayudado a Israel en la guerra. Es irónico hablar de Estados Unidos como víctima de un embargo, pero eso efectivamente sucedió, y derivó en una crisis que tuvo su respectiva reacción. De hecho, no fué la última crisis de la década vinculada a la energía.

    Los setentas se vivieron con mucho descontento en Estados Unidos y sus aliados. Las cuestiones sociales de décadas previas, especialmente las vinculadas a la guerra, se cruzaron más tarde con las consecuencias de la crisis energética, donde la opulencia debió dejar lugar al uso racional de la energía, y de repente se vivió más que nunca una competencia por recursos en el día a día cotidiano. En ese contexto se dió un cambio radical de política internacional en eso que se llamaba “occidente”, pero que más bien eran Estados Unidos e Inglaterra. Y el neoliberalismo fué la bandera de cambio cultural e ideológico con la que se respondería a las crisis energéticas, que eran ciertamente una muestra de debilidad en términos imperiales. Fue en ese momento cuando todo lo que fuera social-democracia y keynesianismo comenzaron a ser vistos como estrategias políticas ingenuas e insostenibles, y se estimularon políticas agresivas de sesgo liberal en economía, pero con todo un aparato cultural moral y cuasi-religioso que sostienen al neoliberalismo hasta hoy en día.

    La figura icónica de este giro neoliberal es Margaret Thatcher, la llamada “dama de hierro” británica. Ella fué la figura carismática y pintorezca detrás de la que se abroqueló todo un aparato ideológico que, desde el libre mercado como representante de “la libertad”, estimulaba todas las formas de competencia que pudieran ejercerse en la sociedad, haciendo las veces de un darwinismo social hiper-individualista. Llegó a decir cosas como “no hay sociedad, sólo individuos”. Y en el corazón de esta propuesta ideológica globalizadora, se encontraba la frase “no hay alternativa”, al mismo tiempo resistiendo cualquier intento de considerar de nuevo ni al keynesianismo ni a nada que remotamente tuviera qué ver con el marxismo. Una vez más, se planteaba que la humanidad había llegado al modo definitivo de organización de la sociedad.

    En ese contexto, el “modelo chileno” de los “chicago boys” se pretendió exportar para todos lados, y se convirtió en bandera de éxito del neoliberalismo. No sólo se decía que era un éxito en economía, sino que se afirmaba elocuentemente que esa era la manera en que “occidente” se debía defender de la amenaza soviética y marxista: llevando las premisas liberales hasta el extremo. Por supuesto, ese extremo no era producto de ningún librepensamiento, sino más bien un discurso distribuido por aparatos de propaganda muy bien lubricados y financiados, probablemente para admiración a Goebbels. Y en el proceso de instaurar este milagro, cualquier muerte violenta en América del Sur y América Central por parte del estado se atribuía sin excepción a la reacción contra las guerrillas, así como cualquier peripecia económica era sencillamente no haber aplicado suficientemente en profundidad las premisas neoliberales.

    La crisis energética, a su vez, daba lugar a la exploración de otras tecnologías, y así volvía a aparecer la esoteria nuclear que décadas antes diera lugar al nacimiento de la “era nuclear”. Los proyecto de reactores nucleares comenzaron a proliferar, y no sólamente en Estados Unidos. Francia era otra potencia nuclear, que por ese entonces entendió cómo podía vender esa tecnología a cambio de petroleo a los paises de medio oriente. Aunque para final de la década ya había pasado el primer gran desastre nuclear en Estados Unidos, y pocos años después sucedió el soviético: dos hitos que, entre muchos otros, pusieran rápidamente fín a las fantasías de progreso rápido de la mano de la energía nuclear. Y la energía nuclear daba centralidad a una de las muchas disciplinas y movimientos influenciados por la cibernética: el ambientalismo, que cada vez se mostraba mejor organizado en todas sus dimensiones; académica, política, cultural. Para ese entonces ya se empezaba a hablar de la nunca exitosa hipótesis Gaia, donde cada pequeño componente del planeta podía ser entendido como parte de un sistema homeostático autopoiético o superorganismo: lo cuál puede entenderse como una forma de vida en sí, y por lo tanto el planeta estaría vivo.

    A esta altura la inteligencia artificial también estaba por todos lados, y por ejemplo los video juegos ya pasaban a ser “single player”. No lo dijimos antes, pero los videojuegos originales eran generalmente para dos o más jugadores: no tenían una inteligencia artificial a la cuál derrotar. Eso fué cambiando con los años. Y de hecho para ese entonces ya habían sucedido hitos sorprendentes para el público general. ELIZA fue el primer chatbot, y logró confundir a más de une que pensó estuviera hablando con una persona real. Ya trabajaban modelos de lenguaje natural para interactuar con personas, habían comenzado estrategias de reconocimiento de imágenes, lógicamente había brazos robóticos haciendo diferentes tareas, y bueno… el icónico proyecto de la máquina que juega ajedrez continuaba sus pasos lentos hacia el triunfo. Todo esto llenaba de optimismo a la gente del gremio, lo cuál quedó anotado para la historia en un comentario que Marvin Minsky hiciera a la revista Time en 1970: “entre tres y ocho años vamos a tener máquinas con una inteligencia artificial general comparable al ser humano promedio”.

    Como pasó con tantas otras tendencias optimistas antes, siendo la energía atómica la entonces más reciente, la burbuja explotó pronto, hacia mediados de los setentas. Allí comienza un período conocido como “el primer invierno de la inteligencia artificial”, donde esa área de investigación y desarrollo perdió financiamiento de manera sensible y determinante. Parece ser unánime que la explicación detrás de eso sea una horrible subestimación de los problemas involucrados por parte de les líderes intelectuales y técnicos del momento, lo cuál llevó a pobres o nulos resultados, y por lo tanto al distanciamiento por parte del ecosistema inversor. Pero no fué el único problema.

    Inteligencia artificial, a diferencia de la cibernética, era además muy dependiente de la capacidad computacional del momento, la cuál apenas podía servir para algunos pocos casos muy específicos y minúsculos de inteligencia artificial. Y por supuesto había también muchas críticas académicas en términos filosóficos de todo tipo, dado que hablar de “inteligencia” todavía hoy es por lo menos laborioso, con lo cuál el optimismo era cuestionable. Sin embargo, como frecuentemente sucede en los espacios sobreespecializados y gozosos de financiamiento, las críticas eran mayormente desestimadas bajo el sesgo tecnócrata de “no entienden los temas”. Estas cosas solamente empeoraron con el paso de los siguientes años, dando lugar a peleas entre los mismos académicos del gremio. En 1976, por ejemplo, en respuesta a un intento de uso de chatbot primitivo como psicoterapeuta, Joseph Weizenbaum publicó el libro “computing power and human reason”, llamando la atención acerca de cómo el uso de inteligencia artificial de manera equivocada podía quitarle valor a la vida humana. O incluso el mismo Minsky había escrito un paper donde criticaba conceptos claves de las redes neuronales, luego de lo cuál casi ningún proyecto de redes neuronales obtuvo financiamiento por al menos unos 10 años. Fueron años donde muchas de esas cosas sucedieron unas tras otras, y más que “invierno” yo lo llamaría “baldazo de agua fría”.

    Pero esta década tiene otra breve historia paralela de guerras comerciales y revoluciones tecnológicas: la guerra de las calculadoras. Y si antes se nos había colado medio oriente en el relato cuando hablamos de petróleo, acá vamos a abrir la puerta un poco al lejano oriente. La tecnología de los setentas podía no tener lo que hacía falta para una inteligencia artificial como la de fantasías, pero no por eso se quedaba quieta. Mientras nacían la cibernética y el neoliberalismo y ya no me acuerdo cuantas otras cosas más en 1948, también se inventaba el transistor: invento absolutamente revolucionario, si bien sólo para entendidos, y en su tiempo un poco caro y difícil de justificar comercialmente. Pero hacia finales de los sesentas hubo muchos avances en el área de semiconductores, y eventualmente tuvo lugar la creación del microchip y el microcontrolador, de la mano de empresas como la ya entonces instalada Texas Instruments, o la todavía jóven Intel. A partir de ese momento los precios de los componentes cayeron radicalmente, pero todavía más espectaculares eran las reducciones de tamaño y los requisitos de energía. Así fué que se empezaron a crear aparatos personales de cálculo, de muy bajo precio en comparación a iteraciones anteriores, y tan pequeños que hasta llegaban a ser de bolsillo: nacían las calculadoras. Es el momento donde las empresas japonesas de microelectrónica comenzaban a hacerse notar. Pero las calculadoras se pusieron de moda, saturaron sus mercados, y los precios cayeron en picada, haciendo que casi todas las empresas involucradas fueran a la quiebra y quedaran pocas sobrevivientes bien instaladas en la industria microelectrónica.

    Esa guerra tuvo varias esquirlas, de la que nos interesa prestar atención a una. Del lado de Estados Unidos, al comienzo de esta ola de semiconductores y nuevos formatos, un emprendedor de la electrónica llamado Henry Edward Roberts comenzó a vender kits para que aficionados pudieran armar su propia calculadora. Era algo más bien de nicho, pero muy bien visto en esos círculos, de modo que resultó ser una inversión interesante, y por un momento breve también viable. Hasta que muy pronto Texas Instruments implementó una estrategia muy agresiva en el mercado de las calculadoras, y en poco tiempo estaba ofreciento un producto mucho mejor que Roberts a una fracción del precio. Roberts tuvo serios problemas económicos por esto, y decidió enfrentarlos apostando todo o nada: otro proyecto, mucho más riesgoso. Así fué que Roberts fundó su empresa MITS, donde creó una de las primeras computadoras personales para aficionados, hoy legendaria: la Altair 8800. El proyecto resultó sorprendentemente exitoso, y entre los aficionados que se sumaron a MITS estaban dos jóvenes estudiantes de la Universidad de Hardvard: Paul Allen, y Bill Gates. Los servicios de Allen y Gates fueron contratados por MITS, y no tardaron mucho en tener problemas con Roberts por derechos de autoría y licencias del software con el que trabajaban (un intérprete del lenguaje BASIC): y le hicieron un juicio a Roberts que finalmente este último perdió. La historia de Roberts tuvo un muy extraño final felíz que les invito a curiosear por internet, pero al caso de esta historia lo que nos importa es no sólo la creación de la computadora personal, sino este otro evento vinculado al software, que en 1975 daba lugar al nacimiento de la empresa Microsoft.

    Apenas un año después, en 1976, también de la mano de dos jóvenes traviesos y llenos de energía, se fundaba otra empresa que marcaría buena parte de la historia por venir en esa misma área: Steve Wozniak, y Steve Jobs, fundaban Apple y lanzaban al mercado la microcomputadora Apple 1. Aunque fué su sucesora, la Apple 2, la que realmente marcó a fuego la naciente cultura computacional hogareña del momento.

    Hacia finales de los setentas, con tanta burbuja explotando por todos lados y tanta crisis de todo tipo, el excepticismo permeaba más a las sociedades que cualquier ya lejanísimo optimismo de posguerra, y el neoliberalismo parecía ser el único capacitado para explotar y capitalizar el momento: libremercado, emprendedurismo, y competencia como regulador de todo, sin ninguna otra alternativa. Con lo cuál, los ochentas arrancaron con renovados ímpetus coloniales e imperialistas en Occidente, mientras los soviéticos tambaleaban por sus propios problemas internos.

    

Esos juguetes maravillosos

    Bien tempranito en los ochentas, Japón se sube al escenario principal de esta historia. Estaba en sus planes el desarrollo de computadoras que dieran lugar a máquinas capaces de interactuar con el mundo como lo hacen las personas: conversar, entender imágenes, razonar sobre diferentes temas, y todas esas cosas que hoy están dadas como obvias, pero por aquel entonces eran pura fantasía. Y cuando digo que esto estaba en los planes de Japón, me refiero al gobierno de Japón, que invirtió centenas de millones de dólares en que esto fuera posible. Parece que les japoneses se tomaban en serio eso de los robots gigantes y cosas por el estilo. La cuestión es que de la mano de las inversiones japonesas se terminó el primer invierno de la inteligencia artificial, y volvió el veranito.

    Para ese entonces las computadoras y los robots y las inteligencias artificiales ya estaban por todos lados en la cultura. Star Wars, por ejemplo, con arturito y tripio, ya tenía varios años. Y en 1982 salía a la calle “Blade Runner”, arquetípica del cyberpunk, donde los detectives se dedicaban a distinguir entre humanes y replicantes, y ya quedaba claro que la diferencia entre ambos tenía mucho de convención. También 1982 es el año en el que nací yo, así que a partir de este momento es también mi historia. Y, de hecho, los videojuegos ya tenian una presencia tal que se comenzaba a hablar de “generación pac-man”.

    Pero las cuestiones más truculentas de la época no se iban tampoco a ningún lado, y convivían con todo esto por más optimismo nippon que le metiéramos. Así podemos ver en 1983 a Juegos de Guerra, donde les científiques de inteligencia artificial financiades por el departamento de defensa crearon a WOPR: un sistema computacional que, mediante unos juegos de computadora que eran al mismo tiempo simulaciones, aprendía a tomar decisiones para luego asistir en el proceso de toma de decisiones militar, y al que un adolescente con un modem tuvo acceso y casi detona una guerra mundial termonuclear como si fuera un juego más. WOPR finalmente resulta aprender cosas serias, y llega a la conclusión de que la única forma de ganar ese juego era no jugarlo: “¿no preferís jugar ajedréz?”, termina diciéndole al adolescente.

    Nunca terminé de entender esa fijación con el ajedrez que hay en el ecosistema de la inteligencia artificial. Como fuera, no era una época de optimismo, y ya al otro año teníamos el hoy ejemplo canónico de inteligencia artificial villana: en 1984, de la mano de la mente afiebrada de James Cameron, llegaba a los cines Terminator. Allí se cuenta la historia de un organismo cibernético enviado desde el futuro por una inteligencia artificial que destruyó la civilización y lucha en el año 2029 contra lo que queda de la humanidad. Esa inteligencia artificial se llama Skynet, y somete al mundo a fuerza de un ejército de máquinas, al mismo tiempo estas últimas inteligentes y bajo su control. El terminator enviado al pasado era precisamente una de esas máquinas, y una vez más el problema era, entre otros, distinguirlo del resto de los mortales, porque se hacía pasar por humano. Y si bien lo del ajedrez se me escapa, está más bien claro que eso de tener problemas para distinguir humanes de máquinas habría de ser por aquel paper tan influyente de Turing, donde discutía precisamente eso.

    ¡Que miedo que me daba terminator! Tenía tan buenos efectos especiales, tan realista era, que algunas partes no las podía ni mirar: como esa donde el exterminador se sacaba un ojo. Yo por supuesto ví la película años más tarde porque tenía apenas dos años cuando salió, y no estoy seguro si en casa teníamos televisión siquiera: pero así como seguía dándome miedo años después, no importa cuántos años pasen se sigue hablando hoy en día de Skynet como un ejemplo de en qué puede terminar la inteligencia artificial si se vá de las manos. E irónicamente, por esa vía, la gente sigue teniéndole miedo al terminator.

    Mientras tanto, en el mundo real, las redes neuronales volvían a ser un tema, de la mano de más teorías y de nuevas técnicas de fabricación de harware. Esta segunda ola de inteligencia artificial confluía tanto con les veteranes de la guerra de las calculadoras, como también con les jóvenes del emprendedurismo informático, y el ímpetu de las grandes empresas por mantenerse en un ecosistema muy cambiante y cada vez más competitivo. Texas Instruments, NEC, Motorola, Hewlett Packard, Western Digital, Toshiba… había muchos jugadores en el área del hardware, y las áreas de investigación y desarrollo vivían el momento con una tensión mezcla de carrera contra el tiempo y de película de espionaje: el registro de patentes era la métrica no sólo de los desarrollos inmediatamente futuros, sino también de los valores de las empresas en los mercados. Cualquier descubrimiento, cualquier técnica nueva, podía revolucionar y volver a revolucionar el estado de cosas de un año para el otro. Y en este escenario, las incompatibilidades de todo tipo entre dispositivos hacían un río revuelto óptimo para pescadores.

    Con “incompatibilidades de todo tipo” me refiero a cosas como el sistema operativo, los periféricos que se utilizaban, los formatos físicos de esos periféricos, los conectores, las disponibilidades en qué mercados, y muchos otros detalles más. Había tecnología: pero era tramposo elegir los componentes. Y en esa situación se dió una combinación de factores que marcó la historia de la computación de manera tan impredecible como inaudita.

    Fue así que en el año 1981, la prestigiosa y muy bien establecida IBM, lanzó a la venta la “IBM PC”, entrando formalmente a ese mercado de hasta entonces “microcomputadoras”. E IBM fué tan lúcido como despistado en este movimiento. Por un lado, desarrolló una “arquitectura abierta”: la PC permitía agregar, quitar, o reemplazar componentes, que incluso podían compartirse entre diferentes computadoras. Para eso, básicamente tuvo que normalizar o estandarizar diferentes aspectos de la construcción y puesta en marcha de computadoras. Lo cuál a su vez permitió la posibilidad de que la competencia, además, pudiera fabricar “clones”: computadoras que no eran de IBM, pero que se adecuaban a esos estándares. IBM no era una empresa de microcomputadoras, pero tenía prestigio: apostó a que por esa vía sus productos serían tentadores, y que su competencia se vería desvalorada. Y en esa aventura, a los pocos años, la gente ya no preguntaba si una computadora tenía tales o cuales características antes de comprarla: la pregunta unívoca era si la computadora era “IBM compatible”.

    Eso por supuesto fué un triunfo de IBM, que logró ponerse en el centro del mercado. Pero, irónicamente, con toda esta lucidez, cometió errores que llevaron a que hoy nadie vea computadoras marca IBM en los estantes de ningún negocio de computación. O, más que errores, tal vez accidentes poco felices.

    El primero de ellos estuvo mediado por la elección del procesador. Por aquel entonces estaba lleno de procesadores de 8 bits, bastante accesibles, y bastante poderosos para las prestaciones del momento. Pero había también procesadores de 16 bits, mucho más poderosos: aunque también mucho más caros, y que por detalles tecnológicos eran incompatibles con dispositivos pensados para procesadores de 8 bits. Entonces IBM eligió el proceador Intel 8088: un procesador de 16 bits que, a cambio de sacrificar algunas prestaciones, permitía utilizar también algunos dispositivos pensados para procesadores de 8 bits, abaratando así muchos costos. Y el segundo de ellos fué el sistema operativo. Por aquel entonces, lo más cercano a un sistema operativo estandarizado para microcomputadoras era “CP/M”. Pero IBM no logró convencer a la empresa dueña de “CP/M” de que trabaje con ellos, de modo que trabajó con otra empresa con la que ya tenía relaciones previas: Microsoft. No era una empresa de sistemas operativos, y se dice que Bill Gates no estaba muy de acuerdo con meterse en ese mercado, pero al final sí aceptaron adecuarse a los tiempos y requerimientos de IBM, que eran demandantes. Aunque, para sorpresa de IBM, Microsoft no pidió más dinero del que se le ofreció, como se esperaba hiciera en la negociación del contrato: en lugar de dinero, exigió cobrar regalías por cada venta del sistema operativo por parte de IBM, y el derecho de poder vender ese sistema operativo a otras empresas además de a IBM.

    Piensen un segundo en ello: esas “otras empresas” no existían; todavía no existía la PC. Y del mismo modo, las regalías serían un porcentaje, pero el negocio grande sería de IBM. Y entonces IBM aceptó. Lo que sucedió después fué que el éxito de la estrategia de IBM hizo que la competencia de dividiera en dos: quienes hacían “clones de PC IBM”, y quienes hacían sus propios productos con otras arquitecturas. De esos últimos, el único que sobrevivió fue Apple: todos los demás que no se subieron a la ola fueron rápidamente sometidos por lo que terminó siendo un tsunami. Y la sorprendente consecuencia fué que la compatibilidad creada por IBM permitió que muchas empresas nacieran o crecieran vendiendo “IBM compatibles”, que no tenían nada de IBM, pero sí tenían siempre un procesador Intel y un sistema operativo Microsoft que permitieran ambos correr los programas que usaban todas las “IBM compatibles”. Es irónico que al proyecto de la “PC”, internamente, bajo secrecía de sus características, IBM lo llamaba “Project Chess”, o “proyecto ajedréz” en español: casi como si estuvieran jugando al ajedréz con el mercado. Pero fueron Microsoft e Intel quienes hicieron imperios tecnológicos en ese juego, mientas IBM perdió toda centralidad con los años.

    Pero nos estamos adelantando. Por los ochentas, esto de las PCs influenció mucho algunos fenómenos culturales, aunque más bien en sectores hogareños y en áreas laborales más parecidas a oficinas administrativas que a grandes fábricas o laboratorios. Por aquel entonces todavía se usaba hardware y software especializado en lugares como las universidades. Unix, por ejemplo, era muy utilizado, pero no era “un juguete” como las PCs ni nada particularmente barato. Esa cosa que Microsoft le hizo a IBM con los derechos de ventas era algo con lo que anteriormente le había hecho aquel juicio a MITS, y de hecho una cuestión bastante instalada en la jóven industria de sofwtare. Sucede que el software tiene una materialidad medio rara para lo que es el comercio de “bienes y servicios”: se puede copiar, por ejemplo, sin costo alguno más que comprar otro diskette para escribirlo. Con lo cuál el valor de un “original” es cuestionable. Pero las empresas que vendían software pretendían cobrar dinero por cada copia de ese software, independientemente de que no agregaran ningún valor ni hicieran ningún trabajo en el proceso de copia, e independientemente de que ese proceso ni siquiera deba ser llevado a cabo por ellos.

    Con esto en mente, Bill Gates mismo escribió una carta abierta en 1976 a la comunidad de “aficionados a las microcomputadoras”, explicándoles que si seguían pirateando la versión de BASIC que venía Microsoft, eso iba a desincentivar la innovación y cosas por el estilo. Para 1981, Gates tenía bien en claro que esa práctica social colaborativa llamada por sus detractores “piratería”, no podía ser detenida ni con buenos ni con malos modales sino con poder, y si pretendía hacer dinero en serio necesitaba otra estrategia que “vender software”. El secreto era vender el software, pero no a usuarios finales solamente, sino primero y principal a fabricantes: quienes sí están sujetos a regulaciones y controles que imposibilitan la piratería. Y ni siquiera venderlo: regalarlo también en algunos casos, a instituciones estudiantiles, de modo tal que se formen como técnicos en esos sistemas que él vendía, y luego determinen los mercados laborales vinculados a software. Gates ya tenía claro, antes que IBM, que el vector de éxito de una empresa de software estaba en el control de la cultura, y para ello atacó de diferentes maneras a trabajadores y a empresas.

    Pero no fué ni el primero ni el último: Unix y otros tenían prácticas similares, especialmente en las universidades y sus laboratorios de investigación. Uno de esos laboratorios era el de Inteligencia Artificial del MIT. Y, entre paréntesis, ahora que ya mencionamos inteligencias artificiales villanas: ¿están familiarizades con el meme de que las impresoras son aparatos demoníacos, que hacen lo que se les antoja y que todo el mundo las odia? Búsquenlo si no lo conocen, le va a dar mejor sentido a la siguiente historia. Sucedió que Xerox, en una de esos regalos que tan magnánimamente realizan las empresas a las universidades, le dió una impresora laser al laboratorio de inteligencia artificial del MIT. De hecho, era la primera impresora laser que se utilizaba por fuera de las instalaciones de Xerox misma: para ese contexto, era como que te regalaran una Ferrari prototipo más o menos. Sucedió que la impresora estaba conectada a la red del laboratorio, y se mandaban a imprimir cosas desde diferentes lugares físicos. La gente que mandaba a imprimir no estaba frente a la impresora mientras imprimía: estaba en otro lado. Y, como ya sabemos, las impresoras se traban. Esta en particular se trababa bastante frecuentemente. Eso en la práctica significaba que une podía estar una hora esperando para que luego se trabe de nuevo y tener que esperar otro rato, o bien que quede trabada y nadie se entere por mucho tiempo, y cosas de esas.

    Entonces a una persona que trabajaba ahí se le ocurrió modificar el software de la impresora, para que cuando se trabe avise a la gente así alguien podía levantarse e ir a destrabarla. A todes en el laboratorio le pareció una buena idea: todes sabían programar, y tenían en el laboratorio sus propios sistemas a los que podían adecuar, así que no había problema por ese lado. Pero sí había un problema: no tenían el código del software de la impresora, por lo tanto no lo podían modificar. De modo que esta persona fué a pedir el código del software a Xerox, y para su profundo disgusto e indignación Xerox se lo negó. Y esta experiencia fué otro de esos aleteos de mariposa que después termina en cualquier cosa más o menos épica.

    Esa experiencia llevó a esa persona a reflexionar. Y llegó rápidamente a la conclusión de que su experiencia no era la de simplemente cruzarse con algún imbécil irracional, sino que más bien era reflejo de un fenómeno cultural muy dañino y bastante instalado, tanto en ese como en otros ámbitos. Reflexionó que en este caso era algo más bien trivial, pero que en términos sistémicos era más bien un cancer para la sociedad: una empresa podía decirle a la gente que se adaptara a sus reglas, en lugar de permitirle a la gente adecuar los aparatos de los que supuestamente es dueña. Y rápidamente pudo ver muchos más ejemplos de esto, por todos lados.

    La persona en cuestión era Richard Stallman, y esa es la historia de cómo en el laboratorio de inteligencia artificial del MIT nació la antítesis de lo que ya eran tipos como Gates. Stallman organizó gente cercana después de aquella experiencia con la impresora, y creó un movimiento político y filosófico dentro de la informática que sigue activo hoy en día. Para eso, también creó un proyecto de orden técnico que le diera cuerpo a sus planteos políticos: el proyecto GNU, que consistía en un sistema operativo compatible con Unix, pero “libre”, al que todes tendrían acceso al código y podrían tanto modificar como compartir. Y para eso, el proyecto GNU también necesitaba un marco legal, frente a lo cuál creó la licencia GPL, que les programadores podrían elegir como mecanismo legal de gobernanza cultural de sus trabajos. Renunció a su trabajo en el laboratorio, para que el MIT no pudiera disputar sus derechos de propiedad intelectual sobre el proyecto GNU, y fundó otra organización que le diera cobijo: la Free Software Foundation, o fundación software libre.

    Para eso era 1985. Los ochentas ciertamente fueron el gran momento de la computación, y el veranito de la inteligencia artificial tuvo su parte en ello. Pero, como todes sabemos hoy con el diario del lunes, Japón no obtuvo sus máquinas que hicieran muchas cosas como les humanes, si es que siquiera hacían alguna: una vez más, esa burbuja explotó. Aunque esta vez lo hizo extrañamente por el eslabón más fuerte. Sucedió que la investigación y experimentación en inteligencia artificial se llevaba adelante en hardware y software más bien especializado, y frecuentemente mucho más caro que cualquier microcomputadora. Por esa razón, de hecho, Stallman tuvo la relación que tuvo con Unix, en lugar de con CP/M. Pero para la segunda mitad de los ochentas, las antes microcomputadoras pasaron a ser todavía más poderosas que aquellos otros aparatos tan caros, así como también su software mucho más versatil. La flexibilidad y comunidad de la PC derrotó rápidamente a los nichos, que dejaron de tener sentido.

    Japón no era el único financiando inteligencia aritificial: el gobierno de los Estados Unidos también. Y en la misma época que las PCs superaban al hardware y software especializados, el Departamento de Defensa decidía que no era el momento de la inteligencia artificial, y que mejor se concentraban en cosas un tanto más materiales e inmediatas. Y entonces, el ímpetu comercial en el área decayó en picada, y con él parte del prestigio de la inteligencia artificial. Aunque esta vez tenía algunos resultados, si se la considera en términos académicos. De esta experiencia, una de las líneas que quedaron retomaba a la cibernética, y desde allí se afirmaban diferentes cosas. Por ejemplo, que una inteligencia sin cuerpo es una estrategia poco realista, y que entonces había que concentrarse más en el área de robótica para construir inteligencia artificial. O que en lugar de hacer humanes, había que hacer insectos: poner al ser humano como métrica de la inteligencia era un horizonte innecesariamente lejano.

    Para finales de los ochentas, Japón tendría que conformarse con el maravilloso y espectacular florecimiento de los videojuegos, del que se convirtió en vanguardia y referencia. Los arcades estaban llenos de títulos de todos los géneros: desde nuevas versiones de Pong y Pac-Man, hasta simuladores realistas de aviones de combate, pasando por carreras de autos o peleas callejeras. Las técnicas de hardware y software aplicadas al mundo de los videojuegos no hacían más que proliferar y sorprender a grandes y chiques por igual. En paralelo, en 1983 Nintendo lanzaba la NES, revolucionando el mercado de consolas hogareñas, y hacia el final de la década ya estaba pensando la siguiente revolución de la mano de los muchos y rápidos avances tecnológicos y la gran demanda popular.

    Pero a finales de esta década sucedieron los dos eventos que marcarían a fuego el futuro de mi generación, casi como en un sólo movimiento de dos tiempos. Del primero tengo recuerdos claros. En mi casa no teníamos televisión, y nos enterábamos las cosas por radio. Un mediodía que mi mamá me estaba cocinando un almuerzo, se interrumpió la transmisión habitual para dar una noticia urgente: el locutor decía con voz emocionada que había caido el muro de Berlín. Mi mamá también celebró contenta, aunque más tímidamente que el locutor. Yo reflexionaba incrédulo a quién podía importarle una pared en un país remoto. Pero el segundo fue mucho más opaco, menos espectacular y significativo para esa actualidad: 1989 fué también el año donde aparecieron los primeros proveedores privados de conectividad a la recién creada Internet. La “red de redes” fue, efectivamente, una unión entre varias redes previas: algunas financiadas por entidades gubernamentales y/o públicas, como la antes mencionada ARPANET, y otras redes también de orden privado que se fueron armando con el paso de los años y con diferentes fines. 1989 fue el año donde el comunismo soviético mostró un estado de agonía terminal, con él se iba también la ya normalizada guerra fría, y con ello se auguraba un mundo finalmente conectado: una aldea global, de hegemonía neoliberal.

    

Resistance is futile

    Si hay algún lugar donde el optimismo ya no estaba puesto en 1990, era en la inteligencia artificial. De hecho, más bien el pesimismo estaba puesto ahí. Arrancaba la década con una nueva generación de aquella utopía liberal de Star Trek, donde ahora los otrora antagonistas y representantes de Rusia en la serie (los Klingon) eran ya parte de la federación, pero aparecían nuevos extraterrestres a dar dolores de cabeza: los Borg, que no pretendían ocultar su relación directa con la cibernética, y que amenazaban con asimilar absolutamente todo en el universo. Los Borg eran interesantes porque planteaban a la cibernética como una vía de unificación, ya no sólo de la humanidad, sino incluso interespecies. Además de que a los Borg se los mostraba como el límite de lo alcanzable en términos de desarrollo tecnológico. Pero todo ello era visto como algo triste, malo, infelíz: los Borg eran agresores, que sometían a las demás especies integrándolas por la fuerza a su colectivo, quitándoles para siempre su individualidad y privacidad. “La resistencia es futil” decían estos mostros con voz robótica, mientras caminaban lento como si su velocidad no les importara, y terminaban metiéndole nanomáquinas a cualquiera que atraparan. Era casi como que el viejo fantasma comunista del colectivismo ahora además criaba zombies tecnológicos o algo así. Y era igualmente interesante que plantearan la experiencia de la asimilación Borg como la entrada a un espacio mental de unificación, donde ya no había angustias ni dolores ni padecimientos: pero así y todo era algo malo, porque era alguna forma de mentira de acuerdo al guionista del momento.

    Y estas cosas no eran aisladas de Star Trek ni mucho menos: la década más tarde terminaba con Matrix, donde las máquinas del futuro esclavizaban a la humanidad encerrada en una simulación imposible de distinguir de una realidad; otra vez las máquinas sometiendo a la gente, otra vez también la cuestión de distinguir lo real como si eso fuera a salvar a la humanidad de algo. Las fantasías tecnológicas eran frecuentemente aterradoras a esta altura, pero ya pasaban a tener algo fuertemente vinculado a lo psicológico, a lo cognitivo, lo espiritual si se quiere.

    Pero volviendo al planeta tierra, en 1990 la dictadura militar de Pinochet es la última en dejar el poder en mi región. Las nuevas democracias nacían bajo la múltiple presión de las heridas abiertas por el plan condor, el desbalance de poder en la guerra fría, y la ola hegemonizadora neoliberal a nivel planetario. Para 1991 la Unión Soviética ya no existía más, y en su lugar estaba la Federación Rusa, lógicamente con infinitos conflictos internos entre las fuerzas separatistas, las reformistas, y las resistencias afines al orden soviético. De modo que la década arrancó con todo, y “no hay alternativa” parecía mucho más sentido común que slogan. Es irónico que los Borg fueran colectivistas, porque “la resistencia es futil” tranquilamente pudo haber sido una bandera neoliberal.

    Como fuera, todas las dictaduras militares en América dejaron paises pobres y pueblos aterrorizados: pero la televisión decía que todo era una fiesta por el fín de la guerra fría, que la macroeconomía ahora iba a inevitablemente crecer y derramar riqueza, que las importaciones iban a dinamizar los mercados internos y traer felicidad, y que el mundo no nos iba a dejar caer porque se acabaron los conflictos ideológicos. De hecho, se hablaba de “fín de la historia” como un evento ya alcanzado. Chile era ejemplo para el mundo, por sus números macroeconómicos: como si no fuera el país más desigual de la región, y como si su pueblo no viviera sufriendo. Pero todos los sufrimientos del momento se sostenían bajo alguna promesa de nueva era, y el giro neoliberal durante los noventas se vivió con mucho de aventura para gran parte de las sociedades de todo el planeta, con el hedonismo individualista como bandera.

    Por supuesto eso duró poco. Y por supuesto eso tampoco llegó nunca al espíritu de absolutamente todes ni mucho menos: los optimismos eran costosos de sostener frente a tantas promesas rotas de décadas anteriores, y tantas experiencias tan dañinas. Esto se veía en la fuerte presencia de movimientos contraculturales desde el momento cero de la década de los noventas. Discos exitosos de Nirvana convivían con películas donde Donald Trump decía ser el soltero más codiciado por las mujeres; los héroes de Holliwood se volvían burlones y sobrecarismáticos e inverosímiles mientras los superhéroes en historietas pasaban a ser cínicos y nihilistas hasta lo deprimente; la cultura en general se vivía como una gran farsa, un gran simulacro de progreso social, donde algunes hacían esfuerzos por mostrar una cruel realidad vedada a los sentidos. Y todo esto, tal vez más que nunca, se movía al compas tecnológico.

    Yo era todavía muy jovencito, así que los videojuegos me impactaban muy íntimamente: eran una marga generacional fortísima, y encima me tocó vivir una especie de era dorada. Los juegos de arcade, de consola hogareña, y de computadora personal, seguían tres vías diferentes, tres ecosistemas casi completamente aislados, más allá de las esporádicas coincidencias o hasta puentes entre ellos. Los ruiditos y tonos monofónicos de otras épocas ahora daban lugar a voces digitalizadas, bandas de sonido orquestales y futuristas, e historias muy sofisticadas en términos filosóficos y políticos. Las interfases gráficas eran cada vez más espectaculares, y todo era cada vez más nítido, más grande, más rápido: más surreal. Nuevas tecnologías aplicadas en hardware daban lugar a la posiblidad de aplicar nuevas técnicas de software, y ese juego se retroalimentaba una y otra y otra vez año tras año. Y se notaba en todos los títulos de todos los sistemas disponibles. El progreso tecnológico se sentía ya solamente sin salir de casa.

    Y los videojuegos por supuesto son apenas un caso particular, un síntoma si se quiere, de algo más sistémico. ¿Recuerdan Terminator? Resulta que por aquel entonces, cuando James Cameron planeó Terminator, el guión original contemplaba a dos terminators que viajaban en el tiempo: uno el ya para entonces clásico organismo cibernético humanoide con esqueleto metálico, pero el otro muy diferente. Cameron quería usar un terminator tecnológicamente mucho más avanzado: uno hecho de metal líquido, y con la capacidad de ser metamorfo. Aquel problema de detectar si era o no un ser humano seguía ahí, pero esta vez el enemigo era todavía más aterrador. En 1984, la tecnología no permitía ni a los efectos especiales más avanzados hacer algo como eso en el cine de modo tal que fuera verosimil. Pero para 1991 sí fué posible, de la mano de los avances en gestión gráfica computacional, y en hardware dedicado al caso. Así se dió vida al T-1000, que fuera el villano de Terminator 2.

    Y aquí es importante deternos un segundo. ¿Por qué no era posible en 1984 hacer al T-1000, pero en 1991 si lo era? Está claro que había computadoras más potentes pero, ¿eso era todo? ¿Sólo “potencia” era el problema? Si revisamos detalles detrás de la creación del T-1000 para el cine, vemos datos muy descriptivos de la situación tecnológica. Por ejemplo, que procesar 15 segundos de animación del T-1000 podía llevarle 10 días a las computadoras del momento. Ciertamente era un desafío técnico importante, no hay dudas. Pero, ¿no podía simplemente hacerse lo mismo en 1984, y que en lugar de 10 días tardara un mes? A todas luces eso sería muchísimo más caro, pero… ¿imposible?

    El detalle es que no era un problema enteramente de potencia de hardware. Había mucho de cultura, de diseño, de formación de mano de obra calificada, que tenía qué ver con la mera posibilidad de que a alguien se le ocurriera hacer cosas como esas. “Metal líquido metamorfo” no era cosa de “animación computarizada fotorealista” en 1984, sino más bien de historietas. No había software simulador de “metal líquido metamorfo”, más allá de que hubiera o no hardware más o menos potente. No había, de hecho, trabajos generalizados en la industria cinematográfica vinculado a eso. Las simulaciones físicas existían, y con ello las ecuaciones matemáticas involucradas, pero eran áreas muy especializadas: no era “animaciones para películas”. Eso fué cambiando muy velozmente durante los ochentas, de la mano no sólo de Holliwood sino también de los videojuegos. Gente como James Cameron empujaban esa área de las artes hacia ese lado, pero en otras áreas había otras personas con pasiones similares. Y en el medio estaba el conocimiento técnico, tanto en la tecnología como en la mano de obra. Aquellos financiamientos en inteligencia artificial daban lugar a máquinas que calcularan mejor y más rápido, dando lugar a algoritmos nuevos, dando lugar a usos nuevos de esas tecnologías, todo en perpetuo ciclo de retroalimentación.

    Y ya mencioné los videojuegos, pero esta historia requiere traer un ejemplo canónico del caso. Si Terminator 2 abría una nueva era superadora en términos de efectos especiales, entre los muchos cambios revolucionarios dentro del ambiente de los videojuegos, uno de ellos ciertamente tendría mucho más impacto del que nadie imaginaba. Como tantas otras historias de la época, dos jóvenes apasionados e inteligentes y llenos de energía se dedicaron a lo suyo y lograron armar una empresa exitosa. Si Apple es la historia de dos Steves, esta es la historia de dos Johns: John Romero, y John Carmack, eran las cabezas detrás de ID software, que en 1993 creaba el videojuego “Doom”. No era el primer “first person shooter”, o “juego de disparos en primera persona”, pero sí el más revolucionario sin lugar a dudas. En parte, porque tecnológicamente era superador a todo lo visto hasta el momento. Y en parte, porque sus avances tecnológicos lo hacían tan dinámico que la interacción con él se volvía adictiva. El juego era rápido, muy rápido, especialmente para ser un juego tridimensional. Y al respecto hay cosas muy pertinentes para decir.

    Primero y principal, los avances tecnológicos del Doom no eran de hardware, sino de software. Ciertamente, el hardware de su época permitía cosas, que Carmack supo explotar muy bien y de maneras novedosas. Pero las novedades eran algoritmos rápidos, estrategias de simulación experimentales y exitosas, optimizaciones computacionales variadas y muy eficientes. Romero le puso los condimentos culturales que le dieron contacto con la sociedad del momento, pero Carmack había logrado hacer que el trabajo 3D dejara de ser algo para computadoras especializadas y carísimas y pasara a ser algo a lo que la PC hogareña podía aspirar. Hay literalmente libros escritos sobre el impacto cultural del Doom, así que quien quiera seguir esa línea puede ir a revisarlo: acá le vamos a prestar atención a este detalle de cómo las mejoras de software abrieron puertas impensadas pocos años antes.

    Se le llama “renderizar” al proceso de, digamos, ejecutar la línea de producción de programas que realizan millones de cálculos para ir generando imagen tras imagen en una animación 3D. Es decir: una persona programa una serie de directivas, las ejecuta, espera que terminen de procesarse, y luego puede ver el producto final. Aquello que dijimos que tardaba 10 días para lograr una animación de 15 segundos del T-1000, era un proceso de renderización, o “render”. Para el T-1000 se utilizaron computadoras especializadas, con hardware dedicado a algunos de esos procesos, y con software ad-hoc para implementar diferentes cosas: simulación física del metal líquido, simulaciones físicas de la luz (sobre el T-1000, sobre otras cosas de la imagen, etc), efectos de refinado de detalles, reflejos en superficies reflexivas, sombras, interacciones físicas entre objetos virtuales, interacciones físicas entre objetos virtuales y reales, proyección de resultados entre acciones, y tantas otras cosas. Los gráficos tridimensionales son millones y millones de cálculos, y requieren niveles excepcionales de tanto pericia técnica y como capacidad artística. Y para aquel entonces, también una voluntad digna de campeones: la gente que hizo al T-1000 trabajó jornadas de 24 horas, haciendo cosas como dormir al lado de sus equipos mientras esperaban ver los resultados de sus pruebas de renders, corriendo contra reloj para cumplir con los tiempos pautados a riesgo de perder su empresa y vivir endeudados el resto de sus vidas. Para muches, el T-1000 era una estupidez fantasiosa de Holliwood; para otres, como yo, era un absoluto triunfo de la ciencia y la tecnología y el arte.

    Pero el Doom hacía esa clase de cosas en tiempo real, y en hardware hogareño. Tómense un segundo para tratar de concebir una idea de lo que eso significaba. Por un lado, el juego era tan adictivo, que no necesitó mucho tiempo para convertirse en un fenómeno cultural de escala. Pero otro otro lado, además, era tecnológicamente tan virtuoso, que se convirtió también en un objeto de estudio inquietante para muchas áreas.

    El secreto detrás del Doom eran un montón de usos inteligentes de los recursos, y especialmente concentrarse en los resultados. Por ejemplo, donde el T-1000 era un render realista, el Doom tenía renders mucho menos realistas pero mucho más rápidos. Era “suficientemente bueno” como para dar lugar a una inmersión en ese mundo virtual tridimensional, y desde allí generar un vínculo con nuestros sentidos tal que de repente nos veíamos tratando de controlar ráfagas de adrenalina inducidas por la excitación o el miedo. El Doom había logrado espacios claustrofóbicos, combates cuerpo a cuerpo contra hordas de demonios, laberintos llenos de trampas, situaciones que parecían inescapables y que se sentían como un gran logro superar… todo eso no era simplemente “3D”, sino que requería mucha calibración al cómo nuestros sentidos perciben la realidad, independientemente de si era o no “realista” lo que se estuviera mostrando.

    Una de las claves detrás de ello es entender algunos detalles de nuestros sentidos vinculados a la vista. Nótese que hablé de múltiples sentidos, aún cuando sólo hablo de “la vista”, que se supone sea “un” sentido. Sucede que, si bien los sistemas de renders tridimensionales realizan cálculos en espacios virtuales también tridimensionales, lo que producen en realidad es de dos dimensiones: una imagen, una animación, una película, son todas cosas que vemos en un paño o un papel, una pantalla, una proyección sobre una pared, todo de dos dimensiones. Lo que vemos con nuestros ojos es efectivamente bidimensional: pero lo que hacemos con ello luego de verlo, a través de nuestro aparato cognitivo, genera efectos de tridimensionalidad. Entonces, está perfecto intentar hacer un render realista implementando en software todas las leyes de la física que se conozcan en un momento dado, y dejar luego que las computadoras trabajen por días para generar una animación: pero también une puede concentrarse en que en realidad no vemos, ni las tres dimensiones, ni todas las leyes de la física, sino algo bidimensional sobre lo que luego hacemos un trabajo cognitivo. Y ahí se pueden aplicar algunos trucos de magia que no requieren tanto poder computacional.

    De hecho, el Doom ni siquiera era 3D. Su motor gráfico eventualmente fué catalogado como “2,5D”, porque en realidad eran dos dimensiones utilizadas de formas muy inteligentes, logrando efectos tridimensionales. Por eso funcionaba tan bien incluso en el hardware de la época. Y eso abrió la cabeza de muchas personas, en diferentes áreas.

    Pero aquella clave era una sola de ellas. Hay otra, también importante para esta historia. Si nos concentramos en cómo funcionan las imágenes computarizadas bidimensionales, la expresión más simple es la de una grilla con celdas, donde cada celda es de algún color, y entre todas forman luego una imagen cuando se vé a la grilla desde lejos. Esas celdas de la grilla se conocen popularmente como “pixels”, y es la métrica típica con la que hoy se miden a las cámaras fotográficas de los teléfonos móviles. Sin embargo, esa grilla es en rigor también una matríz en términos matemáticos, y si tomamos los valores de cada pixel podemos entonces realizar álgebra de matrices sobre ellos: tanto en una matríz estática, como en la relación entre diferentes matrices. Ese último es el caso de las animaciones computarizadas: una matriz traz otra hacen a los antiguos fotogramas de celuloide en el cine, o las páginas de la animación manual en papel. A su vez, las estrategias para trabajar matrices típicamente involucran técnicas de obtención de diferentes datos: rangos de valores medios, variaciones, máximos y mínimos, frecuencias de aparición o no de ciertos datos, etc. Eso lleva a otros datos, como ser curvas de comportamientos, sobre los cuáles se pueden aplicar cálculos provenientes de otras disciplinas poco relacionadas con videojuegos o terminators, como ser el análisis de señales o la estadística. Y cuando se trata de computación, frecuentemente el desafío no es tanto implementar estas herramientas matemáticas en software y hardware, sino el cómo implementarlas de modo tal que respondan suficientemente rápido.

    El Doom tuvo muchas de esa clase de optimizaciones implementadas a nivel software. El T-1000 necesitaba realismo antes que velocidad: más bien, necesitaba “velocidad suficiente” para los tiempos de los contratos, pero luego de eso todo el realismo posible. Mientras que el Doom necesitaba “realismo suficiente”, pero que luego los algoritmos funcionaran lo más rápido posible, de modo tal que el juego no fuera lento (o que fuera jugable siquiera en primer lugar). Son situaciones inversas, pero complementarias: ambos universos de problemas aprenden el uno del otro. Como decíamos antes sobre aquellas matrices, los renders generan imágenes que son al mismo tiempo matrices, y hacen las veces de los fotogramas de antaño en celuloide. De modo que a esa velocidad de generación de imágenes se la comenzó a medir en “frames per second”, o “cuadros por segundo”, casi siempre abreviado con la sigla “FPS”: donde esos “cuadros” son precisamente las imágenes generadas. El mismo software en diferente hardware va a trabajar a diferentes FPS. Y, en principio, mientras más FPS, mejor para la experiencia visual, al menos en el mundo de los videojuegos. Pero esto tiene muchas relaciones con estándares de hardware también: por ejemplo, los estándares de funcionamiento de los televisores (y más tarde los monitores) ponen condiciones a cuántos cuadros por segundo puede mostrarse en la pantalla, y entonces existen algunos horizontes de trabajo más o menos compartidos por todes. Era típico que las películas o programas de televisión se vieran en 24 FPS, y que ahora los videos por internet tengan 30 FPS, por diferentes cuestiones históricas; pero también es típico que hoy en día se pretenda que los videojuegos rindan a 60 FPS estables, lo cuál depende mucho del hardware donde se ejecute el videojuego. Aunque por aquel entonces cualquier programador de videojuegos estaría más que satisfecho con 24 FPS seguramente.

    Mientras esta clase de cosas pasaban en las industrias vinculadas a los renders tridimensionales, un pequeño cónclave de ingenieres de hardware se reunía en California a debatir algunas ideas. Estamos hablando de gente que trabajaba en el diseño de microprocesadores, gente que hacía software de gestión gráfica, gente que venía de lugares como IBM o Sun Mycrosystems. Y debatían cuál sería la siguiente ola de cambios en el ecosistema tecnológico computacional de su era. Concluyeron que los avances de la computación general (es decir, la computación que se regía por una unidad central de proceso, o CPU) iba a dejar lugar a dispositivos solidarios, que trabajen en paralelo en cómputos más especializados, como ser computación orientada a gráficos. Eso era así porque las CPUs tenían sus límites, y la computación más especializada era realmente mucho más exigente de lo que ninguna CPU podía esperar rendir. Por ejemplo: todes hemos visto a nuestras computadores enlentecerse mientras estaba realizando alguna tarea, cualquiera fuera; imaginen pues si la ponen a realizar las tareas de render del T-1000, y tenemos que esperar durante días para poder mientras tanto responder e-mails. La respuesta a eso, decían estes ingenieres, era agregar partes extra a las computadoras, que aliviaran el trabajo del CPU cuando de tratara de algunos trabajos particulares. Y el caso de los renders para generar imágenes bidimiensionales era uno que se volvería evidentemente necesario. El Doom se salió con la suya, porque no tenía las exigencias que le pusieron al T-1000; pero esas exigencias existían en muchos espacios, donde difícilmente podían usar los trucos de magia que implementaba el Doom, y sin la capacidad de proceso adecuada nunca iban a florecer. Esa era, precisamente, la historia de la inteligencia artificial, que ya en varias oportunidades había sido traicionada por la realidad del hardware de su época.

    Pero estes ingenieres notaron un detalle importante: los videojuegos se cruzaban con problemas computacionales bastante avanzados, mientras al mismo tiempo gozaban de un ecosistema de hardware suficientemente estandarizado, así como también una alta demanda de consumidores. Esa unión de factores era muy rara históricamente, y una oportunidad única para montar un espacio de investigación y desarrollo en computación de alto rendimiento que, a diferencia de lo que sucedió con la inteligencia artificial, esta vez fuera sostenible en el tiempo. La presencia de fenómenos como el Doom no hizo más que confirmar y solidificar esta hipótesis. Y de esa manera nacía en la primera mitad de los noventas la empresa NVidia, que utilizaría a los videojuegos como terreno fértil para la experimentación que diera lugar a la siguiente era de la computación más avanzada y exigente. Una vez más, esta empresa no sería ni la primera ni la última: esa clase de hardware especializado ya existía. Pero del mismo modo que experiencias como las del Doom daban la pauta de que en los videojuegos había una veta sostenible de experimentación, experiencias como las del T-1000 daban la pauta de que el hardware del momento apenas estaba en sus inicios.

    En paralelo a todo eso, el hardware y software computacional peleaban otras batallas. ¿Recuerdan la estrategia de Bill Gates para hacer exitoso a su software? Bueno, eso rápidamente le trajo problemas con la justicia, y hasta directamente con el gobierno de los Estados Unidos. Resulta que Microsoft hizo unas cuantas cosas de moral más bien nula durante su “trabajo conjunto” con IBM. Primero, IBM le encomendó que creara otro sistema operativo para sus IBM PCs: el sistema OS/2. Microsoft lo hizo, e IBM comenzó a vender computadoras con ese sistema: pero Microsoft continuó vendiendo DOS y Windows por su cuenta, con lo cuál se convirtió básicamente en su propia competencia, y por esa vía no favoreció particularmente a IBM. De hecho, muy rápidamente renunció a continuar su trabajo sobre OS/2, frente a lo cuál la gente que había invertido en desarrollos sobre ese otro sistema operativo se encontró súbitamente a la deriva. Luego Microsoft hizo cosas como cobrarle licencias de DOS a los fabricantes aún cuando estos vendieran PCs sin ese sistema operativo. ¿Vieron ese sticker que viene en sus computadoras, que dice “compatible con Windows”? Bueno, para que los fabricantes pudieran poner ese sticker, que por aquel entonces era importante (recuerden que la gente comenzó a preguntar si la computadora era compatible antes de preguntar sus prestaciones), Microsoft no te homologaba el dispositivo sin pagar una licencia del sistema operativo. Y esto tenía como consecuencia que no se pudiera competir con Microsoft en términos de precios: otras empresas que hacían sistemas operativos, y se los daban gratis a los fabricantes, no se beneficiaban luego con una reducción de precio en la computadora, que valía lo mismo con o sin DOS/Windows. El colmo de esto eran las implementaciones alternativas de DOS: donde Microsoft vendía MS-DOS, otras empresas vendían otros, siendo el más conocido DR-DOS. Sucedió que Microsoft implementó secretamente código para que programas de ellos no funcionaran en DR-DOS, aún cuando tecnológicamente no había ningún impedimento. Y, del mismo modo, Microsoft implementó mucho código no documentado en sus sistemas, donde se aplicaban en software formas alternativas (y frecuentemente más eficientes) de resolver problemas computacionales, de modo tal que sólo su software (o algunos casos de terceros especialmente seleccionados) implementara estas mejoras, y pareciera entonces que su software funcionaba mejor que la competencia.

    Las prácticas anticompetitivas de Microsoft dieron lugar a decenas de juicios, con centenas de millones de dólares en juego, y se convirtieron en un ícono de la empresa. Microsoft una y otra y otra vez aplicó todas las estrategias pensables para que su competencia fracasara, abusando del monopolio de software que logró montándose en la estrategia de estandarización que aplicó IBM en los ochentas. El software de Microsoft se convirtió en el estandar de-facto porque, antes de cualquier calidad de sus productos, se concentró en activamente eliminar a su competencia a fuerza de explotar e imponer su monopolio. Muchas empresas lucharon y fracasaron, mientras otras temían represalias de Microsoft si se atrevieran a hacerlo. Y los juicios contra Microsoft eran frecuentemente bien fundados, Microsoft los perdía, debía pagar sumas importantes por ello, y para cualquier empresa con escrúpulos podría haber significado una profunda vergüenza que manchara a su marca. Sin embargo, Microsoft jamás dejó de insistir en sus prácticas anticompetitivas, que ya eran su bandera en la década de 1990: esta empresa nació parásita de otras, y rápidamente se convirtió también en sometedora y depredadora.

    Y las prácticas anticompetitivas eran de diferente naturaleza. A veces presionar a fabricantes de hardware, como mencionamos antes: piensen que fabricar hardware es una aventura cara, y si se ponen en riesgo las ventas se pone en riesgo también una bancarrota temprana, de modo que Microsoft tuvo ahí una vena jugosa desde temprano. Pero también sucedían otras cosas. Por ejemplo, pretendía cobrar licencias de software, y vender software: pero de repente también metía software gratis que viajaba junto con otro, no te lo cobraba, y te decía que era todo un mismo producto. Eso último fue el caso, por ejemplo, cuando salió Windows 95: que en realidad sería un “Windows 4.0” corriendo sobre un “MS-DOS 7”, pero hacía de cuenta que era todo una sola cosa (en lugar de vender Windows y DOS por separado, como en iteraciones anteriores). Esto quitaba del mercado a cualquier competencia de Windows que corriera sobre DOS. Del mismo modo, eventualmente comenzó a agregar Internet Explorer a Windows, haciendo que todo link a internet encendiera Internet Explorer, y que nadie entonces fuera a descargar otro browser web. Aunque hay muchos detalles que se le escapan al común de la gente, por ser detalles técnicos y comerciales. Por ejemplo, era típico que Microsoft comprara software en lugar de programarlo: ese era el caso con el mismísimo DOS. Y fué el caso también con Internet Explorer, que se lo compró a la empresa Spyglass. Spyglass había acordado con Microsoft un acuerdo similar al que Microsoft había antes acordado con IBM: regalías por las ventas de Internet Explorer. Pero luego Microsoft lo incluyó gratuito como parte de otros productos, con lo cuál Spyglass no veía un centavo. Esto lógicamente fué visto como una estafa de Microsoft, que fué llevado a juicio y perdió. E historias como esas tiene literalmente cientas.

    Pero nunca le importó a Microsoft perder esos juicios multimillonarios. Gates siempre supo que el dinero vá y viene, pero hay cosas mucho más directamente vinculadas a la estabilidad del poder político y social que el poder económico. Una de ellas es la cultura. El dinero era por supuesto muy importante, pero no importaba cuántos juicios perdiera Microsoft si seguía en el centro de la cultura del software de las PCs: porque ningún fabricante era suicida, y porque la comunidad de usuaries y obreres del software también tenían mucho qué perder quedando aislades al no usar software de Microsoft. Nunca iba a caer Microsoft de su lugar de privilegio, a no ser que grupos tan heterogéneos como fabricantes de hardware, usuaries, y trabajadores del software, se unieran en un sólo movimiento. Y aquí es donde la oscura lucidez de tipos como Gates fundan imperios: por vías culturales, dominan la infraestructura de su momento. No necesitan ser dueñes de las fábricas de hardware, ni tener a les usuaries como sus dependientes empleades, para que todo funcione en beneficio exclusivo de elles, porque las infraestructuras también tienen determinismos culturales a los que las personas se adecúan. Y si hablamos de “infraestructura”, hablamos de “medios de producción”.

    El software ya era un modo de apropiación de los medios de producción computacionales en la década de 1990. Stallman ya había sabido ver esto en la década anterior, y precisamente se puso a construir una cultura alternativa que diera lugar a otras formas de apropiación de los medios de producción. Todo esto por supuesto está planteado acá en términos abstractos, y en realidad hay otras dimensiones involucradas, donde la económica es siempre una de ellas: Microsoft controlaba la cultura del software, en buena medida, con dinero. Otra dimensión de problemas es el marco legal: los juicios que serían absolutamente ruinosos para otres, Microsoft los perdía los juicios pero podía sobrevivirlos. Llegó, de hecho, a estar muy cerca de caer: un juez dictaminó una vez que a Microsoft había que dividirla en dos empresas. Pero ahí es donde el dinero se vuelve una herramienta adecuada, por vías del lobby y la propaganda: a ese juez lo recusaron, pusieron a otro más afín a Microsoft, y el juicio justo sucedió durante el momento de transición desde Clinton hacia Bush; este último expresó su deseo de no separar a Microsoft en dos, y de poner fín a ese proceso lo antes posible. Pero eso sucedió más adelante: en los noventas, Microsoft era visto mucho más como un matón comercial que vinculado a ninguna política de estado.

    Cualquiera fuera el caso, mientras la competencia comercial a Microsoft fracasaba miserablemente porque Microsoft jamás jugó limpio, la competencia cultural y política nunca dejó de organizarse, y todas aquellas artimañas de Gates y compañía llevaban bastante agua hacia ese otro molino. El proyecto GNU era prestigioso en los círculos adecuados. Y si bien su presencia en la cultura no era nada de magnitud, sí lo era en los ámbitos académicos vinculados a la computación. GNU no se formó en el mercado comercial de las PCs, sino en el ecosistema intelectual y de formación técnica de les trabajadores de la informática. Era básicamente una línea de organización gremial obrera. Que yo sepa, Stallman nunca lo planteó de esa manera, pero en la práctica nunca dejó de ser eso: parte derechos de propiedad sobre el producto del trabajo, parte estrategia de desalienación con respecto al producto del trabajo, parte organización de les trabajadores en una contracultura que garantice la posibilidad de control comunitario. Y esto no era ninguna juntada de pensamientos felices, sino una organización con cuadros técnicos de primer orden, intercediendo en puntos neurálgicos del ecosistema computacional.

    Por ejemplo, Stallman mismo era parte del comité técnico que en los ochentas discutió un estandar de interoperabilidad entre sistemas operativos: formas de funcionamiento que los sistemas operativos debían honrar para poder ser homologados como compatibles con ese estandar, lo cuál luego les brinda un terreno seguro de trabajo a quienes programaran software para esos sistemas operativos. Este estandar se llamó finalmente POSIX. Piensen, por ejemplo, aquel problema que tuvo la gente que programó para OS/2 cuando Microsoft dejó de darle soporte: todo su software se volvió prácticamente inutil, y estaban obligades a programar para MS-DOS o Windows. Stallman, entre otres, ya estaba viendo cómo luchar contra esas cosas. O bien piensen en aquello de si DOS y Windows viajaban juntos o separados, o si se incluia o no a Internet Explorer, y etcétera. Desde el minuto cero, el proyecto GNU describió a su sistema operativo como un conjunto de diferentes componentes individuales, pero que se articulaban en su conjunto de diferentes maneras. Lo que pasó luego fué más bien evidente: mientras una persona con Windows luego debía comprar otro software por separado, dado que Windows simplemente se encargaba de dar un sistema base, GNU ya venía con mucho software disponible incluido. Esa modularidad explícita en rigor lo heredó de Unix, y fué uno de los puntos clave por los que se decidió a ir hacia esa concepción del software. GNU, entonces, no tenía esa clase de competencias comerciales como las que se vivieron entre IBM, Microsoft, Spyglass, y tantas otras empresas. Se aprecia rápidamente como Stallman veía las mismas cosas que Gates, pero se paraba en la vereda de en frente.

    Como fuera, GNU tenía sus problemas: generalmente de orden técnico, pero son problemas que todes quienes alguna vez militamos algo conocemos también en el ámbito político. El proyecto GNU era llevado adelante mayormente por ingenieres y estudiantes que programaban en sus tiempos libres para el proyecto, sin fines de lucro. Eso le dió al proyecto diferentes velocidades. En algunos casos lograba implementaciones de software experimental innovador y de mejor rendimiento que sus contrapartes comerciales, o bien frecuentemente se adelantaba a los lanzamientos comerciales de algunas tecnologías (GNU tuvo interfaz gráfica antes que Windows, por ejemplo). Pero otras veces el trabajo era laborioso, muy especializado, y sin una dedicación exclusiva francamente lento. Este era el caso con el kernel, que es un componente del sistema operativo dedicado a interactuar con hardware: otro software le pide interacciones con el hardware al kernel, el kernel las realiza, y luego devuelve el resultado a ese otro software que se quedó esperando la respuesta del pedido. Eso requiere conocimientos de hardware que no siempre está disponible: frecuentemente se trataban de información protegida bajo secreto comercial, o bien no distribuida por los fabricantes. Entonces les ingenieres y estudiantes debían hacer ingeniería inversa: especular cómo funcionaba un hardware, y probar diferentes estrategias, para ver si lograban una comunicación adecuada con el kernel. Usualmente a esos softwares que hacen eso se los llama “drivers”, o “controladores” en español, y el kernel establece la manera en que los drivers deben funcionar. Los drivers son luego provistos por los fabricantes de hardware. Pero como los fabricantes eran siempre entidades comerciales, por lo general realizaban drivers sólo para software de orden comercial: léase, mayormente Microsoft. Y tanto el kernel como los drivers eran un punto de desarrollo lento en el proyecto GNU.

    Así fué que en 1991, en una lista de mails, un jóven estudiante de ingeniería dice haber creado un kernel. En su mensaje decía que “no era nada serio y profesional como el proyecto GNU”, sino que lo hizo exclusivamente como ejercicio de aprendizaje. Ese jóven era Linus Torvalds, y su kernel se llamaría Linux. Y dado que el proyecto GNU era agnóstico en cuanto a su kernel, y que Torvalds accedió a distribuirlo bajo licencia GPL, rápidamente hubo una retroalimentación entre ambas iniciativas, y comenzaron a aparecer versiones del sistema operativo GNU con el kernel Linux. Sistema operativo que se distribuía de forma gratuita, con todas las funcionalides incluidas, y al que cualquiera tenía acceso a su código fuente. Esto fue muy interesante en el ambiente estudiantil y académico.

    Durante los noventas, ese ecosistema paralelo al de Microsoft tuvo sus propias batallas internas. Linux compitió con otros kernels, tales como Minix, bajo debates vinculados a arquitecturas de software y cuestiones comerciales. Torvalds, de hecho, también discutió con la fundación Software Libre, y por momentos quitó la licencia GPL del código de Linux; eventualmente revirtió ese cambio. Pero a su vez el proyecto GNU tenía sus propias discusiones y luchas. GNU, por ejemplo, no era el único sistema operativo gratuito y popular en ámbitos académicos y técnicos: así como GNU era un descendiente de Unix ideado por gente mayormente del MIT, en la universidad de Berkeley tenían otro llamado BSD. Para 1993 se creaba FreeBSD, que era una versión libre de BSD aunque no con licencia GPL (bajo control de la fundación Software Libre) sino una licencia propia de ellos. La fundación Software Libre funciona como organismo homologador de la condición de “software libre”, pero no responde legalmente por todas las licencias sino sólo por las GPL. Estas cosas daban lugar a fricciones y fragmentaciones, aunque también a trabajos paralelos. Por ejemplo, el ecosistema BSD rápidamente se convirtió en el referente de arquitectura para redes computacionales, y se sigue usando en servidores de alto rendimiento hoy en día. Pero pasaban cosas en este ecosistema como que tanto BSD como GNU tenían implementaciones de software de redes mucho antes que DOS o Windows, además de que su software funcionaba frecuentemente mucho mejor.

    Una de las fricciones internas fue el nombre mismo del movimiento y la fundación: “free software”. Por algún accidente de los lenguajes, en inglés “free” significa ambiguamente tanto “libre” como “gratis”. No son lo mismo: gratis es una relación con el costo en términos monetarios, pero libre es una relación con sus características de distribución y acceso al código. Libre puede sonar muy lindo, pero gratis no era una palabra que les comerciantes de la informática tomaran a la ligera: y si ambas palabras eran la misma, las confusiones estaban siempre a flor de piel, y con ellas las infinitas polémicas y desconfianzas. Con eso en mente, en algún momento se comenzó a hablar de “open source”, o “código abierto”, dentro del movimiento software libre, para tener una mejor relación con el ecosistema comercial. Pero eventualmente, la gente del “open source” se separó de la fundación software libre, y armó su propia organización: la OSI, o “open source iniciative”. Esta última ponía mucho más énfasis en el acceso al código que en los derechos de distribución de copias, ni en la gratuidad.

    Gates, que no era ningún idiota, no dejaba pasar estas cosas sin hacer nada al respecto. Microsoft sistemáticamente implementó modificaciones en su software que lo hicieran incompatible con el funcionamiento de su competencia, y en el caso particular de GNU se encargó de implementar una versión rota y divergente de los lineamientos establecidos en POSIX. Pero hacia finales de los noventas, el continuo avance de GNU y el software libre en general llevó a que Microsoft los estableciera como su principal enemigo y de hecho su mayor amenaza: porque si el ecosistema de la programación terminaba adecuándose a esa cultura, Microsoft muy rápidamente perdería su centralidad y debería también adecuarse. Esto quedó demostrado en documentos filtrados que fueron presentados en cortes de Estados Unidos, aceptados como pruebas legítimas de prácticas antimonopólicas, y aceptados por Microsoft como documentos reales: los llamados “documentos de Halloween”. En los documentos hablaba de cosas como pácticas evangelistas que debían llevar a cabo representantes de Microsoft en puntos claves del ecosistema informático, así como también pago de sumas de dinero para comprar voceros de organizaciones con presencia mediática influencial en las decisiones mercantiles y políticas vinculadas a la informática.

    Estaba claro que Microsoft era una organización con foco en la cultura, tal y como lo eran también la fundación Software Libre y el proyecto GNU. Hacia finales de los noventas, la rivalidad entre ambos ya era explítica, y Microsoft no pretendía jugar limpio tampoco contra esto. Como parte de su estrategia cultural, comenzó una campaña de desacreditación de GNU y la fundación software libre. Aunque algunas de estas estrategias comunicacionales fueron, si bien a simple vista disparatadas, en realidad bastante inteligentes. Por ejemplo, comenzó a hablar de “Linux” como su principal rival, pero siempre sin decir nada sobre GNU: de modo que no se ponga foco en darle publicidad al proyecto de Stallman, sino al desarrollo tecnológico de Torvalds, al mismo tiempo corriendo el foco y explotando los conflictos internos en la comunidad. Después, llamó a linux “comunista”: al mismo tiempo implicando que es anti-estadounidense y anti-occidente, y que Microsoft en realidad es el camino de lo estadounidense. ¿Vieron cómo los anticomunistas nunca dicen “capitalismo”, sino que plantean al comunismo como una especie de enemigo externo antinacionalista? Bueno, esas cosas son fáciles de usar en la propaganda. Y eventualmente hasta tejió vínculos con los círculos open source: donde esos vínculos frecuentemente tenían que ver con sumas de dinero.

    Pero las dos técnicas más características de Microsoft tenían incluso nombre. La primera es FUD, que son las siglas de “fear”, uncertainty, and doubt”, o “miedo, incertidumbre, y duda” en español, que básicamente consistía en divulgar rumores con mentiras que afectaran las decisiones de tomadores de decisiones: usuaries, empresaries, universidades, estados. Y la segunda, de la que popularmente se conoce como modus operandi de Microsoft, se llama EEE: las siglas de “embrace, extend, extinguish”, que en español significa “adoptar, extender, y extinguir”. Este malévolo comportamiento funciona de la siguiente manera: cuando Microsoft no puede competir con algo, simplemente hace su propia versión de ello. Por ejemplo, un sofware libre servidor de correo electrónico funciona tan bien, que nadie va a comprar el de Microsoft. Entonces Microsoft implementa, en un software no libre, los estándares que implementa aquel otro software. Frecuentemente luego lo distribuye de manera gratuita, para que la gente lo pruebe. Y con incompatibilidades previamente puestas por Microsoft mismo en sus propios sistemas operativos, de repente el nuevo software es el único que funciona en sistemas de Microsoft. Esa es la parte de “adoptar”, o la primera “e”. Pero luego, además de implementar lo que fuera que implementaba aquel anterior, le empieza a agregar cosas: a veces cambios opcionales, otras veces funcionalidades agregadas, las cuales sólo funcionan con otro software de Microsoft. Esa es la parte de “extender”. Y finalmente, a fuerza de dominar los mercados, eventualmente discontinúa ese software, lanza una nueva versión esta vez con costo para quienes quieran usar todas las funcionalidades, y esta nueva versión además es incompatible tanto con la anterior como con aquel otro software libre. Esa es la parte de “extinguir”, o la tercera “e”. Para ese momento, les usuaries ya todes utilizan servicios de Microsoft que no tienen contrapartida en el mundo del software libre, y entonces no tienen más opción que adecuarse a las reglas de Microsoft si pretenden seguir haciendo lo que venían haciendo con sus computadoras.

    Básicamente Microsoft, en los noventas, era un gigante en medio del ecosistema computacional cobrando peaje, y cualquiera que quisiera pasar por ahí debía enfrentarse a él por la fuerza: ya fuera que hiciera hardware, software, o que quisiera cambiar algo en esa cultura. De modo que esa clase de peleas en el mundo de la informática proliferaron, y todo se peleaba con Microsoft. Pero no eran las peleas que llegaban a ojos de los consumidores masivos. Los ojos del mundo estaban puestos, ya no tanto en la PC en sí como hardware, sino en su cada vez más nutrida cantidad de casos de uso de software, en especial con el advenimiento de Internet. Ahí se dió la guerra de los browsers, donde Netscape Navigator competía con Internet Explorer por ver quién estandarizaba qué componentes de la World Wide Web, y cómo lo lograba. Microsoft hizo lo que era rutina: explotar su monopolio. Pero Netscape no bajó los brazos y dió pelea, de una manera que sorprendía a amigues y enemigues, sobreviviendo durante años en paralelo a que prosperaban sus acciones legales sobre Microsoft. Una de esas batallas fué la creación del lenguaje de automatización de páginas web: javascript, que fuera creado por Brendan Eich, de Netscape. Microsoft contraatacó con su propia versión ligeramente incompatible, llamada jscript, y con su propio lenguaje privativo, llamado visual basic script. Las herramientas de programación de Microsoft eran compatibles con los lenguajes y dialectos de Microsoft, y para programar para una web completa era necesario duplicar esfuerzos.

    Apple en ese momento estaba al borde de la quiebra. Ya había echado a Steve Jobs en 1985, y para esta altura terminaba aceptando cosas como meter Internet Explorer de browser por defecto en sus sistemas operativos, a cambio de algo de dinero de Microsoft. Apple podía hacer su propio hardware y su propio sistema operativo, pero además de enfrentarse a las mismas trabas culturales por parte de Microsoft a las que se enfrentaba GNU, también tenía que lidiar con los problemas comerciales (que GNU no tenía, porque no era un proyecto comercial), y al universo de problemas de fabricación de hardware. El software Microsoft, con Windows a la cabeza, era inesquivable del mismo modo que lo era el hardware Intel. A esa unión se la conoce como Wintel, y ponían las reglas del mercado. Otras empresas como AMD, por ejemplo, competían contra Intel en la creación de microprocesadores y chipsets de motherboards. Apple debía enfrentar lo peor de ambos mundos, y llegó a estar muy cerca de no poder contarla.

    Mientras tanto, IBM simplemente dejó de pelear, y buscó refugio de tanta masacre comercial en otro lado. Todavía existían espacios donde la PC era considerada “un juguete”, y entonces apostaban por hardware y software de otras características. Los servidores, por ejemplo: que frecuentemente eran versiones más sofisticadas de la misma tecnología de las PCs, aunque a veces podían tener hardware especializado. Pero la vanguardia en esos aparatos que “no son un juguete” eran las mainframes, por un lado, que básicamente eran servidores para regímenes de prestaciones excepcionalmente altos, y por el otro lado las llamadas supercomputadoras: grandes computadoras dedicadas a realizar cálculos matemáticos de extrema complejidad. En ese contexto, IBM continuó algunos proyectos que venían de la época del veranito japonés de la inteligencia artificial: los llamados “sistemas expertos”, que fueron una estrategia de implementación de inteligencias artificiales ya no generales sino específicas. Y fué allí que la humanidad llegó finalmente a la más absoluta de las glorias: en 1997, el sistema experto “Deep Blue” de IBM, lograba derrotar al gran maestro Kasparov en ajedréz.

    Ciertamente las supercomputadoras no eran ningún juguete, y se usaban para las más serias de las cosas. Pero, para variar, finalmente la inteligencia artificial tenía un éxito rotundo en ALGUNA de sus ambiciones. Y esto, por supuesto, le dió impulso nuevamente a la cuestión. Aunque, en realidad, la inteligencia artificial nunca se había ido a ningún lado. Sucedió que para la década del noventa, les científiques y técniques vinculados de cualquier forma a esa área ya habían aprendido a no decir en voz alta sus fantasías y a regular sus discursos si pretendían continuar teniendo trabajo. No precisamente porque el clima fuera hostil, sino porque las fantasías sobre inteligencia artificial habían llevado ya a tantas decepciones y bancarrotas que ciertamente a esa altura no eran la mejor estrategia para estimular la investigación. De repente había sintetizadores de voz, reconocimiento de caracteres, robots industriales de todo tipo, reconocimiento de lenguaje natural, software que analizaba datos, predicciones económicas, y tantas otras herramientas mediadas por diferentes formas de inteligencias artificiales, si bien mínimas, reales. Ganarle a Kasparov podrá haber tenido buena prensa, pero en todas las áreas las computadoras estaban cada vez haciendo más cosas.

    Y la realidad virtual también estaba por todos lados, y al mismo tiempo que los juegos 3D proliferaban a pesar de ser mucho más feos que los 2D, en la tele los hackers se metían en mundos virtuales desde una cabina telefónica y andando en patineta o algo por el estilo. Lo tridimensional era un imperativo, difícil de rastrear para mí en su origen concreto, pero omnipresente. Y constantemente se mezclaba la idea de “3D” con “realista”: una línea que ya venía desde Terminator y tantas otras películas. Por alguna razón, el clima de época era algo así como que la tecnología 3D de alguna manera se iba a volver indistinguible de la realidad, y entonces íbamos a poder vivir experiencias inigualables. Matrix nos llamaba la atención sobre eso.

    Pero en esa época el verdadero optimismo estaba puesto en internet. Se vivía como una especie de nuevo continente que los cybercolonos del cyberespacio irían a cyberpoblar. Y compartía esa fantasía capitalista y neoliberal de que, como la economía, siempre podía seguir creciendo: ahora gracias a la virtualidad. Lo primero era tener una identidad: te registrabas una cuenta de e-mail, o usabas siempre el mismo nombre en internet, sin importar mucho que tuviera nada qué ver con tu “nombre real”. Pero eso de la identidad, a la hora del comercio, significa “marca”. Y en internet, las marcas debían tener un nombre de dominio atractivo, contundente, central. Así empezó una bufonezca competencia entre marcas por registrar nombres de dominio, y de emprendedores intentando montar su negocio en internet. Estamos hablando de la época donde Homero Simpson creaba la empresa “compumundo hipermegarred”, y Bill Gates se la terminaba comprando aunque no se entendiera bien a qué se dedicaba. Esas cosas sucedían: en Argentina estaba “elsitio.com”, que básicamente tenía todo el potencial del universo para ser, efectivamente, un sitio de internet. De modo que la gente se conectaba a elsitio para… conectarse a un sitio, porque internet era tan primitiva que cualquier cosa era un evento. Si quieren degustar un poco del espíritu de aquella época, les recomiendo unos minutos en “zombo.com”.

    Por supuesto todo este optimismo una vez más terminó en vergüenza, y a eso se le llamó “la burbuja punto com”. Los precios de los sitios web se inflaron tanto que eventualmente, cuando les inversores empezaron a pedir sus dividendos, nada resultó valer lo que decía valer. Esta vez el optimismo no tuvo nada de científico, y apenas algo de tecnológico, sino que fué enteramente comercial y financiero: como tantas otras burbujas de menor embergadura que ya se empezaban a volver rutina desde la hegemonía neoliberal. Y del mismo modo, como tantas otras burbujas, tuvo sus ganadores.

    En 1994, Jeff Bezos tiene 30 años de edad y funda la empresa Cadabra, a la que pronto le cambió el nombre porque un abogado la confundió con la palabra cadaver. Este señor era ante todo un comerciante, y no se quería perder esa oportunidad histórica de hacer comercio en internet. Así que se puso a analizar ese todavía inexistente mercado, y llegó a conclusiones. Decidió que vendería libros, y que su empresa necesitaba un mejor nombre, así que la llamó Amazon, inspirado por la amazonia y el río amazonas. En cuestión de meses le empezó a ir bien, y para finales de los noventas ya aparecía en la revista Time como la persona que popularizó al comercio online.

    La web era jóven, y tenía mucho por crecer todavía. Preparados para “el boom de los sitios web”, muches comenzaron a montar datacenters en todo el mundo, llenos de servidores que pasarían a ser la infraestructura del incipiente nuevo milenio. Y hacía falta aprender a navegar en estas aguas: para eso teníamos buscadores de sitios web, entre los cuales se destacaban el poderoso Yahoo y el mucho más eficiente Altavista. El mundo académico no cerraba tampoco los ojos a nada de esto.

    Así, una vez más aparece en este relato la aventura de dos jóvenes estudiantes de una prestigiosa universidad, los cuales esta vez estudiaban las características formales de internet. Y en esto sí había ciencia. Uno de estos jóvenes interpretó a internet desde la teoría de grafos, e hizo otras interpretaciones sobre la naturaleza de los hipervínculos, y llegó a conclusiones como que los vínculos eran entre otras cosas una métrica de importancia de un sitio web, y por lo tanto podrían realizarse búsquedas de sitios de modo tal que se ordenen los resultados a partir de su importancia. Esa clase de ideas les estudiantes ahora podían ponerlas a prueba en el vanguardista sistema operativo GNU/Linux, y a partir de allí confirmar algunas hipótesis que luego les permitieran fundar otros desarrollos sobre ellas, o bien incluso conseguir financiamiento para sus proyectos. De esa manera, en 1998 aparecía en internet el novedoso, minimalista, y extrañamente eficiente buscador Google, de la mano de la empresa homónima fundada por Larry Page y Sergei Brin.

    Y el mismo año sucedía un evento impensado para muches imbuides del espíritu de la época. Después de décadas de políticas neoliberales, pobreza, deuda externa, y crisis tanto social como política, en Venezuela elegían a Hugo Chavez como presidente, dando inicio al proceso que desde ese país llamarían Revolución Bolivariana: un extraño nuevo foco de socialismo, inquietantemente cernano geográficamente a los Estados Unidos, y con el amparo económico del recurso natural mejor cotizado. Lo cuál era al menos curioso, porque los conflictos ideológicos habían terminado hacía ya casi diez años atrás con la caida de la Unión Soviética, y de hecho se había terminado la Historia. ¿Acaso en Venezuela llegan tarde las noticias?

    La década terminaba entonces con crisis económica tanto en el espacio como en el cyberespacio, triunfos de la inteligencia artificial que en realidad se sentían como amenazas para la humanidad, un mercado informático que más bien parecía un hervidero, y un fín de la historia que cada día iba perdiendo los colores fluorescentes en camperas y patinetas para dar lugar a fantasías de cyberpunk distópico de caras sobrias, con música anticapitalista, y temáticas de liberación de la humanidad. Algo raro ciertamente estaba sucediendo.

    

Vencedores vencidos

    Por alguna razón cultural que en retrospectiva me cuesta mucho identificar su origen, me crié con la noción de que en el año 2000 llegaría el fín del mundo. Un poco las ficciones apocalípticas colaboraban con esas cosas, otro poco también el ambiente de superstición y misticismo en el que crecí se la pasaba hablando de inminentes anticristos y presencias demoníacas y profetas… cosas como esas. Supongo que todo eso terminó marcando una vara de expectativas muy altas porque, que yo recuerde, la llegada del año 2000 debe haber sido uno de los eventos más aburridos de la historia.

    Creo que nada puede ser más presentativo de eso que el nunca buen Y2K. Se suponía que, al segundo exacto de cambio de siglo, una infinidad de sistemas informáticos de toda naturaleza podría fallar, porque su manejo de los años en las fechas era en dos caracteres en lugar de cuatro, y entonces en lugar de pasar del año 1999 al 2000 se pasaría del 99 al 00: situación para la que el software podría no estar preparado, y tener entonces comportamientos impredecibles. Estamos hablando desde cajeros automáticos hasta aviones o centrales nucleares. El Y2K se volvió un tema en los últimos años del milenio pasado, y era capaz de causar bastante tensión. Comenzaron a salir a la venta productos con etiquestas que indicaban “compatible con el año 2000”, las cuales termiban apareciendo en aparatos como bicicletas o licuadoras. Al final no era para tanto, y causó más vergüenza que desastre; aunque seguramente tengamos que agradecer a centenas de miles de gente que se ocupó antes de tiempo de que nada serio finalmente sucediera.

    Para ese entonces yo ya me presentaba como programador. Ya había hecho programitas de todo tipo, mientras buscaba ser hacker y hacer videojuegos, pero al mismo tiempo algún empleo que me permitiera autonomía económica. Tenía 18 años, y mucho optimismo puesto en mi inteligencia y en la programación. Recuerdo, por ejemplo, que hacia finales de los noventas ya había hecho mis pequeños y humildes experimentos caseros con inteligencia artificial.

    Hacía cosas como escanear los textos impresos de la facultad, pasarles un proceso de reconocimiento de caracteres, obtener así archivos de texto plano con el contenido de los libros, y luego delegarles esos textos a un sintetizador de voz que me los leyera. Durante largas horas entrenando personajes de videojuegos, dejaba de fondo a la computadora leyéndome los libros de la facultad mientras yo jugaba. Y de la misma manera improvisaba algunas formas de interactuar con la computadora directamente hablándole: me había programado mis propias automatizaciones para los juegos que a mí me gustaba jugar, a las que les agregué comandos de voz. Hoy decimos que los aparatos son inteligentes si hacen cosas como esas, pero yo las improvisaba hace más de 20 años con mi PC Pentium 2 con Windows 2000.

    Y también había tomado todos mis logs de IRC, que pesaban un par de megas, y los había procesado de modo tal de lograr filtrar palabras únicas, para luego guardarlas en una lista en texto plano que hiciera las veces de base de datos. Luego eso sería consumido por un programa, que cargaría esa lista de palabras en memoria, y con ellas generaría textos: sentencias simples, oraciones. Mi programa generaba lo que en otros contextos llamaríamos “cadaver exquisito”: una sucesión de palabras al azar. Le agregué al programa algunas reglas sintácticas improvisadas, para que las oraciones fueran de alguna manera cercanas al lenguaje natural, y luego podía pasar algunas horas diciéndole al programa que me generara textos arbitrarios. Me decía a mi mismo que era “para buscar inspiración”: esperaba automatizar el trabajo de “tener ideas”, particularmente para pensar textos literarios.

    Aunque secretamente buscaba cosas mucho más ambiciosas, para ser sincero. Estaba al mismo tiempo curioseando la manera de poder dialogar con la computadora, por un lado, y por otro la manera de modelar al concepto mismo de conocimiento. Si lograba suficiente precisión en esas aventuras, imaginaba poder automatizar la extracción de conocimiento desde internet o desde textos escaneados, y luego hacerle preguntas a mi programa. Imaginaba por esa vía poder superar mis propias limitaciones humanas en términos de conocimiento, por vías de la automatización de obtención y procesamiento de datos. Aunque también suponía que luego, con alguna pequeña vuelta de tuerca, podría programar algunos procesos cognitivos de modo tal que le pudiera delegar trabajo intelectual a la computadora, pudiendo así lograr cosas imposibles. Por ejemplo, de mínima podía simplemente pedirle a la computadora que hiciera algunas cosas que me permitieran ganar dinero sin demasiado esfuerzo. Pero de máxima podría pedirle que me diseñara estrategias para lograr cosas de ciencia ficción, como ser la inmortalidad. En el medio de esos dos extremos, estaba la idea de automatizar la ciencia: que mi computadora fuera capaz de generar hipótesis al respecto de problemas que yo le planteara, y luego accediendo a todo el conocimiento online y generando simulaciones pudiera poner a prueba ella misma tales hipótesis, todo de manera automática sin más que mi sola orden: básicamente, fantaseaba con programar un oráculo o algo por el estilo.

    También imaginaba poder programar interfaces de usuario tridimensionales para mi computadora. Básicamente, pretendía tomar cualquier mapa de algún juego tridimensional de moda, y convertirlo en mi entorno de escritorio, que ya sería más bien un espacio virtual de trabajo. Pensaba interactuar con programas y sus ventanas de la misma manera que jugaba al Doom: caminando por ese espacio virtual, e interactuando con él de maneras que yo mismo determinara. De hecho, no veía problema alguno con permitir convertir a mi computadora en un espacio compartido de trabajo, tal y como los juegos online permitían a la gente conectarse y jugar juntes.

    Por supuesto no logré ninguna de esas cosas, y me quedé más bien en los cadáveres exquisitos. Pero usaba ese programa bastante frecuentemente, porque ya lo había integrado a un muy primitivo entorno de escritorio creado por mí mismo para reemplazar al de Windows: lo mío era básicamente una pantalla negra, con un cursor titilante que iba escribiendo cosas al estilo Matrix. Y sucedió que ese prorama un día me generó la siguiente frase: “vivimos en los brazos del sueño”. Esto suena trivial, pero ese día fué como una revelación epifánica para mí: me quedé leyendo esa frase una y otra y otra vez, casi compulsivamente, tratando de entender lo que estaba sintiendo al leerla. Por un lado, yo sabía muy bien que ese programa no era inteligente. Pero por otro lado parecía haberme dicho algo tan profundo, tan poética y filosóficamente significativo, que no podía quedar tranquilo sin ponerle una explicación racional al cómo podía ser que de allí surgiera algo como eso. A ver si me entienden: yo hice a ese programa, yo creé esa frase, con toda su extraña sabiduría. Esa noche fué una montaña rusa emocional. Pero finalmente pude llegar a una conclusión que se sintió tan correcta como reveladora: el texto no significa nada, y el significado es un efecto, un suceso, un fenómeno, que ocurre adentro mío. No era el texto, ni su intención, ni su autor, sino lo que yo hago con él, conscientemente o no, lo que me llamaba tanto la atención. Lo cuál me llevó a reflexionar sobre la composición de nuestro aparato psíquico, la relación con aquellas sensaciones tan intensas vinculadas a la experiencia de revelación, la comunicación, y tantas otras cuestiones que eventualmente me terminaron llevando a estudiar Letras: una carrera mezcla de literatura y lingüística.

    Por aquel entonces, mientras yo fantaseaba todas esas cosas con mi humilde computadora hogareña, ya no en mi Quilmes natal sino en Massachusetts, Marvin Minsky se preguntaba por qué llegaba el 2001 y todavía no existía Hal 9000. Reflexionando un poco en retrospectiva, quizás nací en el barrio equivocado. Como fuera, esa pregunta de Minsky se podía responder de muchas maneras. Estaban quienes decían que fué por los sesgos filosóficos o técnicos involucrados en las estrategias para plantear las diferentes inteligencias artificiales que ya se habían intentado, aunque también estaban quienes decían que era simplemente un tema de poder computacional en el hardware. Los debates, al menos en los referentes del área, no parecían haber prosperado mucho, y la inteligencia artificial seguía siendo cosa de imaginación de jovencites.

    Pero, como ya había dicho, la inteligencia artificial no era donde estaba el optimismo, sino en internet. Yo hacía también páginas de internet, que era de lo que pretendía eventualmente conseguir algún trabajo. En ese contexto también tuve alguna epifanía, aunque ya más de orden comercial. Recuerdo una vez predije que, en vista a lo que era el desarrollo de “HTML dinámico”, eventualmente permitiría programar cualquier cosa dentro de un web browser. Tanto era así, que el sistema operativo directamente sería un web browser: como ya sucedía desde internet explorer 4, que se integraba al escritorio de Windows. Pero además, mi experiencia programando aplicaciones cliente-servidor me daba la pauta de que, eventualmente, se iba a poder procesar todo en servidores, y entonces las computadoras no iban a necesitar hardware de alto rendimiento: apenas un mínimo para mostrar los resultados en un browser, y conexión a internet. Con eso en mente, me dije a mi mismo que debía adelantarme a ese devenir histórico, y programar un sistema operativo que directamente bootee conectándose a internet. Este sistema operativo se llamaría “Internet Operating System”, o “IOS”, y por medio de esta visionaria idea yo me convertiría en el siguiente Bill Gates.

    La idea duró poco: cuando agarré el primer libro de assembler, no pasé muy lejos de un “hola mundo” que rápidamente la aventura excedió mis capacidades. Pero la anécdota creo que refleja muy bien lo que era vivir la computación desde adentro en esa época: yo era un jovencito en una zona suburbana de un país del tercer mundo, y creía poder ser alguna forma de magnate solamente por tener las ideas correctas. Era la bajada de línea emprendedurista del momento, a la que cualquiera podía ser sensible.

    Y también la realidad de conseguir trabajo con internet era mucho más problemática de lo que mi optimismo podía predecir. Sucedió que mi generación sólo había vivido a la PC Wintel como “computación”. Y en ese sentido, me crié con herramientas de Microsoft. Aprendí a hacer páginas web desde que comenzaron a existir, con editores de texto plano. Pero cuando ya se trataba de “programar”, cuando las páginas web comenzaron a tener cada vez más lógica y scripting y requerir trabajo del lado del servidor, ahí ya no usábamos un simple editor de texto: no señor, les profesionales usábamos una IDE, que es un editor de texto pero para programación. Y no había IDE más completa y profesional que Microsoft Visual Studio. Con Visual Studio podíamos investigar toda la estructura interna de los componentes de programación disponibles, tan sólo apretando un botón y desplegando un menú. Y podíamos exportar nuestro software a componentes ActiveX, que luego se podían utilizar en Internet Explorer. Era extremadamente poderoso, y dejaba al mundo al alcance de la mano para cualquiera que tuviera la voluntad de conquistarlo. O al menos así se sentía.

    Lo que sucedió en la realidad fue que, cuando fuí a mi primera entrevista laboral de programador web, en la prueba técnica no me dieron Visual Studio sino un libro grandote y gordo con el que no estaba familiarizado, y una computadora para probar mi código. No era un gran problema para mí, porque yo estaba cómodo programando sin IDE: pero extrañamente mi código no funcionaba cuando lo probaba. No veía error, no entendía qué sucedía: programaba lo que había programado mil veces antes, y sencillamente no andaba. Hay toda una historia especial por la que conseguir ese trabajo era importantísimo para mí, pero no viene al caso: lo concreto es que tenía muchísima presión para conseguirlo, y fuí a esa entrevista muy seguro de mi mismo después de haber hecho mil experimentos de laboratorio en mi casa. Sabía cómo hacer las cosas, entendía los problemas a resolver, sabía hasta trucos para soluciones especiales: me sentía muy preparado. Y mi código no andaba. La entrevista técnica era una cosa de media hora, una hora como mucho: estuve varias horas, probando de todo y fracasando miserablemente. Me fuí de esa entrevista completándola a medias, donde mi código funcionó en Internet Explorer desde el comienzo pero nunca en Netscape Navigator. Y no conseguí el trabajo.

    Lo que sucedió fue que yo aprendí una versión rota de javascript: o, más que rota, “extendida”. Las herramientas de Microsoft me formaron como profesional para trabajar con las herramientas de Microsoft. Pero internet era más grande que Microsoft. Mi código no funcionó porque la versión de javascript de Microsoft era insensible a mayúsculas y minúsculas, por un lado, y permitía acceder a propiedades de objetos de manera no estandar, por otro lado. De modo que yo usaba sintaxis que parecía javascript válido, pero en realidad no lo era. En esa época no existían las herramientas de diagnóstico como hoy las conocemos, de modo que une tenía que poner un montón de mensajitos en el código para poder entender qué sucedía: alertas, que me indicaban qué parte del código se estaba ejecutando, y entonces así une podía seguir hasta qué punto el programa funcionaba y dónde dejaba de funcionar. Pero la sintaxis de Microsoft rompía incluso eso en Netscape Navigator, y entonces me dejaba a ciegas creyendo que mi código iba a funcionar y sin saber por qué no lo hacía. Netscape Navigator tenía una consola de errores, pero yo francamente no entendía ni cómo usarla ni qué me decía. No importó cuántas vueltas le dí, cuántas ideas originales apliqué para ver si lograba resolver los problemas de otras maneras: el problema era sintáctico, así que nunca iba a funcionar.

    Me tocó vivir el momento más intenso de la guerra de los browsers, en carne propia. Sufrí muchísimo el no haber conseguido ese trabajo. Y esa fué la primera vez que tuve un problema con Microsoft. Antes de eso, lo sentía como mi mejor amigo: me daba herramientas, me permitía hacer magia con mi computadora y fantasear mil futuros maravillosos. Pero después de eso comencé a desconfiar, a diversificar mis conocimientos, a dejar de basar mis conocimientos en una herramienta como Visual Studio y a tener más presente y ser más cuidadoso con los estándares que rigen mi código. Era una cuestión ya de supervivencia gremial.

    Pero esto no es mi diario íntimo: mi historia viene al caso porque fue la de millones, de personas y de dólares. En esos mismos años sucedía el juicio que el gobierno de los Estados Unidos llevaba adelante contra Microsoft, precisa y exactamente por hacer eso que me hizo a mí. Como mencioné antes, las prácticas anticompetitivas de Microsoft eran famosas, hacían escuela, y daban lugar a juicios multimillonarios, de los que salía simplemente pagando sumas dinero para luego continuar su comportamiento. Aunque uno de esos juicios fué muy especial. El gobierno de los Estados Unidos acusó formalmente a Microsoft de mantener un monopolio ilegal del mercado de las PCs: por lo que hacía con los fabricantes, y por lo que hacía con su competencia en el área de software, siendo el ejemplo cosas como incluir por fuerza Internet Explorer profundamente integrado con su sistema operativo.

    Es interesante revisar las grabaciones de las declaraciones de Gates durante ese juicio. No aquí en este ensayo, claro, sino que invitamos a quienes les interese a buscar ese material por internet. Básicamente, Gates por momentos actuaba con tono altanero o hasta burlón, mientras que en otras grabaciones se lo veía nervioso y ofuscado, constantemente esquivo. Básicamente, el gran genio de la informática moderna daba vergüenza ajena y se mostraba como una persona muy carente de algunas capacidades intelectuales. Entre las evidencias que se presentaron en el juicio, se mostraban mensajes internos de Microsoft donde ejecutivos decían cómo eso que me pasó a mí en mi entrevista de trabajo era algo que se pretendía sucediera adrede: algo planificado. Y desde Microsoft hasta intentaron presentar videos en su defensa, donde mostraban que los problemas que se mencionaban en Windows no eran ciertos, pero rápidamente se demostró que los videos eran falsificados y tuvieron que aceptarlo en la corte. Era un absoluto bochorno. Bill Gates, y su CEO sucesor Steve Ballmer, ambos consideraron irse de la empresa durante ese proceso.

    Y en el año 2000, la corte dictaminó que Microsoft era culpable, y ordenó separarla en dos empresas para remediar el problema del monopolio: una empresa se encargaría del sistema operativo, y otra empresa sería dueña del resto de su software. Era un fallo que dejaba un precedente enorme, y que venía a cambiar el ecosistema de la computación en general.

    Microsoft apeló de inmediato a la cámara superior correspondiente. Y el Gobierno de los Estados Unidos tampoco se quedó quieto: también de inmediato inició los trámites para que esa apelación fuera llevada directamente a la suprema corte de justicia, la instancia final. Para ese entonces ya había aparecido una carta pública de un think tank neoliberal en los periódicos de mayor tirada de los Estados Unidos, diciendo que el juicio era antiamericano y que el estado era títere de las empresas rivales de Microsoft y no debía meterse en la gestión industrial. Y durante ese proceso, el gobierno cambió de la administración Clinton a la administración Bush, donde esta última dijo que pretendía llevar alivio rápido a los consumidores, para lo cuál fueron instruidos los fiscales del caso. “Estoy del lado de la innovación, no de la litigación”, dijo Bush. Prontamente, la corte suprema encontró un tecnicismo por el cuál el juez que dictara la separación Microsoft fuera considerado sesgado e incompetente para juzgar: parece ser que, en algún momento, el juez habló con la prensa sobre el caso, lo cuál constituye una violación del código de ética, y de esa manera entonces debía recusarse. De modo que la corte suprema revocó la sentencia anterior, y dijo luego que Microsoft no requería separarse.

    Ese fué otro punto visagra en esta historia. Un universo paralelo donde Microsoft se hubiera separado, habría sido radicalmente diferente para el campo de la informática en general, y por lo tanto del mundo como lo conocemos. Pero lo que sucedió en nuestro universo es que Microsoft logró, básicamente, “leyes de impunidad”, al menos en términos de jurisprudencia.

    Eso fué en el 2001, y marcó el clavo final en el ataúd de Netscape, finalizando también la guerra de los browsers. Internet Explorer se convirtió rápidamente en el standard de-facto de los browsers, y todes les que quisiéramos trabajar con internet debíamos hacer esfuerzos para que nuestro software funcionara con los lineamientos de Microsoft, independientemente de nuestro contexto. Por ejemplo, no había Internet Explorer en GNU/Linux, y las versiones en sistemas de Apple tampoco funcionaban igual a las de Windows. Cualquiera que haya vivido esa época conoce cómo fué: todo en internet pasó a estar hecho casi exclusivamente para Internet Explorer. Aunque, en un principio, ese todo no era muy extenso qué digamos: internet seguía siendo más bien primitiva.

    Pero se vé que la historia quiso compensar el fiasco del año 2000, y se guardó todo el dramatismo para el 2001. El histórico juicio a Microsoft, que logró llegar a ser cuestión de estado, apenas pasó a ser una nota al pié administrativa cuando más tarde, en el mismo año, sucedía el ataque a las torres gemelas, con la subsecuente “guerra contra el terror” como respuesta. Recuerdo que ese día dormí hasta tarde, y mi abuelo me despertó al grito extrañamente alegre de “despertate que empezó la tercera guerra mundial”. Ese mismo año, pocos meses después, mi país finalizaba una crisis política y económica terminal del proceso neoliberal iniciado a principios de la década pasada: manifestaciones con decenas de muertos en la calle, múltiples presidentes en apenas dos semanas, y un profundo descrédito de la política bajo el grito unánime “que se vayan todos”. Así terminaban las milagrosas maravillas neoliberales en Argentina, y no pasaba un año entero que en Brasil era elegido democráticamente Luiz Ignácio Lula da Silva, candidato del Partido de los Trabajadores: otro aparente foco socialista en la región, y esta vez en el país más poderoso de todos. El neoliberalismo sólo trajo desastre a la región, y para 2008 ya había una nueva ola progresista en toda América del Sur con apellidos como Chávez en Venezuela, Lula en Brasil, Morales en Bolivia, Kirchner en Argentina, Correa en Ecuador, o Lugo en Paraguay: todes de sesgo regionalista y distribucionista, mayormente con industrialismo keynesiano pero algunes directamente también reivindicando al socialismo como horizonte. Era básicamente una respuesta directa al Plan Condor, y en pleno momento de exacerbación del militarismo estadounidense. Nota mental: nunca subestimes a la Historia.

    Aunque es Microsoft quien debería de haber considerado esa nota. Ya sin límites aparentes en la industria informática, Microsoft se dedicó a consolidar su dominio absoluto del mercado informático, lanzando productos de software que reemplazaran a los de su competencia, con las tácticas que ya conocemos: fabricantes forzades a distribuir software Microsoft, trabajadores obligades a hacer su trabajo compatible con Microsoft, universidades enseñando con tecnología Microsoft, y ahora la novedad de la década eran Estados y organizaciones privadas por internet exigiendo al software de Microsoft como requerimiento para realizar trámites. Desde los formatos de documentos de texto hasta cómo se escriben los caracteres a nivel binario, pasando por cómo se interpretan los dialectos de protocolos de internet y la absoluta necesidad de instalar programas de Windows para poder realizar actividades comerciales o profesionales, Microsoft imponía las reglas para todes. Si usabas cualquier otra cosa que no fuera de Microsoft, tenías problemas con Microsoft. Y como si fuera poco, los productos de Microsoft ya no eran particularmente de buena calidad, sino más bien todo lo contrario: pesados, llenos de vulnerabilidades que dieron lugar a infinitos problemas con viruses informáticos, incompatibles con versiones anteriores, muchas veces estancados en el tiempo e impidiendo el uso de nuevas y mejores tecnologías… era a todas luces un absoluto abuso.

    De hecho, en esta década aparecen algunos de los escándalos éticos más notorios de Microsoft, que ya pasaron a incluir sobornos y amenazas tanto a cuerpos de estándares internacionales como a funcionaries estatales de diferentes gobiernos de todo el mundo. El caso de la estandarización del formato privativo de documentos de Microsoft Office hacia el 2007 fue muy famoso: para ese entonces Windows y Office eran los vectores de influencia cultural por excelencia de Microsoft, y si bien GNU/Linux podía estar lejos de representar una amenaza no era el caso con Open Office, una suite ofimática alternativa, gratuita, y libre. Open Office tenía su propio estandar alternativo, llamado “Open Document Format” u “ODF”, plenamente interoperable. Microsoft hizo lo de siempre: sacó una nueva versión de Microsoft Office, esta vez su nuevo formato se imponía por fuerza, y lógicamente Microsoft no cumplía con la interoperabilidad de ODF. Pero para este entonces los problemas de interoperabilidad eran un tema serio en la gestión estatal, y el software que se utilizara cada vez más exigía adecuarse a lineamientos aprobados por cuerpos de estándares. De modo que Microsoft fué a registrar su propio estandar, al que llamó cínicamente “Office Open XML”. Finalmente Microsoft logró la aprobación, luego de un proceso que resultó en un escándalo mundial del que es fácil encontrar referencias por internet, pero que incluyó todo tipo de prácticas espúreas sobre les integrantes del cuerpo de estándares internacional (compuesto por cuerpos de estándares de múltiples nacionalidades).

    Y aunque mucho no pareciera importarle, por estas cosas Microsoft hizo muchos enemigos por esa década. El primer gran vector de crisis en Microsoft fueron los servidores. ¿Recuerdan la burbuja “punto com”? Eso hizo que centenas de miles de servidores alrededor de todo el mundo quedaran instalados sin mucho uso qué digamos: al menos no el que se pretendía que tuvieran. Y el software Microsoft para servidores era caro, inseguro, lento, y más complicado para realizar tareas de mantenimiento, que su ya entonces productivas contrapartidas en GNU o BSD. Además, buena parte del sector estudiantil o trabajador de la informática en general, vivía una y otra vez las cosas que conté me tocaron vivir a mí: pero a diferencia mía, tenían una cultura alternativa de la cual participar. De modo que la burbuja “punto com” dejó disponible infraestructura barata para ser explotada por cualquier empresa aventurera, y muchas de ellas no tenían ninguna intención de ser lacayos de Microsoft. Una de ellas fué Google, que ya por este entonces era la forma estandar de buscar información por internet: superando por lejos cualquier cosa que hicieran Yahoo o MSN Search, y hasta llevando a la obsolescencia al antes dominante Altavista.

    Pero, insisto, la batalla contra Microsoft no era tanto comercial como cultural. Netscape perdió su guerra de los browsers, pero en el camino creó a la fundación Mozilla, y liberó el código de Netscape Navigator, desde el cuál se creó a Mozilla Firefox: un browser alternativo a Internet Explorer, pero con un compromiso con estándares de interoperabilidad que Microsoft nunca tuvo. Por si a esta altura no se entiende: “compromiso con estándares de interoperabilidad” significa también al mismo tiempo “compromiso con les trabajadores” y “compromiso con las empresas”. Nosotres que programábamos internet por aquel entonces aprendimos a odiar a Internet Explorer y amar a Firefox, que a su vez rápidamente comenzó a tener también soporte empresarial de todo tipo: por ejemplo, de parte de Google, que se volvería su buscador por defecto y promocionaría a Firefox como browser de preferencia. Y, además, Firefox tenía un ecosistema de complementos muy celebrado, que en el año 2006 diera lugar a la creación de Firebug: una herramienta para programadores que permitía registrar errores y revisar el funcionamiento de las páginas web mientras se ejecutaban; aquello que no tuve durante la entrevista de trabajo que conté antes, ahora nos lo daba Firefox. Eventual y rápidamente eso se convirtió en el estandar de desarrollo web, cuando todos los browsers implementaron de manera nativa su propia versión.

    Hay muchas cosas de las que no hablamos, que Microsoft también rompía y así generaba odios tanto en empresas como en trabajadores y hasta consumidores. Por ejemplo, la cuestión de los codecs multimedia: audio y video, ya sea en directo por internet (en el web browser) o descargado, en Windows siempre traia problemas, muy especialmente por los reproductores que Windows imponía. Por esa razón empezaba a aparecer un ecosistema de codecs que competían con los que imponía Microsoft, y que como en el caso de Netscape no era raro fueran situaciones donde alguna otra empresa fuera anteriormente dañada por las prácticas anticompetitivas.

    Aunque para les trabajadores, el peor pecado de Microsoft era siempre la última E de su tripe E: “extinguish”. Era común que Microsoft comprara empresas con productos de software exitosos, “extendiera” las funcionalidades de esos productos para “integrarlos” a otras cosas, prontamente dejara de funcionar bien, y finalmente Microsoft lo discontinuara, para luego sacar una versión de algo similar: aunque esta vez con un nombre diferente, con políticas de uso mucho más agresivas, y con incompatibilidades con lo que hubiera antes. Si compraba un servicio de mensajería, perdías tu historial de mensajes y tus contactos; pregúntenle a alguien que haya usado ICQ. Si sacaba una nueva versión de su suite ofimática, tenías que hacer tareas de conversión de tus documentos y adecuarte a una nueva interfáz gráfica que era en rigor una nueva línea de trabajo diferente, y sin ninguna virtud agregada. A veces sencillamente compraba cosas y las mataba, sin más mediación. Esto era muy problemático para usuaries, pero muy especialmente lo era también para trabajadores, y yo lo viví cuando en 2001 Microsoft discontinuó sus versiones anteriores de lenguajes de programación, y lanzó “Visual Studio .NET”.

    Para ese entonces, los lenguajes de Microsoft competían con Java. Java permitía una interoperabilidad muy superior a cualquier otra cosa que ofreciera Microsoft, además de implementar un paradigma de programación muy bien visto en ese momento de la historia del gremio. De repente une podía programar en Windows un programa que luego podía ejecutarse en una computadora Apple, en un sistema operativo GNU/Linux, o incluso dentro de un web browser. Java iba a ser el futuro, y Microsoft hizo lo que siempre hizo: regalar una versión rota hecha por él, para que la gente no usara el Java real. Microsoft nuevamente perdió un juicio multimillonario por hacer eso, y esta vez para variar se le exigió que descontinuara sus versiones rotas de Java, de modo tal que Java no estuviera bajo control de Microsoft. Pero entonces Microsoft explotó su unión de-facto con Intel, y entre los dos registraron una serie de estándares ISO de interoperabilidad de software, que permitieran programar de una manera similar a la que permitía Java, aunque esta vez bajo control de Microsoft. Eso se llamó “.NET”, y cuando Microsoft lo lanzó a la calle, toda herramienta de programación pasó a estar bajo la órbita de “.NET”, que a gente como yo le exigía básicamente re-aprender a programar aplicaciones de escritorio, quitándonos de un plumazo nuestra pericia técnica acumulada por años de experiencia. Esto puede sonar sobredramatizado, pero dejo un ejemplo para que tomen dimensión de qué estoy hablando: hoy, año 2023, todavía hay ofertas de trabajo para usar aquellas tecnologías anteriores a “.NET”, cuya última versión data del año 1998; así de costoso puede ser pretender cambiar esa infraestructura productiva que es el software. Y estas cosas no nos hacían más amigues de Microsoft precisamente.

    Cualquiera fuera el caso, si bien con triunfos y fracasos, había una contracultura, cada vez más fuerte por todas estas cosas que relato. GNU/Linux se hizo más, y más, y más fuerte en el entorno de servidores, y con ello prosperaba también software que no fuera ni hecho por Microsoft ni para correr en Windows. Las propias limitaciones sintéticas que Microsoft ponía en su ecosistema eran la base empírica para evitarlo y construir mejores alternativas. Aunque, si bien esto podía ser un hecho para el mundo laboral y empresarial vinculado a servidores, les usuaries finales y la gente que como yo pretendiera trabajar con interfases gráficas tenía que vérselas con Microsoft más temprano que tarde. Y entre eso, y el hecho de que los productos Microsoft pasaron a ser notablemente deficientes en diversos frentes, dió lugar a que otras empresas pudieran también encontrar algún espacio dentro del mercado consumidor. Este fue el caso de Apple, que a duras penas logró sobrevivir a los noventas. Pero la nueva década le depararía un lugar impensado a Apple.

    Donde Microsoft es básicamente una organización mafiosa y existe solamente para explotar un monopolio, Apple se sostiene bajo otro principio bastante más ilustrado, mucho menos salvaje: fetiche de la mercancía. Apple re-contrató a Steve Jobs como directivo, y logró armarse un ecosistema paralelo al de Microsoft y al del Software Libre concentrándose en la experiencia de usuario en términos generales: por un lado lineamientos estrictos de cómo debe funcionar el software en su ecosistema (algo que en los otros dos mundos era más bien caótico), y por el otro lado implementando también fuertes lineamientos en términos de diseño visual y ergonómico, tanto de hardware como de software. Para ello también se amparó en código de software libre, como ser de proyectos como BSD o KDE, que luego de substanciales modificaciones fueran la base del software privativo de la empresa. Así logró hacerse de un mercado más exclusivo que el de las PCs “IBM Compatibles”, y defenderlo de los ataques de Microsoft. Algunas áreas del trabajo técnico también tuvieron durante un momento breve algunos beneficios productivos a la hora de trabajar con hardware y software Apple, como ser el trabajo con audio y video. Pero mayormente el ecosistema Apple era “lindo”, y “funcionaba bien”. Desde allí también logró imponer algunos estándares de-facto de software, como algún que otro formato de audio o video, o hasta incluso desarrollar su propio browser, del mismo modo que sus trabajos en diseño inspiraban muchas ideas en los otros ecosistemas.

    Pero Apple seguía siendo una empresa muy de nicho, exitosa apenas en algunos paises ricos, y con muy poca presencia en paises como el mío. Y tampoco tenía casi presencia alguna entre los servidores, salvo por algunas cuestiones muy particulares de su ecosistema. Muy rápidamente pasó a darse la siguiente segregación de software y hardware: GNU/Linux en servidores, Wintel en PCs de escritorio para consumidores finales, y Apple en otras computadoras más especializadas para mercados particulares. Las prácticas de Microsoft eran exitosas en sostener su monopolio, pero no parecían darle herramientas para todo lo demás, donde la gente conocedora ya no quería tocar nada de Microsoft ni con un palo de varios metros. Y entonces sus prácticas de éxito se convirtieron también en su punto débil. Wintel nunca fué la combinación más eficiente en términos tecnológicos, y para esta época la eficiencia comenzaba a ser un factor importante, porque empezaban a aparecer otros hardwares para consumidores finales pero que requerían regímenes de rendimiento a los que Microsoft no podía aspirar ni con Intel ni con Windows. Nos referimos a cosas como consolas de video juegos, reproductores multimedia portátiles, dispositivos de control industrial de todo tipo, y por supuesto los teléfonos móviles.

    Microsoft siempre tuvo versiones de Windows para otros dispositivos que no fueran “PCs IBM compatible”. “Windows CE”, “Windows Mobile”, “Windows Server”… todas versiones sensiblemente diferentes de Windows, que pretendían hacer del conocimiento que les trabajadores ya tenían en sistemas Windows un puente hacia otros mercados: en lugar de tener que aprender múltiples sistemas, y usar multiples herramientas, y hasta tener que familiarizarse con múltiples teorías y escuelas de programación, se suponía que une podía simplemente usar Visual Studio y programar para cualquier otro sistema. Pero esas versiones de Windows rápidamente mostraban sus deficiencias comparativas con la competencia, esta vez sin que Microsoft tuviera el monopolio del mercado en cuestión, con lo cuál tarde o temprano pasaban a la irrelevancia.

    En el mundo de los teléfonos móviles, Microsoft no era particularmente prominente. Empresas de tecnología como Nokia o Sony tenían mucha más presencia y vivían a la vanguardia de los desarrollos, aunque también existían empresas con dedicación más exclusiva como Blackberry. Y la telefonía móvil muy rápidamente pasaba de ser el futuro de internet a ser un presente cada vez más tangible. Los detalles al respecto son muchos y sin gran importancia, lo concreto es que en 2007 Apple lanza el iPhone luego de llevar varios años lanzando otro productos como iMac e iPods. El iPhone era básicamente, como cualquier otro teléfono móvil, una computadora pequeña con un modem: pero a diferencia de iteraciones anteriores de teléfonos, esta vez realmente se permitía usar un web browser con las mismas prestaciones que en cualquier otra computadora, llevando finalmente la idea de tener internet en el bolsillo a la realidad. Fué un éxito rotundo, y un punto de inflexión en la tecnología, tanto móvil como de internet.

    Pero Internet era el mercado de Google, no de Apple, y esta otra empresa también se la pasaba generando revoluciones. La calidad de productos como Google Maps o gmail sorprendía a todes, al mismo tiempo que compraba muchas empresas que operaran en internet. Para ese entonces “googlear” ya era sinónimo de buscar en internet, y todo lo que se pudiera hacer por internet era de interés para Google. La entrada de Apple a la internet móvil por la vía del hardware no fué un evento menor para Google, que también tenía en planes sus propias estrategias de control de esa cultura: cualquier evento de estas características podía terminar en un monopolio sometedor como antes lo había sido Wintel, pero además era evidente para ese momento que el desarrollo de internet también dependía fuertemente del software con el que se la utilizara. Por ello Google también desembarcó en el mundo de los teléfonos móviles, aunque con otra estrategia.

    La Apple con Steve Jobs a la cabeza siempre fué una empresa de arquitecturas cerradas. Sus estrictos límites le permitía un control absoluto del ecosistema a Apple, y de hecho la empresa tuvo serios problemas cuando intentó utilizar arquitecturas abiertas para competir con la PC IBM. De modo que el iPhone fué otra iteración más de arquitectura cerrada. Pero Google se formó con arquitecturas abiertas, donde el control pasa por los estándares y las licencias de fabricación y reproducción. De modo que Google diseñó una estrategia de hardware y software abiertos, de modo tal que desde Google se controlaran algunos lineamientos del sistema operativo, pero en realidad cualquier fabricante pudiera modificarlo más o menos a su antojo y usarlo en muchos dispositivos. Para ello, tomó al kernel Linux que ya se usaba popularmente con GNU, aunque lo utilizó con otro sistema operativo de su propia creación, llamado Android. Android no es GNU, pero ambos usan al kernel Linux, y ambos son en buena medida “open source”: aunque Android no es software libre. De hecho, es raro que les fabricantes liberen el código de los drivers para los teléfonos donde implementan Android, y esos drivers son absolutamente privativos. Como sea, esta estrategia fue exitosa, porque muches fabricantes tuvieron oportunidad de acceder a un ecosistema normalizado de aplicaciones para telefonía móvil, a diferencia de los años anteriores donde había que re-hacer el software casi que para cada dispositivo que salía al mercado. Y entonces terminó pasando lo mismo que en décadas anteriores había sucedido con el software Microsoft en las PCs IBM. Aunque esta vez el software se sostenía sobre Linux, que ya estaba preparado desde su nacimiento para adecuarse a múltiples fabricantes de hardware, y entonces no sucedería lo que antes sucedió con Intel.

    Microsoft, mientras tanto, perdía cada vez más relevancia. Muchos mercados seguían dependiendo de sus decisiones, pero su futuro no se mostraba tan asegurado como él prentedía hacer de cuenta. La baja calidad de sus productos, y el destiempo en el que los lanzaba (frecuentemente mucho más tarde de lo que las oportunidades de negocio exigían) generaban francamente vergüenza: como lo fuera el lanzamiento de Internet Explorer 7, o bien el mismo Windows Vista, dos versiones mucho peores de su software anterior, que no sólo no resolvían ningún problema sino incluso agregaban más. Cada vez se hacía más horrible convivir con Microsoft, para todes. Aunque hubo un área donde mantuvo el total dominio del mercado, casi sin molestia alguna: los video-juegos por computadora.

    Esta fué la década que los arcades lentamente dejaron de existir: porque los videojuegos de consolas hogareñas mejoraban mucho, porque mantener los arcades era caro, porque la piratería por internet era muy prolífera, y porque las experiencias de juego colectivo ya pasaban más al mundo de los juegos por computadora. Aquello que antes hacía tímidamente el doom en redes hogareñas, ya entonces lo hacían el counter strike o el diablo 2 por internet. Los juegos en red, ya sea local o por internet, pasaban a dominar el ambiente competitivo, y las consolas todavía daban sus primeros pasos en eso de la conectividad. Pero, habíamos dicho, los juegos tenían muchos problemas computacionales sofisticados qué resolver. Si a eso le agregamos todos los problemas de software que mencionamos en la historia del monopolio Wintel, es entendible que les programadores rara vez eligieran programar un juego para ninguna otra plataforma. Y lo mismo sucedía con el hardware.

    Entrada la década del 2000, nVidia ya se había establecido como la referente en hardware de aceleración de gráficos 3D, y los videojuegos eran la pujante caja de maravillas en ese ámbito de las artes. De hecho, los videojuegos tenían una sorpresa para dar al respecto. Las películas basadas en videojuegos compartían históricamente el mismo problema que las películas basadas en historias de superhéroes: eran películas frecuentemente malas, cuyas actuaciones y ambientaciones estaban lejos de honrar los productos originales, o bien la cultura del ambiente cinematográfico no permitía una adaptación plena. Pero en el contexto de la animación 3D, una de las empresas de vanguardia en la cuestión lanzó su propia película cinematográfica, inspirada en su propia franquicia, esta vez hecha enteramente con animación tridimensional que se pretendía fotorealista. Es decir: era una película entera con renders como los del T-1000 en Terminator 2, ya sin actores filmados, sin fotografías ni sets de filmación, ni ninguna otra cosa en términos visuales que no fuera animación 3D.

    La película se llamó “Final Fantasy: the spirits within”. Y estaba basada en los videojuegos de la saga Final Fantasy, de la empresa Squaresoft, que en ese momento iban por su novena iteración. Aunque en realidad ninguno compartía una continuidad con el anterior, y eran todos historias más bien autónomas en universos ficcionales separados. Sin embargo, era una saga que solía incluir componentes de ciencia ficción, de diferentes filosofías, y para esa altura también de animación 3D. Y la película fué al mismo tiempo un rotundo fracaso comercial, y un evento más bien mediocre para la crítica especializada en cine, pero también un espectacular triunfo de la tecnología.

    Para aquel entonces, la animación 3D continuaba siendo más bien caricaturezca, y no se pretendía fotorealista: porque era demasiado costoso el fotorealismo, no sólo en términos de dinero sino también en la pericia técnica que requería. Animar personas tridimensionales implica muchos problemas de orden cognitivo que no son evidentes para cualquiera, y menos todavía son fáciles de resolver. Sucede que les humanes tenemos, como parte de nuestros sentidos, la capacidad para distinguir a otres humanes a partir de muchos detalles que no tomamos en cuenta sino sólo de manera incosciente. Hay movimientos profundamente sutiles, texturas, efectos de la luz en diferentes partes del cuerpo como ser los pelos o la piel, mezclas de problemas de ese estilo vinculados a la temperatura o humedad ambiente, reacciones que esperamos de las personas o caso contrario nos resultan disonantes… esa clase de problemas se salvan sencillamente no pretendiendo hacer fotorealismo, como era el caso con empresas ya exitosas en el cine como Pixar o DreamWorks.

    Lo que sucedió con esa película fue que, independientemente de cómo le fuera al guión o en sus ventas, fué considerada unánimemente por todes como el nacimiento de les actores digitales: porque los renders 3D fueron efectivamente convincentes, y de hecho por momentos lograba ser visualmente impactante; aunque a eso último ya estábamos acostumbrades, tanto por los videojuegos como por el trabajo usualmente brillante de la gente de efectos especiales en la industria cinematográfica. Nadie tuvo nada malo para decir sobre la animación 3D de esa película, sino más bien todo lo contrario. El presonaje principal de hecho sorprendía por momentos en su calidad y sus detalles. Era una mujer, heroína de la historia, en el papel de científica intentando resolver un problema terminal de la sociedad. Pero al ser renders 3D, no tardaron en aparecer renders en ropa interior o cosas por el estilo, y hasta terminó siendo tapa de la revista Maxim o apareciendo en la lista de mujeres más atractivas del año. Los usos culturales de esta tecnología podían ser pobres, pero el fotorealismo era un éxito incuestionable. Y eso no pasó desapercibido en los ambientes adecuados.

    nVidia no participó del desarrollo de esa película, pero sí se convirtió posteriormente en el estandar con el que se medía el rendimiento de la animación 3D. Su competencia ATI solía estar lejos de nVidia en términos de rendimiento, y nVidia además se dedicó a comprar otras empresas vinculadas a sus intereses. Primero compró la otrora lider del mercado, 3dfx. Pero también compró empresas vinculadas a la fabricación de semiconductores y sus pormenores, así como también fabricantes de diferentes componentes de áreas muy específicas del hardware y software informático en general: chipsets, procesadores, motores de simulación física, etcétera. nVidia no estaba comprando fábricas, sino conocimiento: sus compras le daban patentes, mano de obra calificada, y años ya avanzados en investigación y desarrollo. Esto era una práctica normal en la industria informática, pero… ¿placas para poder jugar videojuegos en la computadora? Eso era raro.

    Como ya contamos en este relato, los videojuegos eran meramente instrumentales para nVidia, y apenas eran un caso particular para experimentar en algo mucho más profundo y poderoso: la paralelización de procesos y la implementación de algoritmos de aceleración de cálculos en hardware dedicado. nVidia no esperó a que Intel o alguna otra empresa tomara las riendas de esa industria tan especializada. Y estas cosas a las que nVidia le prestaba atención implicaban algunos detalles técnicos que, como pasaba con el fotorealismo, no se entienden hasta que une se mete en los pormenores de sus desafíos.

    Por ejemplo, la película de Final Fantasy utilizó una “granja de renderizado” de casi mil computadoras Pentium 3. Se le dice “granja” al montaje de muchas computadoras puestas al servicio de alguna tarea paralelizada en muchas subtareas. Siguiendo con el ejemplo, supongamos que a esas mil computadoras las ponemos a renderizar, en paralelo, un fotograma de la película a cada una, de modo tal que si cada computadora tardara un segundo en renderizar su fotograma estaríamos hablando de una velocidad de renderizado de mil fotogramas por segundo. Eso es una forma ingenua de explicar las ventajas de la computación paralelizada, pero en realidad implica muchísimos problemas técnicos. Si recuerdan lo que contamos antes sobre el T-1000, en realidad un fotograma de la película depende mucho de otro fotograma anterior: porque son simulaciones físicas, y los cálculos de trayectorias y luces y sombras y tantos otros detalles visuales dependen del estado de muchas variables en su situación previa. Además, las computadoras pueden trabajar en paralelo, pero necesitan recibir las instrucciones de alguna manera, y el trabajo debe ser coordinado: para ello se utilizan redes de computadoras, que tienen detalles como velocidades máximas de trabajo, y eso afecta entonces el rendimiento del trabajo total. A su vez, cuando hablamos de mucha cantidad de información como es el caso de los renders fotorealistas, buena parte de esa información tiene que pasar por diferentes subsistemas de la computadora: la memoria, el disco rídido, la placa de red… todo eso suele ser además coordinado por el CPU, aún cuando se cuente con hardware dedicado para hacer cálculos tridimensionales, y todo suma tiempo de trabajo. Para cerrar el ejemplo, la película de Final Fantasy, con sus casi mil computadoras en paralelo, requirió unos cuatro años de trabajo por parte de unas 200 personas, y se estima que si ese trabajo no hubiera sido paralelizado hubieran sido unos 120 años de trabajo.

    Aquellos son algunos detalles, explicados muy por encima, del mundo de la computación paralelizada. Pero cuando se analizan sus números, se aprecia que estamos ante el día y la noche. La película de Final Fantasy salió carísima, por tener centenas de personas altamente capacitadas trabajando durante años, y requerir además hardware de vanguardia para así y todo tardar cuatro años en el renderizado. Fué el final de la aventura de Squaresoft en el mundo del cine, porque nadie podía pretender hacer esa clase de inversiones para no recuperar luego el dinero. Pero desde nVidia veían esa clase de experiencias con ojos científicos desde el día cero, y sabían bien que cada pequeña optimización en el proceso de paralelización en realidad iba a derivar en mejoras dramáticas en esos tiempos. Por eso hacían cosas como comprar empresas de renderizado 3D, por un lado, pero por el otro también empresas de placas de red, empresas que trabajan en la parte de la computadora que comunica a las placas 3D con los CPUs y con otras placas, y tantos otros etcéteras.

    A los ojos de gente como la de nVidia, los videojuegos no eran ningún juego, y las películas de animación no eran ninguna cosa para chiques. Y con esa mentalidad, rápidamente lograron una absoluta centralidad en su área. Para el año 2007, después de sucesivos lanzamientos de hardware de aceleración 3D para PCs, nVidia lanzaba su producto de software para programadores: CUDA, una herramienta por la que se podían implementar técnicas de computación paralelizada en general, ya no solamente para videojuegos 3D, utilizando sus mismas placas aceleradoras de gráficos, para ese entonces ya conocidas como GPUs. Las GPUs de nVidia se estandarizaban en los hechos ya no como un juguete, sino como una herramienta suficientemente normal y suficientemente accesible para implementar computación de alto rendimiento: algo que en épocas anteriores sólo podían hacer las supercomputadoras y las grandes organizaciones.

    Esa fue una revolución mucho más silenciosa que la de las PCs, pero me atrevo a decir que mucho más impactante para el ojo entrenado. Donde las PCs le permitieron a cualquiera de repente ponerse a automatizar cosas, las GPUs permitían subir los órdenes de magnitud de trabajo computacional hasta dar lugar a cosas que pocos años antes eran de ciencia ficción. Y prontamente se verían los resultados. Pero esta revolución de la computación paralelizada era acompañada por otros cambios a través de la década, esta vez del lado de Internet.

    La burbuja “punto com” tuvo otros efectos colaterales, además de la infraestructura barata. Y un gran triunfo cultural y social de la década de los noventas se volvió para este entonces algo con lo que no quedaba claro cómo lidiar exactamente: la gratuidad de los servicios. Sucedía que Internet, por un lado era todavía muy primitiva como para que la gente cómodamente ingresara sus datos de tarjetas de crédito o cuentas bancarias: todavía se percibía mayormente como un peligro, porque une nunca sabía a dónde iban a parar esos datos, y qué podrían hacer luego con ellos. Y por el otro lado, habernos criado con que las casillas de e-mail y tantas otras cosas son gratuitas, francamente hacía luego poco verosimil pedirle a la gente que se pusiera a pagar por los mismos servicios. Lo mismo pasaba con cosas como el tráfico multimedial: en archivos MP3s descargábamos discografías enteras, si los libros estaban escaneados no necesitábamos más que bajarlos y leerlos, todo eso lo hacíamos de forma gratuita, y entonces las copias físicas pasaban a tener un dudoso valor. Pero más allá de los detalles, cómo mantener online a internet en términos comerciales se volvió un problema serio para las empresas.

    Qué sucedió al respecto, ya lo sabemos: terminó imperando el modelo de publicidad por internet, tal y como antes sucedió con la radio y la televisión. Pero esta vez la cuestión era mucho más sofisticada. Empresas como Google estudiaban precisamente el valor de los componentes de internet en sus interacciones con seres humanes, y del mismo modo que notaron una relación entre los links a un sitio y su hipotética importancia, notaron también que era moderadamente sencillo obtener información de los hábitos de consumo de las personas en relación a sus intereses, lo cuál es profundamente valioso para quien desea mostrar publicidad a alguien. Con esta clase de problemas comenzó una carrera por lograr juntar suficientes datos personales como para lograr direccionar la publicidad hacia las personas de modo tal que la reciban, ya no como una molestia, sino como información útil, como algo que efectivamente desean recibir: un sueño dorado del mundo de la publicidad. Mucho se puede hablar al respecto, pero esta aventura fué en definitiva uno de los más poderosos vectores de influencia detrás del desarrollo de lo que hoy llamamos Big Data: técnicas de gestión de datos, no sólo en grandes cantidades, sino también de estructuras muy heterogéneas entre sí, que permitan obtener de ellos diferentes patrones que constituyan diferentes cosas: modelos de comportamiento, perfiles de usuarios, o hasta por qué no predicciones. Si prestaron atención a este relato, notarán que es un caso más de trabajo con estadística. Y en esta oportunidad se convirtió también en uno de los pilares para lograr mantener las operaciones comerciales por internet, dado que cobrar por los servicios era más bien inverosimil.

    La recopilación de datos por internet se convirtió en una verdadera industria, con sus propios desafíos técnicos. Pero en esa década ciertamente explotó como nunca antes en la historia. Y es que Internet era precisamente el universo de interacciones donde esa clase de prácticas se volvían el más elemental sentido común a nivel técnico: si las computadoras entre sí, o bien les usuaries al usuar servicios, deben siempre identificarse, la tarea de recolección de datos era tan sencilla como simplemente guardar registro de las actividades. Cómo se hiciera eso, o qué se hiciera luego con esos datos, ya era otra historia: pero la dinámica era evidente. Y por supuesto que esta década tuvo también su generación de jóvenes reflexionando al respecto.

    Esta década dió lugar al nacimiento de las hoy llamadas “redes sociales”. En rigor, todos los sitios webs son más bien redes sociales, y en especial lo son servicios como chats de IRC o foros de internet. Pero lo que terminó pasando en esta década con las tecnologías del compartir información hizo que le dieran alguna que otra vuelta de tuerca al concepto. Un poco pasaron a ser un espacio donde une se publicitaba y exponía a la internet: algo así como “tener una página personal”, pero con algunos vínculos con otra gente ya automatizados por el sitio web. Eso era la primer red social canónica, MySpace, o en español “mi espacio”. Recuerdo que por aquel entonces yo preguntaba para qué servía eso, porque yo ya tenía página web oficial en geocities, y ya tenía un blog en blogspot: ¿para qué quería tener algo qué ver con myspace? Y la respuesta que me daban era casi unánimemente: “para estar ahí”. Tener un espacio en MySpace ya tenía un valor de por sí. Aunque ese valor era ciertamente difícil de medir. Menos difícil de entender era LinkedIn, que tenía como objetivo básicamente crear contactos laborales y corporativos. Pero en el mismo año nacía también Facebook, de la mano de un jóven Mark Zuckerberg que ya desde el primer día la articulaba como un aparato más bien antisocial.

    Zuckerberg implementó algunos algoritmos de búsqueda y comparación de perfiles, en un espíritu similar al de Google, pero con un objetivo bastante diferente. Lo que hizo fue descargar de manera automatizada fotografías de les estudiantes de su universidad, para luego subirlas a otro sitio web donde se articularían en competencias de “quién es más atractivo”, o bien de si “es sexy o no lo es”. Los condicionamientos hormonales de Zuckerberg son comprensibles para cualquiera que alguna vez haya sido estudiante universitario, pero es un tanto sorprendente que haya logrado crear un imperio en base a eso, en especial en su dimensión ética: porque el sitio web de inmediato generó adicción y discordia entre el estudiantado, y llevó a la universidad a tomar medidas también en cuestión de horas.

    Hubo muchos sitios de redes sociales, casi todos ya en desuso o extintos. De los exitosos, pocos años más tarde aparecían Reddit y Twitter, también con objetivos muy diferentes a los mencionados anterioremente. Reddit tuvo desde el principio un espíritu de compartir información y valorarla colectivamente. Mientras que Twitter era muy extraño y experimental, permitiendo escribir mensajes muy breves literalmente como ruiditos de pajaritos. Pero en definitiva finalmente se empezaba a utilizar a Internet para interconectar gente, de diversas maneras. Y en todas esas aventuras, la publicidad en internet fué central para mantener online a las empresas, del mismo modo que pronto lo fué la gestión de de datos personales que retroalimentara la eficiencia de la segmentación de poblaciones para una publicidad dada. Una cosa hacía a la otra, llevando a resultados que se recalibraban y reanalizaban, dando lugar a nuevos algoritmos y experimentos y prácticas. Mucho de esto no era nuevo, y las redes sociales simplemente lo implementaban: como dijimos varias veces, el análisis estadístico ya era centenario, y se utilizaba en diferentes disciplinas. Pero en particular las matemáticas y la sociología solían tener herramientas para pensar el término “redes sociales” sin tener que andar imaginando demasiado: era más bien al revés, cómo implementar aquellas herramientas en términos de software.

    Y tampoco eran tan cuestión de “redes sociales”: dijimos que Google hacía esta clase de cosas, pero casi no dijimos nada sobre Amazon. Si alguien supo explotar el abaratamiento de la infraestructura de internet luego de la burbuja “punto com”, ese fué Amazon. Para finales de los noventas, Amazon ya no vendía sólo libros, sino que vendía de todo. Y eso tenía sus problemas técnicos. Diversificar su universo de interacciones y acrecentar las competencias de la empresa son problemas serios de ingeniería, de todo tipo: financiera, logística, computacional. Amazon creció en todos los frentes, de manera frenética. Y uno de esos frentes fué en la gestión de datos. No fué el inventor, pero sí se convirtió en el estandar de “computación remota”, o lo que hoy se llama coloquialmente “nube”. Básicamente, Amazon logró resolver el problema de tener su tienda siempre online y respondiera suficientemente rápido, independientemente de si se rompiera algúna computadora o se desconectara algún datacenter, aplicando técnicas de replicación de datos y paralelización de cómputos. Todo eso a su vez generaba datos en su actividad, que luego podían ser procesados por las mismas técnicas que Google o Facebook. Y Amazon no fué ningún dormilón al respecto.

    Sus desarrollos de infraestructura lo llevaron a, eventualmente, estandarizar componentes internos del aparato de cómputo y reducirlo a una sucesión tal de componentes que luego podría ofrecerlos como servicios en sí. Es decir: Amazon logró dominar tan profundamente los desafíos de infraestructura computacional, que terminó dando servicios de infraestructura computacional a terceros, además de montar en esas infraestructuras sus propios servicios. Y como eso se convirtió en un negocio lucrativo, siguió comprando e instalando sus propios datacenters. Por aquel entonces todavía era popular contratar “web hosting”, pero lentamente durante esa década Amazon invirtió en un modelo de crecimiento en infraestructura que al mismo tiempo le permitiera más operaciones, más capacidad de análisis de datos, y más centralidad en internet. “Servicios web” lo llamó a eso, y en esa década nació “Amazon Web Services”: una figura hoy inesquivable de la internet global.

    Todas las empresas grandes de internet requerían construir e implementar estrategias de gestión muy compleja para sus operaciones, especialmente en términos de escala. Entiendan que de repente empresas como Google o Amazon tenían de mercado al planeta entero, y precisamente pensaban sus infraestructuras en términos planetarios. Más o menos al mismo tiempo que “Amazon Web Services” aparecían “Google Cloud Platform” y “Microsoft Azure”, que eran básicamente una colección de servicios similares, y un nuevo plano de competencia comercial. Pero particularmente Amazon y Google también utilizaban esta área para influir en la comunidad trabajadora del software, publicando sus propias herramientas y metodologías de trabajo que permitieran implementar algunos cambios en cómo funcionaban los sitios de internet por dentro. Cuando se trata de grandes escalas, el problema no mantener un programa corriendo en un servidor sino prender y apagar constantemente miles de programas que se retroalimentaban entre sí en miles de servidores, y hacerlo sin que eso afecte negativamente las actividades de las personas que utilizan los sitios web. Tareas como esas requieren administrar software muy heterogeneo, al mismo tiempo exige mucho orden y mucha flexibilidad, y esta administración misma se volvió una disciplina en sí. Eventualmente eso tuvo el nombre de “orquestamiento”, y ese pasó a ser también un espacio donde las técnicas de inteligencia artificial empezaron a tener lugar. De hecho, el sistema de orquestamiento de Google para esa década se llamaba Borg, como aquellos villanos cybernéticos de Star Trek que lo asimilaban todo.

    El tema de los “servicios web” fue siempre muy ambigüo: puede ser desde espacio online para dejar archivos, hasta alquilar tiempo de cómputo para realizar operaciones computacionales arbitrarias. Por eso debe entenderse en su generalización como “infraestructura”. Pero lo concreto es que por aquel entonces las empresas pretendían dar “servicios” vinculados a internet, e internet era casi sinónimo de “web”. En cualquier caso, la infraestructura de internet comenzó a utilizarse fuerte para compartir cosas entre personas, y eso llevó también a fenómenos nuevos. Como que se puso más intensa la cacería y los intentos de restricción a cualquier fenómeno de piratería online. Y en esa aventura sí proliferaban los modelos de negocios pagos, donde se compraba algo digital que luego se permitía descargar: como un libro, por ejemplo, o un disco de música. A cambio de ello, ese contenido digital sólo podía luego consumirse bajo ciertas condiciones, siempre mediando una identificación de usuario, y generalmente impidiendo que se realicen copias del contenido. Nacía el DRM como servicio: “digital rights management”, o “gestión digital de derechos”. Una forma de restringir las libertades sobre los contenidos digitales.

    Y para cerrar esta década de tan poca primera plana para la inteligencia artificial pero tantas empresas nacientes en la industria informática, todavía tenemos que hablar de dos más.

    La primera, fundada en 1996 por un ex Microsoft, que quedó impactado por lo que vió suceder con el Doom. Gabe Newell formó parte del desarrollo de las primeras tres versiones de Microsoft Windows, y para 1995 se enteró que el Doom era un software todavía más instalado que el propio sistema visual de Microsoft. Pero Newell reflexionó al respecto que la gente de ID Software tenía doce empleados en total, mientras que Microsoft tenía 500 solamente para intentar conseguir ventas: por lo cuál le parecía epifánico, y hablaba de un cambio inminente en la cultura del software. En 1996 renunció a Microsoft, y junto con otro compañero fundaron la empresa Valve, que en 1998 publicó su primer videojuego: Half-Life. Este utilizaba un motor gráfico ya no de última generación, pero lo hacía de manera tan bien pulida y con una ambientación tan atrapante que resultó ser un gran éxito para la empresa. Fué su debut en la industria de los videojuegos, y fué universalmente aclamado. Desde ese éxito en adelante, Valve no dejó de invertir en investigación y desarrollo en la industria de los videojuegos: nuevos motores gráficos, nuevos controles, nuevas formas de interactuar con los jugadores, nuevos mercados. Y uno de esos desarrollos fué la creación de un sistema de distribución de software, en principio videojuegos, que permitiera comprarlo y bajarlo, pero además gestionar los pormenores de instalaciones, al mismo tiempo que también permitía interactuar con otros usuarios fácilmente para permitir crear partidas de juegos o mantenerse coordinados durante las mismas. Ese sistema se llamó Steam, que salía a la calle por el 2006, y básicamente era la primer implementación de DRM que francamente tenía algún beneficio para les usuaries.

    Los DRMs en música o libros frecuentemente limitaban el acceso a los contenidos, y a cambio no daban ningún beneficio. Pero Steam resolvía problemas con la gestión de juegos, como ser los muchos problemas de componentes del sistema operativo necesarios para que funcionen, o bien tener siempre disponible la posibilidad de instalarlo en cualquier otra computadora sin necesidad de estar llevando un CD o un DVD sino directamente por internet: algo que, hasta ese entonces, sólo permitía la piratería. Los juegos además no eran particularmente caros, y en líneas generales se percibía por primera vez como un costo aceptable para un servicio online de video juegos. Steam comenzó con juegos exclusivamente de Valve, mayormente concentrado en la instalación y actualización de los mismos, así como también en la gestión de grabaciones de partidas online de modo tal que una partida pudiera ser interrumpida en una computadora y luego continuada en otra. Pero eventualmente creció hasta convertirse en un gestor genérico de videojuegos o hasta software en general, permitiendo comprarlos, compartirlos, y demás tareas que ahora pasaban a ser seguras y sencillas. Steam fué también un absoluto éxito, y para el final de la década ya era un estandar de facto en la industria de juegos de PC.

    Pero antes dijimos que Microsoft había sabido hacer muchos enemigos por su conducta. Y más anteriormente todavía dijimos que el principal enemigo cultural de Microsoft era el proyecto GNU. A GNU le iba muy bien en muchos frentes, pero no tanto en otros. La idea de usar GNU/Linux para trabajar era cada día menos inverosimil, y de hecho durante toda la década estuvo lleno de entusiastas y militantes utilizándolo para sus tareas cotidianas en lugar de a Windows. Sin embargo, eso era muy condicional, porque mucho software sólo funcionaba con Windows, y lo mismo sucedía también con el hardware cuando los fabricantes no brindaban drivers para Linux (lo cuál era tristemente muy común). Pero la comunidad de GNU/Linux continuaba su trabajo en todos los frentes.

    GNU siempre fué muy diferente a Windows, en muchos aspectos. Pero también fue siempre muy vanguardista en sus ideas. Por ejemplo, todo eso que hoy se llaman “marketplaces” desde donde se instalan “apps” en teléfonos móviles, o lo que hacía Steam mismo de permitir simplemente instalar un software mediante un par de clicks, GNU/Linux lo tenía desde muchos años antes. La modularidad del software en esta comunidad lo llevaba a articularlo en la noción de “paquetes”, que básicamente eran componentes del sistema operativo que une podía instalar o desinstalar, y lo hacía con un simple click en una interfaz. Windows, de hecho, le había copiado esto en su panel de control, en la opción “agregar o quitar programas”: opción que curiosamente nadie parecía usar para “agregar” nunca nada. Pero en GNU une podía fácilmente instalar una suite ofimática, un editor de imágenes, o un editor de audio o video, haciendo un par de clicks, siempre de manera gratuita, y podía ser vía internet o incluso disponiendo de algún medio físico como un CD o DVD. U otro ejemplo podían ser los múltiples escritorios: siendo una abstracción virtual, no había necesidad de que el sistema operativo tuviera un sólo escritorio de trabajo como ofrecía Windows, sino que se podían tener múltiples para diferentes tareas. Todas ideas elementales, pero que el sentido común del mundo de las PCs no discutía por cuestiones culturales. Para el año 2006, en GNU ya habían desarrollado su propia interfaz 3D para el escritorio de trabajo, con un montón de efectos visuales aplicables a las ventanitas y a las interacciones con menúes. Pero una de las joyas de software que habían sabido construir, para esta década comenzaba a volverse muy importante.

    Se trataba de Wine: una capa de compatibilidad entre software de Windows y el sistema operativo GNU. Era un proyecto que venía siendo desarrollado desde 1993, pero por esta década empezó a dar sus frutos: de repente une podía estar usando GNU, hacer doble click en un programa de Windows, y este último simplemente funcionaba. Lo cuál era profundamente inquietante, aunque no de buena manera para Microsoft. Y este, entre muchos otros proyectos bajo el amparo de GNU, daban lugar a que aparecieran múltiples organizaciones intentando que GNU lograra finalmente reemplazar a Windows en muchos espacios de trabajo.

    Una de esas empresas fué Canonical, que por el 2004 lanzaba su primera versión de su propia distribución de GNU/Linux: Ubuntu. Ya existían empresas exitosas como Redhat, o distribuciones populares y bien instaladas en la historia del movimiento como Slackware, pero Ubuntu se destacaba por poner un énfasis en que el sistema fuera fácil de usar y resolviera de manera sencilla problemas que otras distribuciones no resolvían. El slogan era “linux para seres humanos”, y venía a cuento de que GNU/Linux era visto como una cosa sólo para especialistas. Frecuentemente era cierto, en el sentido de que las virtudes de GNU no eran que “simplemente funcionaba”, sino que permitía calibrar detalles imposibles en otros sistemas operativos, incluyendo el propio código fuente del sistema. Pero si bien eso eran grandes virtudes de GNU, la gente por lo general simplemente quería usar su computadora, sin tener que ponerse a aprender mucho qué digamos para ello. Y tímidamente, despacito, sin ninguna gran súbita revolución, a partir del 2004 Ubuntu fué logrando que más y más gente empezara a usar GNU/Linux. Pero también esto impactaba en el mundo empresarial: así como Google arrancó la década promocionando a Mozilla Firefox, también terminó la década utilizando su propia versión de Ubuntu, calibrada de acuerdo a sus propios intereses, llamada “goobuntu”.

    Para finales de la década, el mundo estaba irreconocible una vez más. Arrancó con teléfonos móviles opcionales y de prestaciones humildes, a teléfonos inteligentes casi como única opción de comunicación. Arrancó con un mundo bajo hegemonía neoliberal y una América del Sur pulverizada, para terminar con una China comunista compitiendo por ser primera potencia económica y una América del Sur resistiendo crisis que Europa no resistía. Arrancó con un Microsoft desencadenado con el amparo del gobierno de los Estados Unidos, para terminar con un Microsoft tendiente a la irrelevancia. Yo mismo había arrancado la década con un apego enorme por Microsoft, para terminarla reemplazando Windows por Ubuntu, y dedicarme a hacer que todo mi trabajo pasara a realizarse con GNU/Linux, y mi experiencia era la de muchísima gente en todo el planeta. Era el mundo del revés. Pero todo esto sucedió. Y apenas era el preámbulo de lo que se venía.

    

El imperio contraataca

    Hablamos muy poco de inteligencia artificial en la década del 2000, porque todo lo que sucedió era apenas preparación. Para el 2010 ya había grandes cantidades de datos listos para ser procesados con todo tipo de fines, provenientes desde redes sociales hasta compras online, pasando por búsquedas en internet y hábitos de consumo multimedial. También ya había formas de articular toda esa información de manera ordenada y productiva. También había hardware donde se podía almacenar, por supuesto. También sucedía que la cultura de uso gratuito de internet básicamente retroalimentaba estas mismas estrategias de recopilación masiva de datos ya siquiera como posibilidad de supervivencia de las iniciativas comerciales, y la gente entonces estaba plenamente acostumbrada a compartir sus datos de las formas más permisivas. Lo cuál a su vez muy temprano quedó también afianzado en el nuevo ecosistema de teléfonos móviles con aplicaciones de software, las cuales recopilaban información a veces más valiosa que la que podría recopilarse por otros medios, como ser la posición geográfica de una persona en todo momento. Y por supuesto, para esa altura ya existían las GPUs en todo su esplendor, permitiendo incrementar la capacidad de cómputo a niveles que apenas años atrás hubiera sido absurdo.

    Fué una absoluta explosión. No había una sola área de la praxis humana desde la cual no se planteara explotar los datos en masa para obtener diferentes tipos de información, y de ser posible incluso en tiempo real. Esto de hecho había sido predicho: en el año 2006, el matemático británico Clive Humby acuñó la frase “data is the new oil”, explicando que la recolección de datos era tan valiosa como el petróleo. Sin embargo, la frase de Humby tenía dos sentidos: así como el petróleo, en sí mismo no es tan valioso, sino que su verdadero valor está en el cómo se refina, y los productos finales a los que eso da lugar. Si esa frase era una hipótesis en el 2006, para el 2010 era más bien la regla del juego. Y si estuvieron prestando atención a esta larga historia, seguramente adivinen cómo continua: todo esto generó un nuevo optimismo, y ese optimismo nuevos financiamientos.

    Muchas empresas empezaron a ganar financiamientos absurdamente optimistas a partir del boom de la gestión de datos, y en especial las empresas de publicidad por internet. Nadie sabía muy bien qué había que hacer con los datos, salvo juntarlos. Los “data brokers”, o “vendedores de datos”, se volvieron algo común, y parte del modelo de negocios de las “apps”. Aunque hay que entender un poquito cómo había cambiado el paisaje social para ese entonces.

    En la década del 2000 había juicios contra Napster que salían en primera plana; en el 2010 ya ni siquiera se descargaban archivos mp3: la gente iba a escuchar música a youtube o algún otro sitio dedicado a lo multimedial. No era que el tema de los derechos de autor no siguiera siendo importante, sino que ahora los datos y la publicidad pagaban por ello. Y los muchos avances en los estándares web, así como la marginalización de las tecnologías Microsoft en internet, hacían que todo pudiera funcionar simplemente teniendo un web browser: pero de una manera u otra las empresas misteriosamente instaban a instalar “apps” en teléfonos móviles, para “mejorar la experiencia”, misma razón por la que también parecían necesitar un montón de datos del teléfono y les usuaries. La cuestión es que hacer cosas por internet con el teléfono móvil era la gran novedad para grandes y chiques: ya no llevábamos una guía de bolsillo, sino que usábamos un servicio online de mapas, que hasta empezaban a reemplazar a los aparatos dedicados de GPS; ya no mandábamos a imprimir fotografías, sino que las compartíamos por redes sociales a mansalva; ya no tenían mucho sentido las guías telefónicas teniendo redes sociales y buscadores de internet.

    Para ese entonces ya era normal que las infraestructuras para “servicios web” se le alquilaran a Amazon o a Google, y que el software fuera de hecho “un servicio”: “software as a service” se llamaba eso. Ya no tenías que instalar nada, no necesitabas una gran computadora ni grandes prestaciones computacionales: todo se ejecutaba en un servidor remoto, y entonces con tener internet era suficiente para poder hacer cualquier cosa. Así, muy rápidamente, internet pasó cada vez a estar más y más centralizada en algunas pocas infraestructuras ahora absolutamente vitales: sin ellas, todo ese universo de software funcionando por internet se cae como castillo de naipes.

    Y en este mundo nuevo, el o la emprendedora tenía una sola meta: “la killer app”. Estaba lleno de gente queriendo prenderse a la nueva era de la información haciendo una app, generalmente con un nombre cortito y marketinero, y un logotipo con curvas, probablemente alguna letra modificada o algo así. Empezaron a aparecer miles y miles y miles de iniciativas de todo tipo para aplicar en “apps”. Y si tuviéramos que seleccionar dos campeonas y referentes de esto, ciertamente serían Uber y Tinder.

    Con Uber, de repente no tenías que esperar más un taxi, ni llamarlo por teléfono: pedías un auto apretando un botón en una app, y alguien llegaba hasta donde estabas. Esto podía incluso tener algunas virtudes sobre el taxi, como ser mejores precios o detalles de conductores, o bien alguna integración con servicios de cartografía que mostraran el recorrido y posición actual del vehículo. Y Tinder permitía conseguir sexo: une cargaba sus datos en el sistema de Tinder, y así se exponía públicamente a ser elegide por otres para tener relaciones sexuales, así como también podía une elegir candidates en busca de coincidencias del otro lado. Estas “apps” utilizaban datos de posición geográfica para gestionar diferentes acciones, como ser qué vehículo o qué candidate estaba más cerca de la persona que utilizaba la app. Y esas cosas se hacían populares muy rápidamente.

    Pero pasaban otras cosas también muy rápidamente. De repente empezaban a haber “algoritmos” involucrados. Por ejemplo, Uber muy rápidamente implementó un algoritmo por el cual el precio del viaje variaba minuto a minuto en términos de oferta y demanda de vehículos: y eso se promocionaba como si fuera algo bueno para la sociedad. O bien al revés, la sociedad reaccionaba a cómo se debían crear los perfiles de Tinder: ¿eran para conseguir sexo, para conseguir pareja, o para conseguir compañía? ¿Era negociable eso? ¿Se podía implementar algún algoritmo al respecto? Los algoritmos pasaron a ser sinónimo de “inteligente”, y todas las apps pretendían tener apps inteligentes. Con lo cuál empresas como Uber empezaron a invertir fuerte en “inteligencia artificial”, y en cómo automatizar más y más y más cosas vinculadas al gremio en el que se fundaron. Uber, por ejemplo, también fundó rápidamente una subsidiaria vinculada al reparto de comida, que también utiliza data cartográfica.

    Aunque antes que de esas cosas, Uber es el ejemplo canónico de “plataforma”. Lo que sucedió con algunas de estas apps es que, además de servicios, daban la posibilidad de trabajar. En un principio Uber operó básicamente como cualquier empresa que tuviera conductores a su servicio, pero a los pocos años eso cambió, y de repente permitía a prácticamente cualquiera utilizar su automovil para trabajar como conductor de Uber: era tan sencillo como instalarse la app de conductor de Uber, y luego conectarse. Pero Uber no es un empleador en este caso, sino una “plataforma” que le permite al conductor ganar algo de dinero en su tiempo libre. Muy velozmente esto se transformó en lo que eventualmente fué llamado “gig economy”, o “economía de changas” en español rioplatense, y aplicado por muchas otras apps: en especial las de logística, pero también podía ir desde programar pequeños programas hasta servicios de cuidados de personas. Y tan presente se volvió en las sociedades de la década, que la dependencia económica en estas “apps” recibió el nombre “capitalismo de plataformas”.

    Así como Amazon y Google en la década anterior, ahora empresas como Uber eran prestigiosas, y como parte de su aparato publicitario se la pasaban publicando notas en sus blogs y sitios especializados acerca de cómo funcionaban sus sistemas internos, y cómo lograban resolver problemas de grandes escalas, pretendiendo posicionarse como referentes tecnológicos. Y al caso publicaban partes de su infraestructura de software, a veces incluso como software libre, aunque frecuentemente más bien sólo open source, de modo tal que el ecosistema laboral y empresarial del software adoptara sus tecnologías y prácticas. Entre el emprendedurismo imperante, y los manifestos cambios sociales vinculados a las apps, estas estrategias solían ser bastante exitosas.

    Aunque el podio de esto último se lo llevaban Google y Facebook. Si Google publicaba un estudio que decía que la atención de la gente disminuía drásticamente después de pasados 5 segundos de espera en la carga de una página de internet, entonces súbitamente todas las páginas de internet del mundo requerían cargar en menos de 5 segundos, sin excepción: no importaba el contexto, el fín último del sitio web en cuestión, las personas que lo usaban, nada. La palabra de Google era ley para obreres y empresaries por igual, que con enorme entusiasmo y por voluntad propia se adecuaban. Si Facebook decía que tal o cuál forma de programar sitios web era mejor, entonces había que implementar esa estrategia de ingeniería, porque seguramente era cierto. Las justificaciones para estas cosas eran casi siempre metafísicas e incomprobables: “mejor experiencia de usuario”, “el código es más fácil de leer”, y cosas por el estilo. Y estuvieron toda la década haciendo cosas de esas.

    Para finales de la década, prácticamente toda persona que aprendía a programar para hacer algo con internet, aprendía primero que nada cómo programar para Google o para Facebook. Les empresaries querían que sus productos se parecieran a los de las empresas exitosas, y les programadores querían programar apps y estar a la vanguardia del conocimiento, en parte para conseguir trabajo, y en parte por legítimo y optimista interés en las propuestas. En la informática que nos dió el neoliberalismo, las empresas ya no eran una organización económica, sino también hacían las veces de referencia política y filosófica a nivel gremial. En el caso del software, el vector de esto eran los frameworks de lenguajes de programación, y las metodologías de trabajo, ambas cosas frecuentemente acopladas. Y, de hecho, frecuentemente inventaban sus propios dialectos de lenguajes de programación, al mejor estilo Microsoft, y con las mismas hipotéticas virtudes: “más rápido”, “más seguro”, “más fácil”. Siempre que se objetara contra estas prácticas, la respuesta unánime solía ser “nunca trabajaste en una empresa grande”, insinuando que las tecnologías propuestas eran la condición de posibilidad de crecimiento de un proyecto, y que de hecho la organización o ausencia de la misma en un equipo de trabajo estaba determinado por el lenguaje de programación o el framework que se utilizara. Mi generación ya había combatido esas cosas hacía años, pero la gente más jóven tenía que vérselas con esto desde cero, en un mundo donde la organización política casi que no existía.

    Pero existía. En internet, el campeón político era Mozilla, que en la década anterior había logrado un triunfo espectacular y heróico contra Internet Explorer, y en esta década ya era un referente tecnológico para la web. Aunque hacia finales de la década del 2000, Google finalmente dejó de recomendar Firefox para pasar a hacer su propio web browser: Google Chrome, o simplemente Chrome. Y Chrome no era particularmente mejor que Firefox, pero sí era más rápido en algunas funciones, como ser la carga o las animaciones. Además, Google hizo algo muy inteligente por aquel entonces: siendo los móviles el horizonte, y habiendo Apple lanzado el iPhone como referencia, Google basó a Chrome en el código de Safari, el web browser de Apple. De esa manera, el browser tanto de iOS como de Android tenía una base de código compartida, y pasaba a ser un piso de funcionalidades garantizadas. Aunque esto no dejaba bien parado a Firefox, que aguantó una década en Windows pero ahora debía luchar también en teléfonos móviles que venían con su propio browser instalado. Firefox seguía siendo el browser por excelencia en GNU/Linux, pero la base de usuarios de ese sistema no superaba un 2% del mundo de la computación hogareña.

    Pero Mozilla era ante todo una organización política. Mientras Google Chrome caminaba hacia ser el nuevo Internet Explorer de la mano de Android, Mozilla planteó un camino alternativo al mundo: un sistema operativo que sea, directamente, el web browser. El plan era muy sencillo: dado que a esa altura se podía hacer casi cualquier cosa con una página web, el sistema operativo en realidad lo único que necesitaba como interfaz gráfica era un web browser. Eso requería en rigor algunos detalles, como ser la gestión de permisos que las “apps” ya proveían en Android y en iOS. Pero el plan de Mozilla al caso era simplemente extender los estándares web, de modo tal que los browsers implementen esos detalles, y así tanto el browser del sistema operativo como cualquier otro tuvieran posibilidad de paridad de funcionalidades. El espíritu de Mozilla no era competir, sino interoperar. Y la parte más revolucionaria sería la siguiente: para hacer “apps” en ese sistema operativo, simplemente había que hacer una página web, de esas que decenas de millones de personas ya sabíamos hacer, y que cualquiera podía aprender a hacer simplemente con tiempo libre en una computadora. Las páginas web pasarían a tener el status oficial de “programas”.

    El plan de Mozilla era una contracultura a lo que estaba sucediendo en Android e iOS. Y para ello, debía entrar en el mismo entorno: los teléfonos móviles. De modo que desarrolló su propio sistema operativo, al que llamó “Firefox OS”, y al caso mandó también a diseñar teléfonos que salieran a la venta con ese sistema. Y, fiel a la idea de contracultura, en lugar de diseñar teléfonos de alta gama con las más altas prestaciones, Mozilla se concentró en el menor denominador: teléfonos baratos, de prestaciones humildes, pero que así y todo fueran suficiente para correr su sistema.

    Para ese entonces, el ecosistema de software en general ya tenía unos cuantos problemas. En primer lugar, tanto en computadoras como en teléfonos móviles, el software era cada vez más pesado, lento, y exigente en sus prestaciones de hardware. Esto, en los teléfonos móviles, y en las computadoras portátiles también, solía significar frecuentes cambios de hardware. Era una cosa que había comenzado en la década anterior, y sólo seguía incrementándose. Tan normal era el fenómeno, que a todas luces podían incluso verse acciones de este tipo articuladas adrede. La práctica tomó el nombre despectivo de “obsolescencia programada”. Y esto se vivía especialmente en el soporte que Google y Apple daban a sus sistemas operativos: más temprano que tarde, un dispositivo ya no podría tener acceso a actualizaciones de software, y las “apps” empezarían lentamente a dejar de funcionar.

    Mozilla pretendía combatir esas cosas también, haciendo que su sistema fuera software libre, y que compartiera la arquitectura de booteo con Android, de modo tal que FirefoxOS pudiera eventualmente instalarse en teléfonos que antes hubieran tenido Android y no recibieran más actualizaciones. Y como el soporte web es siempre incremental en los browsers, FirefoxOS podría estar siempre actualizado, permitiendo así que las apps tuvieran mucho más tiempo de vida útil en un mismo teléfono. Y como si fuera poco, al ser estas “apps” páginas web, de repente todas las apps pasarían también a funcionar en GNU/Linux.

    Yo mismo tuve oportunidad de ver a mis pares programadores burlándose de la iniciativa de Mozilla, por razones que aparentemente no necesitaban justificar: sencillamente iba en otra dirección a lo que proponían Google y Facebook para la web, y Google y Apple para los teléfonos móviles. La gente en mi gremio abrazaba lo que decían las empresas exitosas y con mucha prensa. Lo que hacía gente como la de Mozilla no era visto más que como un experimento o un error: pero nunca era ese el juicio para lo que hacía Google, que siempre era visto como algo iluminado y basado en un profundo conocimiento. Hoy existen sitios web que literalmente se burlan de la cantidad de proyectos fallidos que tiene Google, que como buena empresa grande de tecnología se pasó los últimos 20 años anunciando inminentes fracasos como si fueran éxitos desde el día cero y un evento cultural de trascendencia. En cualquier caso, Firefox OS fué un fracaso a los pocos años, y Mozilla nunca logró recuperarse de una iniciativa tan ambiciosa como esa.

    No fué la única, porque Mozilla tampoco era la única organización que pretendía dar una batalla cultural en el mundo de la tecnolgía. Por la misma época, Canonical decidió hacer su propia interfaz gráfica de escritorio para GNU/Linux. Sería una interfaz diseñada por ellos y bajo su control, a diferencia de las diferentes otras opciones populares disponibles, como KDE o Gnome. Fué un momento histórico de muchos conflictos al respecto, porque todos estos proyectos aplicaron cambios muy radicales en sus interfaces de escritorio, y eso generó discordia entre les usuaries y programadores. Pero Canonical iba más allá, directamente haciendo su propia interfaz nueva. Sin embargo, esta interfaz tenía una particularidad muy especial. El objetivo de Canonical era que su interfaz fuera compatible con otros dispositivos que no fueran computadoras de escritorio: es decir, tablets y teléfonos móviles. Y, de hecho, Canonical estimulaba la concepción de esos otros dispositivos como sencillamente computadoras. El plan de Canonical era llevar Ubuntu también a esos dispositivos. Y una vez que estuvieran corriendo Ubuntu, que era una versión de GNU/Linux, alcanzaba simplemente con agregarles un monitor y algunos periféricos (como teclado y mouse) para convertirlos en una computadora portatil, cuando no directamente de bolsillo. Esta computadora podría correr todo el software que ya podía correr GNU/Linux, además de por supuesto tener web browser.

    Esa interfaz de usuario se llamaría Unity, y la lanzó con su versión de Ubuntu del 2012. Pero al concepto de una interfaz de usuario para cualquier dispositivo lo llamó Convergencia, y al caso necesitaba lo mismo que había necesitado antes Mozilla: entrar en esos mercados. Para lo cuál Canonical también mandó a diseñar su propio teléfono, “Ubuntu Edge”, y un sistema operativo acorde, al que llamó “Ubuntu Touch”.

    A diferencia de Mozilla, Ubuntu Touch aspiraba a ser utilizado en hardware de gama media o alta, y de hecho Ubuntu Edge pretendía ser de alta gama. Para financiarlo, abrió una colecta comunitaria por internet, donde pretendió recaudar la irrisoria cifra de 32 millones de dólares. “Sólo” logró reacudar 12 millones, con lo cuál el Ubuntu Edge nunca salió a producción. Pero sí salió a la calle “Ubuntu Touch”, la versión móvil de Ubuntu para que diferentes fabricantes pudieran brindarlo como alternativa a Android en sus dispositivos.

    Unity fue criticado con muchísima virulencia dentro de las comunidades de GNU/Linux, y Ubuntu Touch nunca captó el interés de grandes mercados, ni siquiera bajo la propuesta de Convergencia y de llevar una computadora en el bolsillo. Ambos proyectos fueron eventualmente cancelados, y Canonical tampoco volvió a ser la misma empresa luego de este fracaso.

    Si me preguntan a mí, tanto Mozilla como Canonical estaban en lo correcto, excepto en apostar a que contaban con una comunidad que les dió finalmente la espalda. Y esa comunidad estaba mayormente representada por la Free Software Foundation, la cual sí realmente se equivocó en esta década. Mientras todas estas cosas sucedían con organizaciones amigas del software libre en el mundo de la telefonía móvil, Richard Stallman se comportaba como si los móviles fueran una especie de moda pasajera, un aparato innecesario y del mal, cuyo único fín era ser una herramienta de control por vías de la recopilación de datos. La recopilación de datos es lesiva para las libertades de les usuaries, según Stallman y otres, y lo es muy especialmente de cara a su anonimato. Y mientras las referencias del Software Libre miraban con desprecio a los teléfonos móviles, la comunidad GNU/Linux vivía sus propias discordias entre diferentes proyectos, e incluso dentro de cada proyecto cuando se trataba de la dirección que debían tomar. El 2012 fué un año de profundos conflictos entre interfaces de usuario, modos de gobernanza, estrategias de diseño de software, sospecha de entrismo por parte de Microsoft u otras empresas, gente nueva versus gente más vieja, y tantas otras cuestiones que convirtieron al ecosistema del software libre en un caos. Aunque el progreso de GNU en los servers era sólido e incuestionable, así como también el decline de Microsoft.

    Pero muchos de esos problemas eran básicamente clima de época, y no tanto mala ni buena gestión por parte de las comunidades del software libre. Por ejemplo, Microsoft mismo padeció muchos de los mismos problemas, especialmente en su intento de paso por el mundo de la telefonía móvil y los cambios de interfaz de usuario. El gran testimonio al respecto fué su absoluto fracaso con Windows 8, que imponía una interfaz de usuario diferente a la clásica de Windows, más orientada hacia móviles: lo mismo que estaban haciendo Gnome o Canonical en el mundo GNU. Fué un escándalo entre les usuaries de Windows, y Microsoft pronto debió lanzar una versión actualizada que permitiera volver a interfaces de usuario clásicas. La consecuencia fue que la gente simplemente no actualizó Windows 7. Cualquiera fuera el caso, ese salto de la computadora de escritorio al teléfono inteligente evidentemente no era una cosa sencilla para la gente que, o hacía software, o usaba software.

    Pero más allá de los problemas reales, Microsoft siguió inventando problemas en su intento por mantener su monopolio decadente. Por ejemplo, como parte de su homologación de hardware “compatible con Windows” empezó a exigir “booteo seguro” a los fabricantes de componentes de computadoras, lo cuál exigía una gestión de claves de seguridad que debían ser instaladas al momento de fabricación, y que sin ellas no se debía permitir bootear. Microsoft iba a proveer esta claves para que prender la computadora con Windows fuera posible, pero eso excluiría cualquier intento por instalar GNU/Linux (o otro sistema) en la computadora si no se proveyeran también claves de seguridad para ese otro sistema. O bien intentar establecer un sistema de “tienda de software”, al estilo Apple o Android, que le permitiera a Microsoft controlar homologar también el ecosistema de software directamente: algo hasta esa fecha impensado en el mundo Windows.

    Pero en esta década cosas como esas llevaban a consecuencias inusitadas. Gabe Newell de repente dijo, explícitamente, que “Windows 8 es una catástrofe para el mundo de los videojuegos en computadora”, y que sus planes para Valve era llevar los videojuegos a GNU/Linux, porque allí estaba el verdadero futuro de la computación abierta. “Linux gaming”, antes de eso, generaba burla entre la comunidad de videojugadores. Yo mismo jugaba videojuegos en GNU/Linux desde por lo menos el año 2008, utilizando Wine, pero eso era una absoluta rareza entre los jugadores, quienes eran más bien conservadores en cuando su setup de software: pretendían siempre versiones viejas de sistemas operativos, precisamente para no tener sorpresas negativas en cuanto al rendimiento de su computadora o nuevos requisitos de uso. Y esto tampoco era una cuestión de costos, porque en lugares como América del Sur el software privativo (como los son los sistemas operativos Microsoft, o los propios video juegos) era mayormente pirateado. Lo que sucedía era que los gamers sencillamente no cambiaban de sistema operativo si tenían oportunidad de seguir utilizando el que ya estaban acostumbrades a utilizar.

    Pero la aventura de Valve lo llevó a invertir mucho en investigación y desarrollo para hacer funcionar la batería de tecnologías vinculadas a videojuegos sobre GNU/Linux. Por ejemplo, mientras estudiaban cómo covertir el código de sus juegos desde Windows hacia GNU/Linux, estudiaban también detalles de los drivers para dispositivos de nVidia, lo cuál luego reportaban a nVidia mismo, y esto derivaba en mejores versiones de sus drivers y mayor soporte para GNU/Linux en general. Para el año 2012 ya había una versión de Steam para GNU/Linux, y Valve hasta trabajaba en su propia distribución de GNU/Linux especialmente diseñada para jugar videojuegos.

    Las reacciones a las prácticas anticompetitivas de Microsoft ya eran demasiado peligrosas para la empresa, que había perdido el dominio de los navegadores y servidores de internet, no había logrado nunca entrar en el mundo de la telefonía móvil con contundencia, no tenía injerencia fuerte en el nuevo mercado de la recolección de datos, las tareas de su suite ofimática ahora se realizaban vía web y de manera colaborativa en tiempo real (poniendo en jaque a uno de sus principales productos, Microsoft Office), los programas de escritorio daban lugar a aplicaciones web que corrían sobre servidores GNU o bien a aplicaciones de Android o iOS, todas cosas que atentaban contra el uso de Visual Studio, y ahora finalmente estaba en el horizonte el serio e inminente peligro de también perder dominio sobre el ecosistema de los videojuegos: uno de los pocos mercados que todavía mantenía. Y esto no era algo que dejaban de ver usuaries y obreres de la informática tampoco: el prestigio de Microsoft iba en picada, no por fracasar económicamente sino por la paupérrima calidad de sus productos y sus prácticas a esta altura conocida por todes. Ese cambio de paradigma hacia programar web, mayormente influida por empresas como Google o Facebook o Twitter, había hecho que hasta la gente de diseño gráfico terminara usando herramientas de consola en computadoras portátiles Apple, haciéndoles ahora preferir GNU por sobre Windows si acaso tuvieran a disposición las herramientas de trabajo adecuadas. Todo esto era una absoluta alerta roja para Microsoft, y su respuesta no se hizo esperar.

    Una de las tantas maniobras anticompetitivas de Microsoft era el entrismo. A fuerza de mucha publicidad, dinero invertido en proyectos de otras empresas, y promesas de cambio en sus actitudes, históricamente se la pasó metiendo gente propia en lugares clave de las organizaciones capaces de hacerle frente: directives, líderes de equipo, consultorías, etcétera. Y en esta década de tantos problemas, finalmente reevaluó su actitud pública para con su competencia, y comenzó una serie de campañas con otro tono, donde la más pintorezca era el slogan “Microsoft ama a Linux”. Para el año 2015 dió por muerto a Internet Explorer, dando lugar al final de una era de Internet, y reemplazándolo por otro browser propio: “Microsoft Edge”, que era sencillamente otro internet explorer, pero pronto pasaría a utilizar como base de código la misma que utiliza Google Chrome. Tanto para poder acceder al mundo móvil, como también para tener mayor injerencia en Europa, Microsoft firmo contratos de “compañerismo” con Nokia, una empresa lider en electrónica, y especialmente en el diseño y fabricación de teléfonos móviles, los cuales ahora pasarían a salir a la calle con Windows Mobile. Pero lo más notablemente novedoso pasaron a ser sus importante donaciones a la Fundación Linux, donde se convirtió en un “miembro platino”, y a la entonces ya necesitada Canonical.

    Pero además de meterse en las organizaciones, comenzó una agresiva campaña para meterse en el ecosistema de herramientas para programación, así como también en proyectos de software clave dentro de entornos GNU/Linux. Algunos de los proyectos que más discordia generaban en el ecosistema GNU/Linux, como ser Mono o Systemd, frecuentemente estaban a cargo de personas con comportamientos polémicos que pasados unos años terminaban trabajando formalmente para Microsoft. Herramientas para programar web hechas por Google o Facebook, como pueden serlo Angular o React, de repente empezaban a instar el uso de Typescript: un dialecto de javascript hecho por Microsoft, que pocos años atrás generaba burla por ser otro enorme fracaso frente a sus alternativas (CoffeScript), y más tarde pasara a la absoluta irrelevancia dadas las muchas mejoras de Javascript, pero que de repente era una especie de imperativo de la programación web y sin mayor explicación. Aunque la más estruendosa acción en este sentido fué sin dudas la compra de Github: el sitio web gratuito que centralizaba una enorme parte de la gestión de código fuente de software del mundo open source y libre. Más tarde también compraría npm, una de las herramientas estandar de facto para trabajar con javascript en los servidores, dándole todavía más control sobre ese ecosistema.

    Y todo esto fué acompañado con una puesta en escena publicitaria que, para ser franco, la viví con más gracia e incredulidad que con preocupación. En medio de su campaña “Microsoft ama a Linux”, y queriendo propocionarse como habiendo dando un giro hacia el software “open source”, Microsoft anunció que lanzaría a la calle “el código de Visual Studio”. Esto sería ciertamente un enorme cambio ideológico dentro de Microsoft, porque Visual Studio era una de sus herramientas más complejas y poderosas, y llevaba 20 años sin permitir que de ninguna manera nadie viera el código. Sin embargo, lo que sucedió luego fué que Microsoft lanzó una versión modificada de un popular editor de texto que funcionaba con tecnologías web, y lo llamó “Visual Studio Code”, o “Visual Studio Código”: ese era el famoso “código de Visial Studio” que había anunciado antes. Muches vimos esto con gran vergüenza ajena, y nos burlábamos de la iniciativa. Pero muy pronto en el tiempo, este editor gratuito de Microsoft se convertiría en otro estandar de facto entre programadores y programadoras que ya no habían vivido la guerra de los browsers, ni lo que significaba que Microsoft controlara a la industria toda, sino que se criaron en un mundo de estándares e interoperabilidad que ya daban por elemental.

    Con github y visual studio code, además de sus otras iniciativas, Microsoft una vez más ejecutaba aquella movida que le diera nacimiento en primer lugar: aprovecharse de una plataforma abierta (en este caso la web, incluidas las tecnologías detrás de Visual Studio Code), para poder centralizar la cultura en sus productos. En un par de años, medio planeta pasó a utilizar herramientas de Microsoft (visual studio code) para programar en lenguajes de Microsoft (typescript) y guardar todo eso en servidores de Microsoft (github): todo sin que Microsoft debiera andar inventando nada, sino sencillamente explotando su capacidad de compra sobre las libertades que aquellos espacios brindaban. Y así, la década de vergüenza de Microsoft dió lugar a otra década de promesa. Mientras que les obreres de la informática, siempre influenciades por una avalancha de titulares y entradas en blogs técnicos, analizaron estas herramientas sin criterios políticos ni históricos, sino con expresiones del tipo “está bueno” o “es cómodo”.

    Pero ya no estamos en la década de 1980 o 1990, y en estos tiempos el mercado pasa por los datos. Github pasó a ser un gigantezco centro de inteligencia de datos centralizados para Microsoft. Y así como en décadas anteriores Google usaba la web con herramientas como reCaptcha para hacer estudios de comportamiento humano, ahora Visual Studio Code pasaba a ser la herramienta de Microsoft para hacer la misma clase de experimentos. Por lejos, el experimento más notorio, que se pretendiera también un futuro “servicio” de Microsoft, fué “copilot”: un sistema que sugiere código en tiempo real mientras se está programando. Es decir que ahora les programadores podrían aceptar sugerencias de código, hechas con inteligencia artificial. Esta inteligencia artificial estaría basada en todo el código que GitHub tiene centralizado. Y la manera en la que popularmente sería utilizado iba a ser vía Visual Studio Code. Lo cuál también fué, primero planteado en publicidad, y luego visto como, una comodidad y un avance en la disciplina de la programación antes que como cualquier forma de centralización por parte de Microsoft.

    Para ese momento en la historia, la inteligencia artificial ya estaba viviendo una revolución para nada silenciosa. Con el hardware nVidia en el corazón de la iniciativa, la década pasada había comenzado renovados financiamientos en investigación y desarrollo al caso de nuevas técnicas y teorías aplicables a la inteligencia artificial, así como viejas teorías que ahora podían ponerse a trabajar con una nueva generación de hardware. Y esta vez se trataban de una nueva iteración de redes neuronales, bajo el área de estudios y técnicas llamadas “Machine Learning”: el área de la inteligencia artificial que estudia cómo hacer que las máquinas aprendan cosas. Sucede que el caso típico de Machine Learning es tomar un conjunto de datos y encontrar allí patrones. Y para la década del 2010, ya estaba lleno de grandes y maduras colecciones de datos, listas para ser analizadas.

    A la actividad de juntar datos para analizarlos se la llamó “data mining”, o “minería de datos”. Usualmente esto consiste en juntar todos los datos que fuera posible manejar, para luego intentar sobre ello encontrar conocimiento nuevo: patrones de comportamiento, relaciones útiles entre datos previamente no relacionados, o por qué no proyecciones predictivas sobre posibles valores futuros de algunos indicadores. Y esto por supuesto prometía abrir muchas puertas, y ser utilizado en cualquier ámbito. Un ejemplo pintorezco puede ser cuando alguna compañía aseguradora de autos comenzó a crobrarle más caro a clientes que tuvieran una cuenta de correo en el servidor “hotmail.com”, dado que esas cuentas estaban vinculadas a gente involucrada en más accidentes que otras. Esa clase de vínculos entre datos pueden ser descubieros por cualquier persona curioseando una tabla con datos de gente involucrada en accidentes, pero a medida que esos datos se vuelven más y más heterogeneos se vuelve también más difícil plantearlos en alguna tabla, y eso sin mencionar la cantidad de datos. Es allí donde se busca que, mediante software, se analicen los datos y se obtengan relaciones. Y si esa clase de software existe, entonces juntar datos pasa a tener mucho valor, al menos para los optimismos que imaginen ganancias y optimizaciones en el descubrimiento de relaciones de datos.

    Machine learning, sin embargo, es algo así como la otra cara de la moneda del data mining. Donde data mining se supone encuentre conocimiento desconocido, machine learning se supone aprenda conocimiento previamente conocido, de modo tal que se puedan automatizar tareas que ya se saben hacer. Por ejemplo, aquel producto de Microsoft, Copilot. La gente que programa realiza una serie de tareas, si bien amplia, en rigor finita, especialmente cuando se la vincula a un contexto particular: como ser un lenguaje de programación, o una tarea concreta que se pretende plasmar en código. El producto de esas tareas es el código ya escrito. Y teniendo una base de datos de código ya escrito (como por ejemplo todo el código guardado en github), aplicando técnicas de machine learning sobre eso, se puede predecir luego cuál puede ser el resultado en código de una tarea que esté realizando alguien que programa.

    En la jerga de Machine Learning, se habla de “modelos”. Son el resultado del trabajo del software de aprendizaje. Un modelo de machine learning pasa a ser una base de datos de relaciones, que se supone implementan comportamientos planteados en una colecciones de datos previos, aunque esta vez generalizados de modo tal que permita replicar esos comportamientos frente a datos diferentes. Es decir, siguiendo con la metáfora: si un software “aprendió”, entonces luego va a “saber hacer” aquello que se le pide que haga, incluso con algunos cambios de contexto. Y esto es básicamente la manera que tenemos las personas de vivir el “saber hacer”.

    Ambos, machine learning y data mining, se pueden utilizar de manera solidaria. Y eso fué lo que se hizo y hace con los datos que compartimos por internet. Pero un caso particular de machine learning se llamó “deep learning”, o “aprendizaje profundo”, donde esa profundidad tiene qué ver con una cuestión técnica de cómo se articulan las redes neuronales, e históricamente resultaba muy costoso en términos computacionales: lo cuál cambió con el advenimiento de las GPUs, y por ello se habla de que alrededor del 2009 sucedió un “big bang” del deep learning. De la mano de nVidia y deep learning, los usos de machine learning empezaron a crecer en magnitud, interés, velocidad, ambición, y todo esto dió lugar a financiamientos multimillonarios en el área, a su vez retroalimentando el financiamiento también de una internet al mismo tiempo gigantezca y mayormente de uso gratuito. Donde antes reCaptcha estudiaba el comportamiento humano, y le permitía a Google recopilar datos de entrenamiento para machine learning aplicado al reconocimiento de caracteres de texto, hoy se pide a la gente en sitios web gratuitos que, para demostrar que no es un robot, identifique fotografías con diferentes cosas: semáforos, sendas peatonales, chimeneas, puentes, escaleras, y muchas otras cosas. Luego, eso forma bases de datos que alimentan a la industria de la inteligencia artificial aplicada a automóviles inteligentes (semáforos o sendas peatonales), envío de paquetes a domicilio mediante drones (chimeneas, puentes, escaleras), y en esa aventura el cielo es el límite.

    Para mediados de la década del 2010, era evidente que la inteligencia artificial dejó de ser ninguna fantasía, y ya empezaban los serios planteos éticos al respecto de su uso, así como otros fenómenos inquietantes. Un ejemplo claro eran los llamados “deepfakes”: una mezcla entre “deep learning” y “fake”. Esa última palabra significa en español “falso”, en el sentido de fabricado malintencionadamente: como es el caso de “fake news” para el español “noticias falsas”. Pero los deepfakes son una aplicación de técnicas de deep learning para aplicar caras o voces de personas en videos o audios donde esa persona no participa. Por ejemplo, estas tecnologías se utilizaron durante la década para que actores ya fallecidos aparecieran en películas nuevas, como fuera el caso de nuevas iteraciones de Star Wars donde aparecen personajes de las películas originales. O bien se utilizan para rejuvenecer a actores o actrices ya entrades en los setenta u ochenta años, mostrándoles en escenas nuevas luciendo como lucían hace décadas atrás. Es decir que la inteligencia artificial seguía siendo utilizada en el terreno de los efectos especiales de la industria cinematográfica. Sin embargo, ahora el hardware era mucho más accesible, y entonces esa misma tecnología podía ser utilizada por actores malintencionados en cualquier lugar del planeta. El caso típico de deepfakes fué poner caras de otras personas en videos pornográficos, usualmente utilizando la cara de figuras populares. Aunque también se utilizaron deepfakes de audio, simulando la voz de otras personas, para realizar estafas telefónicas. Y esas cosas ya no eran ningún entretenimiento.

    Siguiendo con el ejemplo del deepfake como problema, para poder hacer deepfakes es necesario crear modelos de machine learning con datos representativos del comportamiento de las personas a las que se pretende emular. En el caso de figuras populares, es fácil encontrar videos y fotografías en cantidades suficientes para poder lograr modelos convincentes, así como también grabaciones de voz. Esto fué el caso con una demostración que hicieran una vez por televisión, a modo de divulgación y llamado de atención a la sociedad, donde mostraban cómo podían hacer un deepfake convincente del entonces presidente de los Estados Unidos Barack Obama, hablando a la cámara y diciendo un discurso, sin participación directa de Barack Obama. No era solamente la indignidad de poder aparecer en un video pornográfico apócrifo, o el problema de poder ser estafade, sino que además era muy fácil engañar a mucha gente mediante el uso de videos o audios forjados distribuidos por redes sociales u otros medios de comunicación. Y, además, era también preocupante cómo la propia gente compartía de manera activa e incesante fotos y fotos y más fotos por las redes sociales, dando lugar a bases de datos biométricas como nunca han existido en al historia de la humanidad. Bases de datos que por supuesto las empresas de redes sociales pretendían explotar, como fué el caso cuando Facebook publicó el “10 year challenge”, o “desafío de los 10 años”, pidiéndole a usuaries que identifiquen una fotografía de su cara actual, y una de su cara 10 años antes.

    En ese contexto fué que se creó Open AI en el año 2015. “Open” venía de toda la historia de “open platform” y “open source” a las que la cultura de la informática habían sabido dar lugar, y aquí venía al caso de que ningún actor monopolizador pudiera apropiarse de las prácticas y tecnologías vinculadas a la inteligencia artificial. O al menos esa fué la justificación. Como fuera, esa organización fue fundada por algunas figuras prominentes de la industria, informática y no tanto, para poder interactuar libremente entre empresas y espacios académicos vinculados a la inteligencia artificial, con especial énfasis en hacer que las patentes allí generadas pudieran ser de uso público. Aunque también pretendía ser un espacio que concentrara financiamiento, y con ello también al exótico y carísimo personal calificado para realizar investigaciones en inteligencia artificial. Más allá de los resultados, ya estaba claro en el 2015 que la inteligencia artificial era un peligro, y que su desarrollo no podía dejarse al arbitrío de algunas pocas manos, o cabezas.

    Pero todo eso era apenas la punta del ovillo de lo que estaba sucediendo con la inteligencia artificial. Después de la gran crisis financiera del 2008, en casi todo el planeta acaeció una crisis económica que dejó en quiebra a múltiples paises, y restringió el crecimiento de casi todos. Esto fué particularmente intenso en Grecia, que a su vez tuvo un impacto en toda la eurozona, que a su vez lidiaba con olas migratorias provenientes de las guerras que Estados Unidos y sus satélites llevaban a cabo en oriente, así como también diferentes guerras civiles. Y las respuestas no se iban a hacer esperar.

    Primero aparecieron las bitcons: como planteo en el 2008, y como un hecho en el 2009. Y si bien al principio sólo se utilizaron para tráfico y mercado negro, con el paso de los años comenzaron a ganar popularidad y usabilidad, haciendo que muches presten atención a ese extraño caso de uso nuevo de internet. Y para 2011 sucedían eventos como Occuppy Wall Street o la primavera árabe, donde internet volvía a verse positivamente como un espacio posible de militancia y liberación popular, esta vez explotando la viralidad en las redes sociales. Pero muy rápidamente ese optimismo fué reemplazado más bien por ataques de pánico. No sólo las bitcoins eran escandalosamente inestables, sino que requerían cada vez más capacidad de cómputo para poder ser generadas, llevando a la creación de datacenters enteros llenos de GPUs y dedicados a la generación de criptomonedas: afectando los precios de las GPUs, centralizando las estructuras, haciendo que cada vez menos gente pudiera generar bitcoins, y gastanto cantidades absolutamente demenciales de energía para el caso, todo bajo la justificación neoliberal de que si no lo controlaba el estado entonces era algo libre y bueno. Y también temprano en la década, mucho más que cualquier forma de izquierda, comenzaron a aparecer movimientos de lo que parecía ser una derecha carismática y bastante productiva en el uso de recursos de internet, que se planteaba como una forma de resistencia liberadora a la opresión de la corrección política: la llamada “alt-right”. Si a esto le agregamos la emergencia del capitalismo de plataformas, los recuerdos de aquel temprano optimismo se vuelven más, y más, y más lejanos.

    2010 no fué solamente la década en la que Microsoft volvió a las andadas con fuerzas renovadas. En esa década, la derecha logró utilizar internet de diversas maneras para volver a posicionarse como una alternativa popular a las profundas crísis económicas y políticas del momento. Pero fue notoria la homogeneidad con la que la derecha logró establecer centralidad en múltiples culturas alrededor de todo el planeta, utilizando métodos similares: si no novedosos, al menos sí en su escala, y especialmente en su coordinación. De repente era normal que cosas en otros tiempos graciosas, como la idea del terraplanismo, en esta década se convertía en un espacio de pensamiento “alternativo”. Cosas similares pasaron con movimientos antivacunas, abiertas reivindicaciones de ideas superadas como el imperialismo o la esclavitud, la reinstalación de los racismos y las xenofobias como explicación a los problemas del momento histórico, directas teorías conspirativas francamente delirantes, o bien incluso la total negación de información que atentara contra los propios sistemas de creencias.

    Ya se hablaba hacía cierto tiempo de “posverdad”, vinculado a problemas epistemológicos que aparecían a partir del uso de medios masivos de comunicación como los diarios impresos o la televisión, pero en la década del 2010 se volvió una de las variables de análisis político centrales de la mano del fenómeno de las “fake news”. En mi región, además, los medios de comunicación operaron como brazo de una estrategia de acción política unificada que rememoraba al Plan Condor cuando se comparaba la similitud entre diferentes paises, aunque esta vez no se trataban de golpes de estado cívico-militares sino golpes políticos mediático-jurídicos: “lawfare”, o “el uso de la ley como arma de guerra” de acuerdo al ya retirado Coronel Dunlap del Ejército de los Estados Unidos, quien acuñara el término en un paper del año 2001. De repente, en mi región, todes les líderes en oposición explícita a la subordinación a los Estados Unidos, era acusade de alguna forma de corrupción: a veces robar dinero público, a veces tener alguna propiedad no declarada, a veces hasta tener un hijo o hija ilegítimos. Las acusaciones eran similares entre paises. Cualquier mentira era causante de un escándalo mediático y judicial. Cuentas bancarias inexistentes, supuestos delitos sin ninguna evidencia, actos de gobierno planteados como actos criminales, todas cosas que aparecían en toneladas de titulares y eran repetidas hasta el cansancio en redes sociales, se instalaban como sentido común entre personas de todas las edades: mientras que las refutaciones rara vez tenían difusión alguna, o bien las mismas acusaciones contra funcionaries o referentes de otros espacios políticos acusades de las mismas cosas misteriosamente no causaba ningún escándalo y era rápidamente olvidado.

    Aunque nada de esto fue exclusivo de mi región, ni mucho menos. Y sin lugar a dudas, la figura más prominente de todo este fenómeno político mundial de “nueva derecha”, fué la de Donald Trump, que terminó siendo electo presidente de los Estados Unidos en 2017. Hubo muchos representantes de “nuevas derechas” en todo el mundo durante esta década, y donde la parte “nueva” era una extrañamente coincidente desinhibición internacional con respecto a las ideas que expresaban. De repente Trump podía tener gestos clara y profundamente misóginos frente a las cámaras, en un mundo donde el feminismo y los derechos de las mujeres ya eran un tema reconocido y central, pero así y todo no sólo no generar el rechazo de sus votantes sino más bien obteniendo mayor reconocimiento. Estas “nuevas derechas” parecían estimular sentimientos reaccionarios reprimidos al encarnar comportamientos políticamente incorrectos, logrando así la representación de sujetos políticos anterioremente carentes de representación. Cosas similares a las de Trump hacían gente como Boris Johnson, Jair Bolsonaro, Mauricio Macri, José Antonio Kast, y tantos otros. Y hacia el final de la década, ya no eran “nueva derecha”, sino más bien “extrema derecha”, y el debate en torno a todo esto era si correspondía o no llamarlos “fascistas”.

    Si bien estas derechas que coparon la década del 2010 no tenían muchas ideas nuevas qué digamos, sino más bien todo lo contrario, en rigor tampoco fueron ajenas a su época. Fueron muy hábiles en explotar los recursos de las redes sociales, en conjunto a recursos clásicos como los canales de televisión pero ahora en su relación con los tiempos de internet, y por esa vía lograron altos niveles de polarización por todo el planeta. Y en buena medida esto estuvo alimentado por todas las técnicas de big data y data mining, ya absolutamente establecidas para ese momento, aunque casi en su totalidad en el ámbito privado. Les usuaries de redes sociales pueden no darse cuenta, pero todos esos datos que comparten a diario en realidad están también a la venta bajo diferentes formas de consumo, para las empresas que así los requieran, y que cuenten con la posibilidad de pagarlo. Y, pregunta para la clase: ¿quienes creen que tienen mejor financiamiento? ¿las izquierdas, o las derechas? Todas esas técnicas de microsegmentación de publicidades que mantenían a Google o a Facebook desde hacía ya tiempo, para el 2015 estaban muy maduras y listas para ser utilizadas en campañas políticas de todo tipo. Del mismo modo, la retroalimentación entre uso de las redes y segmentación de grupos sociales facilitaba mucho articular tendencias hacia la polarización y la radicalización de cualquier tipo de idea: desde planteos económicos de laborioso refutamiento, hasta absolutas barbaridades que ni las personas más primitivas podían considerar seriamente luego del más elemental análisis. El caso más famoso vinculado a todo esto fué el de Cambridge Analytica: una empresa de consultoría política, que a partir de datos de Facebook realizó tareas de inteligencia social al servicio de campañas de derecha de alta embergadura, como ser las de Donald Trump. Y las izquierdas se mostraron mayormente sin herramientas contra todo esto, durante toda la década.

    La década del 2010 entonces comenzó con mucho optimismo en internet, pero rápidamente se convirtió en una especie de máquina de generar ansiedad y discordia, con la inteligencia artificial y las técnicas de manejo de datos en el corazón del asunto. Al principio de la década, Nokia todavía era referente en el mundo de los teléfonos móviles, y apostaba a sus propias versiones de GNU/Linux; hacia el final de la década, Nokia había prácticamente quebrado, luego de haberse asociado con Microsoft y apostado a Windows. Al principio de la década, Microsoft daba vergüenza; al final de la década, Microsoft era de nuevo central en el mundo de la programación, se asociaba con Open AI al tiempo que esta última dejaba atrás su ética abierta y al mismo tiempo que se lanzaba Copilot, y para 2023 Microsoft es directamente el principal financista de la organización ya absolutamente privada. En esta misma década, las tecnologías de DRM finalmente entraron en los estándares web, haciendo que la misma finalmente ya no sea más abierta al permitir que se inyecte código privativo y secreto en los browsers para poder reproducir contenido multimedial protegido por empresas. Valve cumpió su promesa de abrazar GNU/Linux, y ahora miles de juegos funcionan perfecto en ese sistema operativo, incluidos los de mayor exigencia y sofisticación, lo cierto es que les jugadores siguen usando en su mayoría Windows, y las empresas de video juegos siguen programando para Windows, dando la impresión de que esa comunidad va a tratar a Valve como la gente de la web y de GNU/Linux trató antes a Mozilla y a Canonical. Y Facebook apostó extrañamente a la realidad virtual, para lo que contrató al desarrollador original del Doom, y por esa vía pretende tener control de las formas de interactuar entre personas y de realizar trabajos diarios; casi que la única buena noticia al final de la década es que a Facebook le está yendo horrible en esto.

    La década siguiente, de la que apenas vivimos algunos poquitos años, no ayudó tampoco en absoluto a resolver nada: tuvimos dos años de una pandemia traumatizante, e inmediatamente después un nuevo despertar de las ansiedades nucleares frente a la guerra entre Rusia y Ucrania, la cual pega fuerte en las economías y posicionamientos políticos de todo el mundo. Al mismo tiempo sucede una competencia comercial entre Estados Unidos y China, con cosas como el 5G y la ingerencia internacional como frentes de batalla, y en casi todo el planeta se vive un profundo descrédito de la democracia como forma de organización de las sociedades y de la política como forma de transformar nada. Pero esto es algo que estamos viviendo todes, y antes que ponernos a hacer repasos y análisis de cuestiones que ya conocemos, mejor es tiempo de pasar a articular conclusiones.

    

Conclusiones

    Si llegaron hasta acá, felicitaciones y gracias: se merecen un premio. No sé cuál pueda ser ese premio, pero bueno… sepan que estamos al tanto del trabajo que implica seguir todo aquello, y lo mínimo que merecen es un reconocimiento, tanto por el trabajo como por su compromiso. Nosotres como creadores no podemos menos que estar agradecides. Pero ya en esta parte del video, podemos concentrarnos en la actualidad, y qué creemos que está pasando con la Inteligencia Artificial. Y vamos a hilar esas opiniones a partir de fenómenos que percibimos en la sociedad.

    ChatGPT genera algunas sorpresas e inquietudes más bien positivas, pero también muchas críticas. Y entre las críticas percibo mucha incredulidad: gente que se burla del chatbot por sus muchos errores y problemas, y entonces lo considera una burbuja más de las tantas que hemos vivido. He oido incluso a alguien decir lo siguiente: “es las bitcoins otra vez, no va a pasar nada con esto”, haciendo alusión a que las bitcoins prometían mucho pero terminaron siendo calificadas de burbuja financiera. Y, seamos claros: en este relato planteamos un montón de ciclos de optimismo que llevaba a financiamientos y luego inmediatas tristes sorpresas, especialmente en el mundo de la inteligencia artificial. Así que intentar ubicar eso en ChatGPT tiene bastante de sensato. Sin embargo, tenemos cosas para decirle a la gente que sostiene esa posición. En líneas generales, nuestra respuesta es que están subestimando profundamente a lo que sucede con ChatGPT, en varias dimensiones que pasamos a detallar.

    Por un lado, subestiman al optimismo. Es cierto que el optimismo frecuentemente da lugar a percepciones de fracasos en lo inmediato, y la historia tiene un montón de eso. Pero históricamente en las experiencias de esos optimismos se crían las siguientes generaciones de trabajadores y empresaries, que van a ser quienes creen el futuro inmediato, van a ser parte de una segunda o tercera o cuarta ola de lo mismo, van a transformar la sociedad una vez más, y lo van a hacer sin pedirle permiso ni preguntarles qué piensan a ningune de ustedes. Esa es la historia de la intergeneracionalidad en la modernidad, que hace que todo cambie “de repente”. Nunca es de repente, sino que son ciclos y ciclos de optimismos y supuestos fracasos hasta que “de repente” ya está, ya cambió todo, ya podemos dar al proyecto por exitoso, cuando se trata de una nueva normalidad. Y si quisiera apostar a ganador, más que satisfacer mis glándulas de schadenfreude imaginando cómo a ChatGPT le va a ir mal, ya iría pensando cómo es que a la inteligencia artificial le va a ir bien y esto que estamos viendo es apenas un hito en esa historia. Lo cuál es especialmente pertinente si, como vimos en las últimas dos o tres partes del video, estas cosas parecen cambiar cada diez o cinco años a esta altura. Ciertamente, no me parece sabio burlarse del tema, ni ningunearlo, más allá de qué tan mal pueda andar ChatGPT.

    Por otro lado, al concencentrarse en las evidentes fallas y limitaciones de ChatGPT, no le están prestando atención a sus logros. ChatGPT podrá ser un paso corto o largo hacia la inteligencia artificial general, esa que es indistinguible de un ser humano y que pasa el test de Turing y requiere que tengamos blade runners para identificarlas, la historia ya lo dirá: pero no parecen estar dándose cuenta que esta tecnología ya logró hacer un hecho empírico e incuestionable a las interfaces de usuario a partir de lenguaje natural, sea hablado o escrito. ChatGPT tiene también mucho qué ver con la historia de Alexa y Siri y el ayudante de Google, que además de tener un pié en el área de inteligencia artificial tienen otro en el área de interfaces de usuario: como los videojuegos, tan ninguneados y demonizados durante su historia. Y en esto lamento decirles a les pesimistes que ChatGPT se trata de un éxito absolutamente rotundo, y entonces estas cosas llegaron para quedarse. Pero no es lo único de lo que no se dan cuenta.

    Recuerdo hace algunos años hacer una transmisión radial improvisada por internet en una reunión de amigues. Estoy hablando del año 2012 o 2013. Ahí hablé un poco de mi experiencia yendo a estudiar lingüística, y de cómo mezclando lingüística con programación se llegaban a problemas cognitivos y filosóficos complejos, y contando también aquellas fantasías adolescentes mías sobre hacer un oráculo al que podría preguntarle cualquier cosa, incluso usarlo como mecanismo de automatización de la ciencia. Para explicar eso, a esa altura ya tenía un ejemplo que todes conocían: Jarvis, la inteligencia artificial de Iron-Man en la exitosa película del año 2008. En esa película, Tony Stark podía prepararse un trago, hablar con Jarvis sobre el diseño de una armadura tecnológica de superhéroe, debatir jocosamente con Jarvios usando chistes irónicos sobre de qué color se podía pintar a la armadura, y preguntarle a Jarvis cuánto podía tardar en fabricarla: Jarvis le dice que tarda algunas horas, y entonces Tony Stark aprovecha ese tiempo para irse de fiesta; al otro día a la mañana tiene lista una armadura de superhéroe. Tomando ese ejemplo, yo le decía a mis amigues: “así cualquiera es Tony Stark”, y les explicaba que una inteligencia artificial que entiende lenguaje natural a ese nivel tranquilamente puede también automatizar una fábrica. Y uno de mis amigues entonces hizo un afiche para el programa de radio, con una imagen de Chomsky usando la armadura de Iron-man.

    Les pesimistes de ChatGPT no se dan cuenta que estamos muy cerca de eso. A cosas como ChatGPT ya le piden que realice tareas arbitrarias: de momento en una dimensión intelectual, pero piensen cuanto falta para que a eso se le agreguen periféricos como brazos robot. Y ahí es donde tienen que reflexionar sobre todo el paseo de tecnologías de los últimos 20 años agregadas a la gestión de lenguaje natural: reconocimiento de objetos, drones, casas inteligentes, y demás. Hoy hasta un horno microondas o una heladera están conectados a una red informática. ¿Qué le impide a un software como ChatGPT controlar todo eso? Nada. De hecho, Alexa lo hace, y creo que también cuenta chistes. Ahora también estamos viendo que, de manera todavía defectuosa, le estamos pidiendo a estas cosas que usan GPT-4 que nos escriban historias, canciones, nos hagan dibujos, o hasta nos escriban software que tenga tal o cuál funcionalidad. ¿Realmente creen que está tan lejos pedirle que haga cosas más complejas en términos intelectuales, que encima luego pueden materializar automatizando herramientas como impresoras 3D? Si con esa perspectiva pueden ir imaginando las cosas que se pueden hacer en una “casa inteligente”, ¿se dan una idea de lo que se puede hacer en un laboratorio automatizado? Más bien se vuelve urgente la pregunta de qué cosas NO se podrían hacer.

    Quienes piensen que ChatGPT es una moda pasajera más, otra burbuja como tantas otras, muy probablemente piensen lo mismo de otras dos cuestiones de las que no hablamos en todo el video: el 5G, y la internet de las cosas. Todes vimos cómo se nos anunció al 3G como la revolución de internet, para que después casi anduviera peor que la internet que usábamos con teléfono fijo y modem en la década de 1990, y que entonces la llegada del 4G fue bastante más silenciosa. Lo mismo con el hecho de tener mil hipotéticos posibles aparatitos “inteligentes” en nuestras casas, y que todo esté conectado a internet y podamos controlarlo desde nuestro teléfono móvil: pero a América del Sur esas cosas no llegan, y en los paises donde se usan son más bien una molestia, salvo casos muy puntuales y salvo casas que estén adecuadamente diseñadas para usar aparatos de ese estilo. Así planteadas, la internet de las cosas ya pasa de burbuja a directamente humo, y el 5G se vive con muchísimo excepticismo. Pero, sin embargo: ¿es como para que Estados Unidos y China hagan una guerra comercial al respecto? ¿Qué les pasa a esos dos? ¿Es algo así como buscar excusas para pelear, o está pasando algo más con ese tema? Y acá es donde les pido que presten atención, porque lo que vamos a tratar de explicarles no se entiende si no se lo pone en la perspectiva adecuada.

    No piensen a “internet de las cosas” como “una vida más cómoda y automatizada con aparatos inteligentes”, sino como “una vida rodeada de sensores de todo tipo, compartiendo información”. Si prestaron atención al video, ya saben a qué dá lugar eso de “compartir información”: data mining. Que en un principio daba lugar a simplemente compra y venta de datos, y el descubrimiento de algunos patrones de comportamiento, que luego permitían refinar estrategias comerciales o tal vez funcionalidades de software. Pero con machine learning agregado, eso da lugar a modelos de machine learning para todo tipo de actividades, que luego se explotan con inteligencias artificiales como las de ChatGPT. Lo cuál hace que la internet de las cosas sea muy valorado como horizonte por algunes. Pero ese no es el final de esa historia.

    ¿Recuerdan cuando hablamos de cómo nVidia compraba empresas que no tenían tanto qué ver con 3D? ¿Y recuerdan cómo en ese contexto relatamos la historia de la película de Final Fantasy, y su granja de renderizado, y repasamos algunos pormenores de cómo funcionaba eso? Uno de los detalles importantes es la capacidad de transmitir datos entre diferentes computadoras, que por aquel entonces podía ser la diferencia entre hacer la misma tarea de renderizado en 4 años o en 120. La velocidad con la que se trabajan los datos es importante, pero la velocidad en la que se transmiten también lo es. Y esto se vuelve más y más importante a medida que hay más y más aparatos compartiendo más y más datos de toda naturaleza: texto, imágenes, audio, video, data abstracta, o bien mezclas de cosas. Y si bien tenemos cosas como fibra óptica, que son rápidas, piensen que los aparatos no están todos conectados a fibras ópticas: apenas algún receptor de internet en nuestras casas, pero todo lo demás es wifi, inalámbrico. Lo que predije para internet, aquello de que “todo se va a procesar remoto, y entonces no va a hacer falta tanta computadora”, del mismo modo se aplica para la robótica, que con buena conexión inalámbrica podrían simplemente ser las manos y piés de cualquier inteligencia artificial online; y no lo piensen tanto como Skynet, sino como obreres de la construcción en un sitio de obra. Súmenle a esto internet de las cosas, que son decenas o cientos de aparatos más en cada casa, en cada esquina, en cada plaza, en cada automovil, en cada bolsillo, y ya se van dando una idea de por qué podría haber tantos actores con tanto interés en estimular una rápida suba del ancho de banda de la conectividad inalámbrica. 5G por sí sólo significa poco, pero puesto en contexto es clave para algunas industrias. Y este tampoco es el final de esta historia de 5G e internet de las cosas. Hay un detalle más.

    Al principio, en la introducción, dijimos que ChatGPT implementa los “modelos grandes” de lenguaje natural GPT-3 y GPT-4. Y durante el resto del video, en diferentes oportunidades, mencionamos cómo el data mining generaba grandes cantidades de datos centralizados en algunas pocas infraestructuras. También mencionamos que existen modelos de lenguaje natural, y de muchas otras cosas, sin necesidad de grandes cantidades de datos: por eso hay “modelos” que no son de machine learning, pero también dentro de machine learning se distinguen “modelos” de “modelos grandes”. Y, precisamente, los “modelos grandes” permiten no sólo mejor calidad en machine learning, sino también modelos más generalistas: una cosa es que Google entienda mis palabras y con ellas realice una búsqueda por internet, y otra cosa muy diferente es que ChatGPT entienda mis palabras y a partir de mi planteo realice un trabajo práctico para cumplir con mis tareas escolares. Los modelos grandes permiten extender los usos de un sólo modelo a muchos más casos. Aunque esto a su vez retroalimenta el valor del machine learning, porque con solamente machine learning de repente podemos hacer modelos generalistas de todo tipo. De esta manera, machine learning se muestra como el camino hacia la inteligencia artificial general, al menos a simple vista. Si consideramos eso último, es francamente sentido común que haya gente intentando juntar más y más y más datos para poder generar modelos de machine learning con ellos. Pero esto tiene efectos sociales colaterales muy serios.

    Frecuentemente, cuando alguien dice algo como eso de los problemas sociales y los datos, pone foco en cosas como la privacidad, o la capacidad de los estados para controlar a la gente, y asuntos por el estilo. Sucede que la militancia informática de izquierda, la gente que se preocupa por la dimensión política de la tecnología, suele tener formación de matriz liberal, y entonces frecuentemente leen los problemas con sesgos anti-estatistas y pro-libertarios. Este es el caso de la Fundación Software Libre, que es vanguardia de izquierda en informática. Pero pasa también cuando se leen planteos como los que se arman alrededor de las revelaciones de Wikileaks o de Edward Snowden: hablan de lo peligroso que es darle tanto poder a los Estados para controlar a la gente, y lo importante que es liberar la información y proteger el anonimato. Por supuesto no les gusta tampoco que ninguna empresa realice esa clase de actividades espúreas que denuncian, aunque cuando se meten con las empresas suelen tener cuidado de no criticar demasiado al capitalismo, y entonces el foco suele volver cómodamente hacia los estados nacionales.

    Pero hace muchas décadas ya que los estados nacionales no son el problema, y que de hecho la gente en todo el planeta está harta de pedirles soluciones a los estados sin que estos muestren tener el poder para cambiar prácticamente nada, lo cuál lleva a niveles de inestabilidad política y radicalización como no se vieron en décadas. Mientras tanto, y linealmente en paralelo a ese detrimento social, son empresas las que están apropiándose cada vez más de las infraestructuras con las que realizamos nuestros quehaceres cotidianos, y de esa manera determinando nuestras vidas. Por supuesto esto es algo echado a andar desde la década de 1970 por lo menos, y consumado también hace ya más de treinta años. Pero es tan notorio ya el modo en que los estados nacionales vienen perdiendo casi todas las batallas desde la ideología neoliberal para acá, que el neoliberalismo mismo está en crisis cuando ya no puede echarle la culpa a la intromisión de los estados en los problemas reales de las sociedades. Hoy ni siquiera las fuerzas conservadoras están cómodas, y se ven obligadas a plegarse más a la derecha de lo que les gustaría.

    Estas cosas, por supuesto, pueden resistirse, revertirse, o sencillamente cambiarse por otras: es tan sencillo como analizar los sistemas e intervenirlos. Para eso se inventaron la democracia que permita elegir alternativas, los partidos políticos que permitan organizar personas de pensamientos similares, las escuelas de pensamiento que brinden ideas detrás de las cuales organizarse, y demás herramientas, todas plenamente disponibles en la actualidad. Y sin embargo, hace décadas que pareciera no haber alternativa a este mundo que estamos viendo. De hecho, buena parte de la población mundial parece preferir cada vez más extremas derechas, casi como si todavía no conociéramos los resultados de ello.

    Hay tres grandes fuerzas detrás de que la gente se comporte como se viene comportando en política. Estas fuerzas son solidarias entre sí, y a su vez solidarias con las premisas neoliberales. La primera es por supuesto la publicidad: el incesante bombardeo de información ultrasesgada o directamente mentirosa tiene sus evidentes efectos en la percepción del estado de la sociedad que a une le rodea y de las elecciones posibles en la vida. La segunda es el régimen laboral, que ante todo quita tiempo y energía a cualquier persona sometida a él, y se convierte en condición de clase social. Y la tercera es la intergeneracionalidad moderna, que rompe los vínculos históricos entre diferentes generaciones de personas alterando constantemente las prácticas sociales. Pero nada más sencillo que curiosear todo esto a partir de un ejemplo.

    ¿Alquien conocía a Zoom antes de la pandemia? Yo trabajo en informática, y no tengo la menor idea de dónde mis pares sacaron a Zoom. Y yo trabajo en informática hace ya más de 20 años, y sin embargo gente más jóven y menos formada que yo eligió qué software usar durante la pandemia, sin que nadie me lo pregunte. Estoy seguro que esta ha de haber sido la historia de muches en su trabajo: une puede ser referente en su área, pero sin embargo de repente llega un correo desde recursos humanos diciéndonos cuáles son las herramientas que debemos utilizar, y ya no consulta previa sino directamente sin tampoco ninguna explicación. En las empresas grandes eso es planificado, pero cuando se trata de gente usando esos productos por voluntad propia la explicación es sencilla: publicidad, y efectos de red. Por publicidad alguien prueba eso, y por efectos de red sus contactos también lo usan. Microsoft ya había exterminado a Skype para ese entonces, y por eso había gente a la búsqueda de otro medio de comunicación, frente a lo cuál se topó con Zoom. Lo que suena a sentido común, pero oculta otros fenómenos más difíciles de explicar: como ser que aún hoy, años ya después de la pandemia, sigue habiendo gente que no conoce Jitsi, y cuando se le muestra se sorprende como si fuera nuevo. Ahí es cuando se vé el verdadero gran efecto social de la publicidad: Jitsi no tiene publicidad, sino militancia. Y en el siglo XXI, la militancia compite contra la publicidad. Consideren aquello del estado actual de las cosas, y luego saquen la cuenta de cuál de las dos viene ganando.

    La publicidad es la militancia de las empresas. Es acción social y política, aunque privatizada y privatizante. Por supuesto que si revisamos los pormenores de la militancia nos damos cuenta muy rápidamente que, como otra infinidad de cosas, se trata de una actividad tendiente a imposible de ser realizada cuando une también tiene que utilizar no menos de 9 horas todos los días para ir a trabajar. Y ahí también recordamos que militar ya parece un lujo cuando tenemos que considerar también estudiar: cosa que, encima, desde hace décadas nos dicen que tenemos que hacer para conseguir un trabajo. Casi como en una especie de manía psicótica, tenemos que usar nuestro tiempo libre del trabajo para prepararnos para el trabajo. Y si ya mencionamos militar, plantear luego la idea de estudiar cosas que tengan poco o nada qué ver con nuestros trabajos ya se siente directamente como una frivolidad. Por supuesto, siempre podemos considerar la idea de no trabajar: pero mejor no le dediquemos demasiado tiempo, si no queremos ir a parar a la calle a fín de mes, y tener que aprender rápidamente a conseguir comida por alguna via que no sea comprándola. De modo que mejor concentrémonos en ir a trabajar, y toda la parafernalia de ir a trabajar, que se trata de supervivencia.

    Lógicamente, eso no suena como una vida que inspire muchas ganas de vivirla. Pero no se preocupen: entre los minutos libres que nos deja nuestra jornada laboral, tenemos toneladas de publicidades que nos dicen todas las cosas que podríamos hacer si tuviéramos dinero: comprar un automovil, irnos de viaje, y todo tipo de experiencias lujosas. Eso, ya que estamos, es un incentivo para seguir trabajando, y hasta buscar un mejor trabajo. Entre las publicidades también vamos a encontrar personas que nos interpelan en nuestros sentimientos: gente con la que nos vamos a sentir representades, ya sea en nuestra actualidad o en nuestras aspiraciones, y entonces vamos a armarnos intuitivamente nuestros propios modelos de “human learning” para aprender a elegir cosas en la vida: ideologías, bebidas gaseosas, es todo más o menos lo mismo. Aunque el gran truco en ese sistema está en que, si un día llegamos a la conclusión de que estamos cansades de tantas promesas en tantas publicidades, y en realidad lo que queremos es dejar de someternos a ese régimen de vida que nunca realmente elegimos sino que nos fué sistemáticamente impuesto, lo que nos vamos a encontrar es que para ese entonces ya tenemos cierta edad, y detrás nuestro está lleno de jóvenes más que dispuestes a repetir nuestra misma historia: aunque esta vez con tecnología nueva, que impone reglas diferentes de cómo interactuar entre las personas, y nuevos futuros sobre los cuales fantasear que podremos llegar a vivir. De modo que cuando le quieras explicar a esa gente más jóven los detalles de tu historia, que muy probablemente no tenga muchas grandes aventuras épicas e inspiradoras para relatar, la respuesta que más te vas a encontrar es la sensación en les demás de que vos no entendés la nueva realidad actual, y que todo lo negativo que decís proviene de esa frustración o de tu profunda ignorancia.

    Ese cruel mecanismo, repasado tan brevemente, viene funcionando así por lo menos desde el siglo XIX, y supongo que ya era estable en el XVIII. Esa distancia intergeneracional no fué una cosa de todas las épocas y todas las culturas como se la vive ahora. Y arrancó con la modernidad: allá por las revoluciones políticas y tecnológicas que apoyadas en el racionalismo dieron nacimiento al capitalismo. Con el paso del tiempo, esos saltos generacionales se fueron acelerando, y si lo medimos en términos políticos hoy la gente parece no acordarse sus experiencias de apenas hace una década atrás, o menos todavía, del mismo modo que vive cada vez más polarizada en un mundo con picos de stress y donde proliferan todas las variantes más espeluznantes de problemas de salud mental: ansiedades, angustias, depresiones, brotes psicóticos. ¿Quién no tiene amigues o familiares con depresión? ¿Ya te tocó vivir la desesperación de quedarte sin trabajo? Y fíjense que ni siquiera estoy hablando de experiencias como guerras civiles o catástrofes naturales, de las que también está lleno.

    Vivimos una época enloquecedora. Y es que, precisamente, estos problemas se sostienen sobre un gran pilar, que es el cómo funciona nuestra mente. La relación con la realidad tiene una serie de problemas de orden epistémico. Cosas como entender los límites de nuestras generalizaciones cuando tratamos de explicar lo que pasa en el mundo, por ejemplo. O bien cuando intentamos entender a otres. Esa clase de cosas están siempre basadas en nuestras experiencias, que constituyen nuestra historia. Las interpretaciones que realizamos, a su vez, son también experiencias, y por eso cosas como leer libros son efectivamente transformadoras como también lo puede ser conocer culturas diferentes o aprender misterios detrás de las cosas que nos interesen. Hay algo de orden psicológico y experiencial en lo que llamamos “conocimiento”, siempre. Pero obviamente no todas las experiencias son felices, ni tampoco son precisamente infinitas, y eso muy rápidamente limita nuestra capacidad experiencial. Y no sé si se dieron cuenta, pero en esta breve explicación no se distingue mucho una diferencia entre lo que hacemos nosotres con nuestra historia, y lo que hace machine learning con sus datos; pausen el video y tómense unos minutos para considerarlo si quieren.

    Pero en cualquier caso, esa sitación que encuentra una persona cuando está muy desconectada de fenómenos que suceden en la realidad, cuando vive más bien ensimismada en sus propias experiencias, llevándola a manejar explicaciones demasiado simples de aquellos fenómenos, o hasta a comportarse más bien de manera sistemáticamente reaccionaria cuando se le contradice, tiene un nombre: alienación.

    A la alienación ya la había puesto Marx en el centro de los problemas de las sociedades. Él planteó ese problema en lo que siempre fué la explotación humana, pero que hoy llamaríamos positivamente “cultura del trabajo”: levantarse temprano, ir a trabajar todo el día, volver cansados a casa a la noche, y repetir todo al otro día. Tenemos que dar gracias que nuestras jornadas laborales son de 9 horas en lugar de 12 o 16, tenemos que ser agradecides que tenemos fines de semana, que exista el concepto de vacaciones, y qué se yo qué más: pero tenemos que vivir yendo a trabajar, y hacer de eso un orgullo. No sé si en la época de Marx ya estaba articulado en esos términos, pero definitivamente por aquel entonces ya se vivía el mismo problema: el uso del tiempo. Ya sucedía que, si se vive trabajando, oh casualidad no nos dan ni las horas del día ni nuestras energías para hacer ninguna otra cosa nunca. Entre esas cosas que no podemos hacer se encuentran, por ejemplo, informarnos o formarnos, especialmente si tiene poco qué ver con trabajar. Eso incluye actividades como estudiar una ciencia o ingeniería o arte, estudiar otra luego de esa primera, juntarnos con gente a discutir cómo vemos a las sociedades, organizarnos en iniciativas propias y sociales, y tantas otras cuestiones posibles que jamás vamos a hacer por no tener ni tiempo ni energía. Por supuesto no hace falta agregar a eso la necesidad de tener dinero, que ya la damos por descontada: vamos a trabajar en primer lugar porque no tenemos dinero, de modo que si además necesitamos dinero para estudiar o tener un proyecto claramente eso rara vez va a suceder. Por el contrario, lo que va a suceder es que vamos a convertirnos en poco más que unos aparatos que sólo saben hacer eso que tenemos que hacer para ganarnos el sueldo, y toda nuestra cosmovisión del mundo va a estar formada alrededor de lo poco que conocemos sobre eso. A esta altura no sorprende a nadie que, además, el trabajo mismo termine siendo también una especie de salvavidas emocional para nuestras ansiedades y angustias, y tome lugar central en nuestra identidad.

    Marx ya nos decía que la división del trabajo le quitaba a les obreres la perspectiva social e histórica de su propio trabajo. Eso no mejoró con los años, ni los siglos a esta altura, sino que sólo se profundizó. Por aquel entonces los “medios de producción”, esos de los que según Marx tenían que apropiarse les obreres organizades, eran las fábricas. Todavía era más o menos elemental darse cuenta que alrededor de la fábrica se organizaba la sociedad, con todas sus consecuencias. Y ciertamente una persona que se había criado en el campo arando la tierra o alimentando animales difícilmente estaba en condiciones de diseñar grandes ingenios industriales ni las largas cadenas del aparato productivo y comercial: para eso era necesario gente bien formada, donde tenían su lugar sólo les burgueses. Pero esa capacidad de diseño no era ningún atributo divino ni nada por el estilo, sino que pasaba simplemente por entrenar gente al caso. Y ese diseño tampoco era ninguna jerarquía objetiva humana frente a otres, sino apenas la contingencia histórica en la que le tocó vivir a diferentes personas: lo cuál puede ser perfectamente planificado, además de que con sólo diseño no hacemos nada y luego el trabajo debía ser llevado adelante también por alguien, que no tiene por qué ser valorade como inferior a otres.

    Reflexionar sobre estos temas cambiaba la relación de une con el trabajo propio y ajeno, con la historia, con la clase social, y con los futuros pensables para sociedades posibles. Eso que llamamos “sentido común” tiene mucho de alienación cuando no se lo pasa por algún filtro crítico, y la alienación es al mismo tiempo una forma de sometimiento y una manera de convertirnos en sometedores al legitimar y repetir las mismas prácticas alientantes a las que luego deben adecuarse otres. El trabajo crítico se vuelve entonces liberador.

    Y si bien Marx le puso el título de alienación, en realidad veía un caso particular. Antes de él, Adam Smith también hizo planteos críticos liberadores cuando dijo que se podía crecer, que se podía producir más, que se podía generar más riqueza, en un mundo donde se creía en límites naturales a cosas como esas. Aquellas ideas de la época eran, efectivamente, alienantes, mientras que las de Smith revolucionaron literalmente al mundo entero y siguen siendo centrales en el hecho de que se pudieran soñar mundos diferentes.

    Pero aunque en la época de Marx haya sido más o menos evidente el rol económico y social de la fábrica, hoy no es tan evidente que cosas como los medios masivos de comunicación sean “medios de producción”, ni que la sociedad se organice alrededor de ellos. Hasta está lleno de marxistas que te lo discuten, por ejemplo planteando cosas como que “la gente no es idiota y se dá cuenta de los artificios en los medios”, y que entonces no son tan centrales en la sociedad. Y por supuesto tampoco van a considerar “medios de producción” a las redes sociales, que frecuentemente pasan a ser la forma canónica de contactarlos por internet. Ciertamente algunas cosas cambiaron con el tiempo, y requieren más explicaciones que las que necesitaban las fábricas del siglo XIX. Y si bien los pensamientos de Smith y de Marx en relación a la alienación fueron liberadores, no fueron los únicos de trascendencia.

    Freud llamó la atención sobre cómo en realidad no tenemos tanto control racional sobre las cosas que pensamos, sino que hay muchísimo de intuiciones y sensaciones. Somos seres vivos, animales, que por muchas fantasías racionalistas modernas seguimos siendo profundamente pasionales y seguimos viviendo intuiciones que determinan nuestros comportamientos. Donde Smith entendió que había ideas falsas sobre los horizontes de desarrollo y crecimiento de los pueblos, y Marx entendió que había prácticas sociales alienantes, Freud entendió algunos pilares subjetivos para que esos efectos negativos fueran posibles.

    Sucede que en lugar de sencillamente vivir todes en alguna forma de contacto pleno con una realidad compartida, estamos todes inmerses en nuestras propias subjetividades, y nuestros contactos con la realidad estan siempre mediados: por nuestras culturas y entornos primero, y nuestras práctica particulares luego. Estudiando esas cosas, precisamente buscando solución a la alienación, encontró que incluso se pueden llegar a curar patologías directamente a través del diálogo: algo tan profundamente liberador para la humanidad como los planteos de Smith y Marx. Aunque los planteos de Freud eran especialmente sinérgicos con los de Marx: había alienación, tenía qué ver con cómo vivimos, y la palabra podía curarla. Por supuesto que Marx hablaba de organización obrera y Freud hablaba de trabajo clínico, pero de una manera u otra se confirmaba un problema en la relación con la realidad, que es un problema de doble filo: por un lado la subjetividad con el entorno, y por otro lado la intersubjetividad.

    La alienación, entonces, es al mismo tiempo un problema ético, un problema político, y un problema epistémico. Esto es algo que los teóricos del neoliberalismo no dejaron pasar, y no es casual que tanto el marxismo como el psicoanálisis hayan sido tempranamente tildados de pseudocientíficos por las mismas personas que se sentaban a discutir el nuevo paradigma ideológico de un occidente en guerra fría. Sin ir más lejos, el mismo sobrino de Freud, Edward Bernays, es considerado como el padre de las relaciones públicas, y dedicó su vida a estudiar cómo por medio de la psicología se podía influir en las sociedades. Algunos de sus trabajos más famosos son campañas que relacionaban al acto de fumar cigarrillos con la liberación femenina, o bien sus trabajos para empresas vinculadas a la CIA y golpes de estado en América. No tengan ninguna duda que desde los think tanks del neoliberalismo le prestan atención a la alienación, y acá es donde corresponde ir a buscar qué se decía en los setentas sobre los medios masivos de comunicación, por aquel entonces encarnados mayormente en la televisión.

    Entonces, el régimen de trabajo asalariado produce que no tengamos tiempo para formarnos, y el poco tiempo que tenemos para INformarnos está mediado por esos “medios” masivos de comunicación. “Medios” que operan de mediador con la sociedad al mismo tiempo que son medios de producción de discursos. En solidario, ahora también tenemos redes sociales en las que activamente repetimos esos discursos, que encima se pretenden cada vez más rápidos y simples. Y ahí ya ni de discursos hablamos: literalmente ya sólo reacciones. Se nos dicen un montón de cosas, que cuando las resistimos generamos discordia y polarización. Con las redes sociales, al mismo tiempo se nos estimula a que eso suceda: opinar cualquier cosa es un acto de libertad de expresión, y a eso tenemos que defenderlo opinando más y más lo que se nos antoje; no tan secretamente disfrutamos hacer enojar a les demás, aunque luego pretendemos ser víctimas de algo cuando eso no termina bien. Somos constantemente estimulados en nuestras emociones más primitivas y simples, que resultan ser también las más fáciles de controlar a nivel poblacional. Y desde las redes sociales, además, tenemos más precisión que nunca para calibrar cualquier mensaje que se pretenda insertar en un grupo social particular, ya hasta de manera automatizada y como servicio a empresas. Esa es la aparentemente inquebrantable organización de la militancia empresarial.

    Muchas de las premisas de Marx siguen tan vivas como en el siglo XIX, pero eso no quita que esta alienación que estamos viviendo tiene unas cuantas complejidades agregadas a lo que decía él por aquél entonces. Sin embargo, cada vez que hablo con marxistas me encuentro con la misma clase de respuestas con las que se encontraba Norbert Wiener en 1948, especialmente en lo que respecta los problemas que la automatización agregaba a teorías clásicas del trabajo o de la sociedad: como si todo se explicara por las ya clásicas premisas vinculadas a las relaciones sociales que arrastramos desde el siglo XVIII. Y en esto se dá una extraña coincidencia entre marxistas y liberales.

    Hace no mucho tiempo atrás se hizo popular la noticia de que McDonnalds había automatizado completamente uno de sus locales de comida rápida. Frente a esto, me llega la noticia de parte de alguien marxista que lo plantea como problema laboral, porque evidentemente dejaría sin trabajo a les obreres menos capacitades de todes, llevándoles a la miseria. Por supuesto cualquier marxista es sensible a los perjuicios contra les obreres, y dedica su vida a denunciarlos y combatirlos. Pero frente a la escena de la automatización de McDonnalds, la reacción pasa a ser casi inmediatamente “defender el trabajo”. Lo cuál lleva a la insostenible idea de algo así como “derecho a trabajar en un McDonnalds”, que es básicamente el estereotipo de explotación laboral alienante desde hace décadas, y el ejemplo canónico del trabajo que no debería existir: es básicamente la línea de producción fordista aplicada a las hamburguesas, con el agregado de una atención al cliente siempre denigrante. E igual de frágiles son los planteos por parte de liberales cuando se proyecta la cantidad de tareas en las que se puede aplicar automatización y tienen que hacer malabares para defender la idea del mérito y de la generación de valor y tantas otras nociones vetustas por el estilo.

    La alienación no es una condición binaria. Une no es alienade o no-alienade: une siempre tiene límites en su capacidad de comprensión de los temas y la realidad que nos rodea. No pretendo burlarme de marxistas y liberales, sino plantear que las cosas que están sucediendo precisamente ponen en crisis un montón de ideas que se pretendían ya escritas en piedra. El ejemplo de McDonnalds nos lleva rápidamente a una conclusión muy sencilla: a no ser que pretendamos defender el régimen laboral que conocemos, debería tender a desaparecer. Lo cuál debería ser una gran noticia para cualquier sometide, como yo. Pero la parte inquietante es que, con el régimen laboral que conocemos, también deberían desaparecer los sistemas sociales que conocemos, aunque no queda claro hacia qué otro sistema iríamos. Y entonces no debería sorprender a nadie que marxistas y liberales, frente a algo como eso, se vuelvan más bien conservadores.

    Como estamos hablando de inteligencia artificial, yo me concentré mayormente en el rol del trabajo asalariado en las sociedades actuales, pero en realidad son muchas las cuestiones críticas de los sistemas actuales: el calentamiento global y el crecimiento poblacional, por ejemplo, son dos temas que dejan en claro cómo la sociedad de consumo keynesiana tampoco es ninguna opción sostenible, y con eso cae cualquier fantasía de “capitalismo bueno”. Hay movimientos que hace décadas causaban hasta burla y hoy organizan a millones de personas en todo el mundo; como la causa vegana por ejemplo, que plantea una relación ética inter-especies: ya ni el antropocentrismo está cómodo cuando se discute política. Las ideas de hace siglos atrás sobre el ser humano, la sociedad, el trabajo, la vida, y el futuro, están absolutamente en crisis. Y ese es el contexto en el que nos toca vivir la emergencia de la inteligencia artificial. Con lo cuál, tampoco debería sorprender a nadie que genere tantas ansiedades: no estamos precisamente en un mundo que se sienta bajo control, y esto no parece venir a tranquilizar las cosas tampoco.

    Pero, irónicamente, el mundo está BASTANTE bajo control: al menos, esto que vemos tiene mucho de planificado. Es cierto que las ideas clásicas sobre el ser humano y la sociedad se muestran vetustas, pero la fantasía de que “no hay alternativa” es articulada incesantemente en los aparatos alientantes que median entre nosotres y el mundo: los llamados “medios”, que se dicen “de comunicación”, entre los que incluyo a las redes sociales. Esto que estamos viendo es el resultado de la militancia neoliberal: esa misma que ahora se radicaliza más a la derecha, e insiste en convencer a la gente que sólo abrazando las premisas neoliberales al ultranza va a pasar algo bueno en algún futuro. Es en los medios donde la izquierda contemporánea no existe. En realidad, está lleno de gente que plantea muchas, muchas ideas transformadoras de las sociedades, y alternativas al neoliberalismo. Y del mismo modo, si bien el mundo vive en crisis, la opinión está polarizada: las elecciones que gana la extrema derecha suelen ser por un margen muy corto (lo cuál indica que la otra mitad de la población quiere otra cosa), y encima suelen no durar más de un período. El neoliberalismo está simplemente sobre-representado en los medios, porque es el espacio de militancia de las empresas, cuyo juego es mantener su centralidad en las sociedades.

    Aunque lo que también sucede es que, cuando gobiernos que se pretenden contrarios a las propuestas neoliberales ganan elecciones, su capacidad de toma de decisión es brutalmente limitada. En primer lugar, los cambios revolucionarios muy rara vez son parte de la propuesta ganadora: la gente vota de manera mayormente conservadora. Al caso se habla frecuentemente de que “votan pensando en sus intereses”, pero esos intereses rara vez no son otra cosa más que la misma alienación que lleva más tarde a votar nuevamente al neoliberalismo: cosas como el valor del salario, o si puede o no acceder a experiencias de consumo vedado, entre lo que tristemente se incluyen cosas como la salud o la educación. A eso se le llama “economía” y no “alienación”, y entonces nadie vota cambios muy radicales qué digamos: las izquierdas marxistas rara vez obtienen gran porcentaje del voto, mientras el liberalismo sigue fantaseando con prometer las mismas promesas por otros 200 años más. Pero por otro lado, existen demasiados puntos de injerencia de poderes sobre los gobiernos, desde lobby y compra de funcionaries hasta sencillos actos mafiosos que aterroricen a las dirigencias y traben cualquier proceso transformador legitimado por la voluntad popular. Así también terminan defraudando los tímidos ciclos keynesianos, que logran enamorar a muches pero no sobrevivir más que algunos pocos años, mientras todos los medios bombardean con la consigna “el problema es el Estado”.

    Los efectos alienantes de la militancia empresarial son a todas luces devastadores, y no pueden ser tomados a la ligera por nadie que analice las sociedades del siglo XXI. Aunque el colmo de la alienación no está en aquellos ejemplos anteriores, sino en algo constantemente siendo ocultado a simple vista. A Adam Smith le fué bien porque detrás de él estaba un movimiento social, cultural, político, filosófico, y técnico, que le daba verosimilitud a sus planteos: estamos hablando de la jóven ciencia. La misma ciencia por la que Marx logró transformar también el pensamiento para siempre, prácticamente dando lugar a la creación de las ciencias sociales. La misma ciencia que dió cobijo a Freud, y a Darwin, y a Wiener. Las ideas revolucionarias, liberadoras, y transformadoras, desde el día cero de la modernidad, fueron las ideas científicas. Ideas que, en su indagación de la realidad, son necesariamente contrarias a los mecanismos alienantes. Y se tratan de ideas que siguen hoy, más que nunca, funcionando con plenitud. Hemos visto en este trabajo, por la vía de la informática, buena parte de la historia reciente de la tecnología, y con ella de unos cuantos avances científicos. Hemos también repasado cómo las sociedades fueron cambiando radicalmente una y otra y otra vez desde el comienzo de la modernidad para acá. Hemos visto, en definitiva, que es la ciencia la verdadera fuerza transformadora. Y de su mano surgieron todas las ideas desalienantes que repasamos, sin perjuicio de su condición ideológica: marxismo y liberalismo le deben su nacimiento y desarrollo a la ciencia. Aunque lo que no hemos visto todavía es un trágico detalle de los últimos siglos, que debemos poner también en foco.

    Hoy cualquier hije de vecine cree que la ciencia es producto del capital, y no al revés. Ponen su admiración y hasta su fé en empresas, que se supone vayan a solucionar nuestros problemas: Amazon, Google, Tesla, Bayer. Cuando buscan soluciones, no buscan ramas de las ingenierías, ni teorías científicas que tengan algo para decir al respecto: buscan productos de consumo. Los proyectos de ciencia y tecnología, investigación y desarrollo, llevados adelante por científiques e ingenieres, se articulan como cualquier trabajo más, como si fueran empresas: sometidos a financiamientos, a rendimientos, a los tiempos y modos del capital. Desde ese contexto se asimila una y otra y otra vez a la economía como disciplina rectora del proceso de toma de decisiones estatal, explicadora de las relaciones humanas, y conocimiento técnico de primer orden: cuando en rigor dice poco sobre ninguna realidad objetiva, tiene mucho de dogmática, y habla de sistemas construidos por nosotres como si fueran fuerzas naturales, todo eso articulado con modelos paupérrimos sobre la humanidad. La ciencia y la tecnología se mueven detrás de un velo cultural que las muestra sometidas a los vaivenes del capital, y bajo las botas del financiamiento y las leyes de patentes como condiciones de posibilidad de realización del trabajo científico, de modo tal que nunca haya alternativas a los intereses del capital. Y esa es, por lejos, la alienación más dañina de todas las que nos están tocando vivir.

    Todo ese gigantezco preámbulo fue para poder plantear lo siguiente: ChatGPT, junto con DALL-E antes de él, y Copilot todavía antes, son herramientas culturales para posicionar a Microsoft en el corazón del ecosistema de la informática, y con ello también de la automatización comercial e industrial, desde donde también tendrá profunda injerencia sobre las telecomunicaciones. Es Microsoft una vez más apropiándose de las infraestructuras con las que hacemos nuestras vidas y forjamos nuestros futuros. Y, si vieron los videos anteriores, a ver si por favor esta vez no idealizan a Microsoft como si hubiera inventado algo, cuando lo único que hizo fué comprar empresas y sobornar a la gente adecuada para quedarse con el trabajo de otres. Microsoft es por lejos el peor enemigo de les obreres y usuaries de la informática, y un cancer que pretende enquistarse en las estructuras sociales e infraestructuras productivas de todos los estados nacionales. Pero el gran problema hoy ni siquiera es ese. El gran, ENORME problema que estamos empezando a vivir, es el hecho de que culturalmente se instalen a los modelos grandes de machine learning como el camino para la gestión de la automatización en las próximas décadas. La creación de modelos grandes necesariamente sólo puede caer en manos de grandes infraestructuras de datos: de las que sólo un puñado de empresas en el mundo disponen, y ningún estado nacional.

    Si me preguntan a mí, ChatGPT va a fracasar miserablemente, especialmente a partir de que Microsoft empiece a calibrar sus funcionalidades de la manera que siempre lo hace: pésimo, y con objetivos diametralmente opuestos a los intereses de les usuaries. Pero aún así no es ningún tema para tomarse a la ligera, especialmente en su dimensión política. Porque culturalmente, el machine learning como lo conocemos es una máquina de centralizar datos. Si a eso se lo tilda de “progreso” o “el futuro”, no tengan ninguna duda de que con o sin Microsoft en el medio las empresas involucradas van a recibir toneladas de dinero en inversiones provenientes de fondos de nula moral y con metas de ganancias rápidas, ese dinero se va a reinvertir mayormente en lobby y publicidad para posicionar a las empresas en el corazón de la gestión de datos a partir de la alta presencia en la sociedad, y va a ser algo articulado en simultáneo en todo el mundo. Y otros fenómenos políticos, económicos, y sociales, muy probablemente vayan a ser sinérgicos con esto: cuando finalmente explote la burbuja de las criptomonedas, muy probablemente toda esa infraestructura va a ser utilizada para machine learning del mismo modo que la burbuja punto com dió lugar a las infraestructura de la web como la conocemos hoy; el capitalismo de plataformas muy probablemente sea sinérgico con un emprendedurismo de inteligencias artificiales construidas sobre servicios de grandes empresas informáticas; el clamor popular por inteligencias artificiales serviles y fáciles de usar probablemente lleve a que los estados terminen implementando esos mismos servicios en su gestión de atención ciudadana; y tantos otros etcéteras más.

    Y si encima realmente logran hacer que por las vías del machine learning se creen inteligencias artificiales suficientemente generalistas, no sólo van a seguir estimulándolo más y más independientemente de sus muchas fallas y limitaciones, sino que estas empresas van a haber logrado un paso en la historia del capitalismo probablemente sin retorno: la apropiación definitiva e irreversible de TODOS los medios de producción. Con esos requisitos de infraestructura y participación social que impone el machine learning con modelos grandes, nunca otras organizaciones van a poder ser capaces de replicar estas tecnologías con la suficiente velocidad y calidad, y entonces nunca van a obtener el beneplácito de las sociedades ya adecuadas a convivir con esa centralización. De modo que difícilmente haya ninguna democracia en ese mundo donde se vote en contra de los intereses de esas empresas, porque se van a sentir como nuestros propios intereses. Y si fantasean con que van a poder tomar por asalto a estas empresas, o que van a poder estatizarlas o ponerlas bajo control obrero o algo así, entonces no estuvieron prestando mucha atención a lo que dijimos sobre automatizar la alienación.

    No les pedimos que tomen estas cosas que decimos como alguna forma de verdad incuestionable. Pero si les pedimos que presten atención al detalle de que, para decir todas estas cosas, nos basamos en la historia y no en nuestros gustos o disgustos. No es eso lo que queremos que suceda: es eso lo que leemos que puede suceder, y sobre lo que pretendemos levantar una alerta.

    En una situación extrema, esto del machine learning tiende al reemplazo de la política por la literal gestión de recursos humanos, como ya se vé a la publicidad reemplazando a la militancia, o a las empresas multinacionales reemplazando a los estados nacionales. En un mundo como ese, como sucede con todos los cambios históricos, va a haber cierta convivencia sin dudas entre los estados y las empresas, y entre el mundo anterior y el entonces actual: pero tampoco va a haber dudas de quién tiene qué poder sobre las sociedades para decidir la dirección del “progreso”. ¿O acaso sorprende a alguien que las mismas empresas que crearon y financiaron OpenAI, en paralelo comenzaron su propia carrera espacial, esta vez privatizada? ¿Se acuerdan cuando la NASA, la agencia nacional aeroespacial estadounidense, era vanguardia tecnológica e ícono sociopolítico? Ni siquiera el Estado de los Estados Unidos escapa de estos fenómenos. ¿Qué creen que va a pasar con nuestros estados nacionales, constantemente debilitados en todos sus frentes?

    Frente a cosas como esas, esta vez el baldazo de agua fría con la inteligencia artificial va a ser para optimistes y pesimistes de ChatGPT en igual medida. Aunque ninguna de las consideraciones alarmistas que mencionamos entre estas conclusiones son ni irreversibles ni necesarias: simplemente se pretenden verosímiles, al menos hasta cierto punto que permita prestarle atención a los peligros culturales de la inteligencia artificial bajo hegemonía neoliberal. Y cuando se piensan estas cosas en todo su conjunto, en lugar de reflexionar sobre las partes por separado, es perfectamente entendible que se den situaciones cercanas a la guerra por cosas más bien frívolas para nuestras vidas como pueden serlo el 5G. Y es también perfectamente entendible que se pretenda estimular con publicidad a las tecnologías que permiten centralizar la cultura, independientemente del currículum o el prontuario de tales tecnologías: no pasan por si andan bien o mal, sino por su horizonte último. Por eso tampoco importan mucho nuestras sagaces observaciones sobre los límites en esas tecnologías, que de una manera u otra después terminan conquistando los corazones de las sociedades. Y ese nos parece el punto donde tenemos que poner un poquito más de atención, muy especialmente cuando hablemos de inteligencia artificial.

    La inteligencia artificial es una absoluta maravilla de la ciencia y la tecnología, y así debe ser entendida y celebrada. Pero tampoco puede ser dejada al arbitrío de fuerzas supremacistas que existen exclusivamente con el objetivo de someter y asimilar cualquier alternativa, incluyendo los estados nacionales, y encima libres de mediar entre las acciones de poblaciones cada vez más alienadas. La forma que tome la inteligencia artificial no puede ser la que beneficie a estas empresas a-nacionales que en la práctica parecen tener más poder sobre las sociedades que la propia organización de las naciones unidas. Y la clave para esto es separar inteligencia artificial de machine learning, así como también los modelos grandes de machine learning de otros modelos más accesibles por organizaciones más pequeñas.

    Por ejemplo, todes parecen estar al tanto de GPT-3 y GPT-4, de OpenAI, gracias a la incansable militancia empresarial. ¿Pero acaso conocen Bloom? ¿Están al tanto de que existen organizaciones haciendo alternativas a las de OpenAI, pero esta vez como software libre y colaborando entre miles de investigadores e investigadoras? Esas alternativas no tienen el respaldo de la militacia empresarial, de modo que van a tener que buscarlas. Pero, además, tienen que aprender a separar la idea de hacer inteligencia artificial a partir de cantidades incognoscibles de datos recopilados, y pensar también en sencillamente modelar nuestra propia inteligencia a partir del trabajo crítico: filosofía, sociología, psicología, antropología, lingüística, política. Es el trabajo intelectual que hacemos desde hace siglos, simplemente aplicado a la automatización. Es mezclar cualquier disciplina con informática, y eso también es inteligencia artificial.

    El conservadurismo como defensa está muy bien, pero no va a durar más de una generación, que encima luego va a ser mal vista por la siguiente: esta generación actual debe tomar las riendas de qué va a suceder con la inteligencia artificial el día de mañana, porque ese mañana ya no está tan lejos: a la velocidad de la historia de la informática como la relatamos en esta tesis, estamos hablando de una cosa de 20 o 10 años. La inteligencia artificial promete cambios revolucionarios, pero se está apurando su instalación en la sociedad como una especie de truco de magia logrado por empresas a las que tenemos que dedicarle nuestra admiración y confianza. Está muy bien llamar la atención sobre eso, pero de poco va a servir si no construimos también alternativas a cualquier cosa que propongan esas empresas, especialmente cuando se trata de telecomunicaciones y realizar nuestras tareas diarias. Por si no se entiende lo que estamos diciendo, seamos más categóricos al respecto: ustedes, querides espectadores, van a tener que cambiar sus hábitos comunicacionales y computacionales, o caso contrario todo lo que hagan va a resultar absolutamente inutil para condicionar en nada a estas empresas. Tienen que usar software alternativo, redes sociales alternativas, herramientas homologadas por referentes tanto tecnológicos como políticos. Tienen que exigir que los estados tengan infraestructuras que les permitan realizar actividades regidas por el voto popular. Tienen que pedir a sus partidos políticos, a sus sindicatos, a sus organizaciones sin fines de lucro, que permitan espacios de interrelación y trabajo por internet que no dependa de las grandes redes sociales ni las grandes empresas sino de infraestructura propia. Tienen que, de hecho, empezar a investigar cómo realizar ustedes sus propias redes entre sus conocides, con software que no controlen otres más que ustedes mismes. Todas estas cosas no son ninguna fantasía: existen, son perfectamente posibles. Pero son cambios de hábitos que divergen radicalmente con los comportamientos que van a proponer Twitter, Facebook, Amazon, Instagram, Mercado Libre, Tik Tok, Google, y ninguna de esas que aparezca la semana que viene, o que el mes que viene termine comprando Microsoft. Esa es la manera de apropiarse de los medios de producción en el siglo XXI: al menos, de los medios de producción de discursos, y por lo tanto de ideas.

    El software es político. Internet es política. Las redes sociales son políticas. La inteligencia artificial es política. Nuestras vidas están mediadas por esas herramientas que desde el día cero existen en relación a nuestro trabajo, en relación a nuestras interacciones con otres, y en relación a nuestra comprensión del mundo. Nunca fué de otra manera, y nada de eso cambia con la inteligencia artificial. Del mismo modo que Marx y sus descendientes pusieron énfasis en la conciencia de clase en relación al trabajo, la sociedad, y la economía, hoy tienen que también tomar conciencia de la dimensión política de la informática: disciplina que por lejos sobrepasa los alcances de la economía y la estadística. Hoy la economía es informática, la estadística es informática. Y tanto alcance tiene la informática, que la inteligencia misma, aquel atributo sagrado del ser humano, está empezando también a ser informática. Y de la mano de la conciencia informática, viene también una conciencia de la complejidad, que responda a las sobresimplificaciones a las que sistemáticamente nos vemos expuestes la actualidad.

    Las llamadas “interfaces de usuario”, de las que cosas como videojuegos son vanguardia y por las que cosas como los sistemas operativos pueden terminar siendo un éxito o un fracaso, son un caso particular de “interfaces”, que significa “vínculo entre componentes de un sistema”. Cada pequeño software que alguna vez usaron, cada herramienta de trabajo y video-juego y aparatito con el que se comunicaban con otres, fue siempre un experimento vinculado a nuestras actividades y cómo nos relacionamos con ellas: cómo entendemos nuestros quehaceres, cómo metaforizamos nuestras acciones sobre el mundo, como explotar o restringir eso. Las redes sociales son otro experimento más en esa larga línea. Y presten atención a cómo desde el advenimiento de los teléfonos móviles con pantalla táctil las interfaces de usuario cada vez se pretenden más, y más, y más simples. Leer y escribir casi que está mal visto a esta altura, así como todo lo que no se mida en segundos como máximo. Twitter es un éxito simplemente permitiendo escribir poco y viralizar reacciones; Facebook tuvo que pasar por procesos burocráticos internos muy laboriosos para algo tan sencillo como permitir alguna reacción que no sea simplemente “me gusta”; youtube no muestra ya los “no me gusta”, porque eso tiene consecuencias sociales indeseadas para la empresa; los videos de tik-tok o de youtube shorts, para beneficio de aparentemente nadie, no permiten utilizar la barra de tiempo que cualquier reproductor multimedia siempre tuvo disponible, pero que las nuevas generaciones de usuaries pueden bien no conocer el día de mañana. Tienen que tomar conciencia de cómo esas cosas necesariamente limitan sus alternativas de interacciones, con la información y con otres. Tienen que cuestionar esos detalles, y en base a sus cuestionamientos idear cuáles deberían ser las interacciones adecuadas para una sociedad que se comporte de otras maneras.

    Y las alternativas no necesitan ser un éxito, ni comercial ni popular: necesitan existir. La historia de la inteligencia artificial está llena de “fracasos” que llevaron a “inviernos”, pero eso sólo fué así en las métricas de financistas evaluando qué hacer con su dinero: la historia de la inteligencia artificial, dentro del ecosistema más general de la informática, dió saltos enormes en pocas décadas, y permitió éxitos espectaculares que hoy nos llevan a cuestionar hasta dónde puede llegar. ¿Dónde está el fracaso en eso? ¿Dónde está ese invierno hoy? Ambos prácticamente en el olvido o en lo anecdótico, porque así es como se dan las cosas en la historia: nuestros actos dan lugar a actos futuros de generaciones futuras. Similar fué la historia del proyecto GNU, que no pasa un día sin recibir desvalorizaciones de todo tipo pero mientras tanto domina el trabajo en los datacenters de todo el mundo, del mismo modo que Linux es el kernel que más se utiliza en todo el planeta y en todo tipo de dispositivos: pero como la gente sigue usando Windows, entonces se supone que haya sido alguna forma de fracaso. Esa lógica financista y marketinera del capital es alienante, debe ser interpretada como alienante, debe ser criticada: nuestras experiencias e ideas son valiosas, y los fracasos son evaluaciones muy contextuales de contingencias históricas en un contínuo que no se termina.

    Alguien dijo una vez que estábamos en la era de la información: aquí nos permitimos entonces pensar si no es momento de desarrollar nuevos sistemas políticos, sociales, y económicos, con la informática como disciplina de referencia en lugar de la economía. Es, de hecho, lo que está sucediendo en la práctica con el crecimiento de las grandes empresas informáticas y su apropiación de la mediación de todos los aspectos de la vida cotidiana. Y es que no tiene nada de nuevo: son las mismas ideas que llegaba a ver Norbert Wiener en 1948 cuando planteaba a la Cibernética. Él ya vió que la dimensión interdisciplinaria de la Cibernética permitía unificar conceptos para hablar de neuronas o de sistemas solares indistintamente. Él ya vió cómo la gestión de la información es la condición de posibilidad del control de cualquier sistema. Y cuando hablamos de él, en realidad hablamos de muches que comprendieron las mismas cosas ya desde su época.

    Cuando Wiener planteó la Cibernética, etimológicamente la basó en la palabra griega Kybernetes, o Kubernetes, dependiendo la pronunciación y traducción. Es una palabra que describe la acción de manejar el timón de un barco, y que se traduce más o menos indistintamente como “timonear” o “gobernar”. La Cibernética nace, precisamente, reflexionando sobre formas de gobierno de diferentes sistemas. No debería sorprender a nadie que eso termine articulando sistemas de gobierno como Cybersin, que pretendía involucrar en la gestión estatal herramientas que décadas más tarde implementaron las redes sociales y los sistemas de venta online; y eso sucedió con socialismo democrático, un concepto considerado oximorón tanto por capitalistas como por revolucionaries marxistas. Hoy, de hecho, el sistema actual de orquestamiento de Google para controlar datacenters, sucesor de Google Borg, se llama precisamente Kubernetes: que en su documentación tiene el mismo relato etimológico que Wiener planteara en aquel libro de 1948, pero sin embargo no hay una sola mención a él ni a la cibernética que yo haya podido encontrar en la documentación online. ¿Qué creen ustedes? ¿Acaso Google no sabe buscar referencias en internet? Es casi como si Google hubiera preferido tampoco querer quedar pegado a la historia de la Cibernética, del mismo modo que sucedió antes con la gente de inteligencia artificial. Pero tanto Borg como Kubernetes, los sistemas de gestión planetaria de Google, directamente refieren a Cibernética. ¿Necesitan seguir probando si la Cibernética funciona? ¿O nos ponemos a hablar de “fracaso” porque a Allende lo derrocaron?

    Y ahora que hablamos de Google, cabe también una nota sobre las empresas. El discurso de esta tesis tiene un claro sesgo antiempresa, pero en realidad las empresas son una forma de organización legítima, y les empresaries son también gente decente y preocupada por la sociedad: que haya empresas como Microsoft no quiere decir que todas las empresas sean como Microsoft. En otra época del mundo, “empresa” era sinónimo de “proyecto”. Les empresaries, de hecho, suelen ser gente muy bien formada y muy dedicada: la clase de líderes que necesita cualquier organización más o menos sofisticada. El problema por supuesto es la orientación ideológica detrás de esa formación, que dá lugar luego a los horizontes de acción política que ya conocemos: o “generar capital”, o la nada misma. Pero definitivamente cualquier cambio que venga de la mano de la ingeligencia artificial va a requerir que les empresaries presten atención y hasta alcen la voz: si bien les empresaries son minorías, y no precisamente de aquellas típicamente sometidas, su conocimiento de las relaciones sociales y humanas en lo que respecta a producción e intercambio no es ni trivial ni menor, y no podemos hablar de desalienar tapándonos los ojos y oidos a eso.

    Y hablando de minorías y desalienación, además de prestar atención a los criterios de “éxito” o “fracaso” con los que se evalúan las acciones políticas y científicas, estamos en una época donde muchas militancias han logrado corpus teóricos y experienciales que abren muchas puertas a sociedades alternativas pensables. Nuevamente, aquí pusimos foco en el gremio informático y muchos de los problemas que lo atraviezan, pero las crisis sociales y políticas actuales no están solamente mediadas por los fenómenos informáticos. Especialmente, la crisis de legitimidad neoliberal gracias a su premisa de ausencia de alternativas, hace chocar al neoliberalismo con muchos movimientos heterogéneos. Los feminismos plantean nuevas formas de relacionarse entre las personas, a partir de su estudio de los sometimientos a los que las mujeres han debido de adecuarse históricamente para sobrevivir, y allí encontramos argumentos que cuestionan régimen laboral o teoría del valor, dando entonces lugar a legítimos planteos de nuevos sistemas sociales construidos sobre principios diferentes a los del capital. El feminismo a su vez frecuentemente tiene mucha sinergia con otros movimientos, como el neurodivergente: donde este último expone cómo los regímenes de competencia, inteligencia, y exigencia cognitiva, someten a millones de personas en el planeta de manera más bien dogmática, desde el feminismo surge la ética del cuidado que revaloriza otras tareas y relaciones sociales que no pasan por la lógica del capital. Lo mismo sucede con el ambientalismo, cuestionando la relación con el ecosistema, que tiene mucha sinergia con la relación crítica interespecies que plantea el veganismo: críticas incisivas a los sistemas de producción y consumo, que exigen sistemas basados en principios diferentes a los del capital. En la informática, el software libre critica los diferentes mecanismos detrás del conjunto de cosas llamado “propiedad intelectual”, criticando efectivamente así la propiedad privada de los medios de producción y a las barreras sobre el conocimiento científico, en una expecie de híbrido entre marxismo y liberalismo que, encima, surge de mezclar informática con ética en los laboratorios de Inteligencia Artificial del MIT: cualquiera podría apostar a que tal engendro está condenado a la más absoluta marginalidad, y sin embargo aquí estamos, repasando su centralidad en la actualidad y sus éxitos. ¿Cuántos movimientos más hay que no nos llegan porque no tienen publicidad? Pueblos originarios, anticolonialismos, antiracismos, movimientos gremiales de todo tipo, legalismos, cientificismos, movimientos vinculados al arte… ¿Van dimensionando la cantidad de alternativas que realmente hay dando vueltas, a miles de problemas, aunque desde la publicidad se diga que no hay ninguna?

    El trabajo a realizar es encontrar maneras de articular todo eso. El trabajo es buscar en la actualidad y en la historia: como en esta tesis trajimos a la Cibernética para reflexionar sobre la inteligencia artificial, otres van a ir a buscar a trabajos, referentes, ideas, que hoy nos vayan a permitir pensar cómo transformar la realidad. La clave va a ser siempre desalienar. Y la herramienta desalienante por excelencia es la ciencia: pensamiento crítico aplicado al análisis de cómo funciona una realidad que excede siempre a nuestras subjetividades, y que a su vez las nutre y condiciona. Desde allí creamos realidades alternativas posibles que nos permitan organizarnos para transformar la realidad actual que nos toca vivir. Y, planteado de esa manera, la diferencia entre ciencia y política es nula. Pero viviendo en un mundo donde se supone que no hay alternativa, crear alternativas es exactamente una de las tareas más importantes y urgentes.

    Y nadie está nunca desalienade, no completamente: no existe un conocimiento definitivo, último, final, que simplemente se conoce o se desconoce. Todes tenemos una visión fragmentada de la realidad, y así va a ser mientras seamos seres humanos. Cualquiera que plantee conocer la respuesta definitiva a los problemas de la sociedad, miente en principio, y probablemente también se mienta a sí misme. Las cosas que se dicen en esta tesis deben ser también ser discutidas.

    Pero la trampa histórica de la fantasía cientificista desalienante es que requiere un tiempo infinito, que no tenemos. No podemos ponernos a discutir absolutamente todo, leyendo y escuchando y considerando absolutamente todo, porque tenemos una vida cuyas condiciones de sustentabilidad no lo permiten, y porque los temas nos exceden enormemente. Siempre vamos a necesitar creer en algo, en alguien. Siempre vamos a poner foco en alguna que otra particularidad de la realidad que nosotres consideremos suficientemente significativa como para accionar sobre ello. Como aquí nos importan la epistemología, y la política, y la emocionalidad, y la cultura, entonces pusimos foco en la alienación cuando hablamos de impacto de la inteligencia artificial en la sociedad. Y como yo particularmente soy trabajador de la informática, me pareció que parte de la historia reciente de esa disciplina podía ser una base sobre la cuál pensar efectos posibles sobre la sociedad, además de ser la actualidad de la inteligencia artificial una oportunidad para realizar un ejercicio de divulgación. Pero estas son apenas algunas pocas aristas del tema, y van a haber muchas otras. Eso es normal, eso está bien. Está bien incluso ser conservador o conservadora al respecto de estos temas: está bien hacer lecturas desde un lente liberal o marxista, está bien incluso cosas como defender al capitalismo o criticar a la democracia. Esas posturas no son un problema. El problema, en todo caso, es cuando no se reconoce la acriticidad de las mismas: cuando dejamos de reconocer que en alguna medida estamos apostando a lo que confiamos, dejamos de darnos cuenta que en realidad estamos creyendo en algo, y entonces nos convencemos de que tenemos un conocimiento verdadero y revelado que debe ser impuesto. Porque una cosa es que estemos obligados por nuestra materialidad a siempre creer en algo, pero otra cosa muy diferente es que terminemos ejerciendo supremacismos ideológicos.

    Todo esto es pertinente al tema de la inteligencia artificial, porque precisamente la inteligencia artificial nos permite extender nuestro trabajo intelectual a nuevos límites que todavía no veo se perciban en la sociedad general. Estamos muy cerca de lograr cosas como las que hacía Tony Stark en la película: pero en lugar de ponernos a hacer cosas de superhéroes, nos ponemos a automatizar nuestro trabajo intelectual de búsqueda de fuentes, recopilación y comparación de opiniones, construcción de modelos teóricos, y creación de alternativas que permitan resolver los problemas sobre los que nos concentremos. Ya tienen experimentos funcionales: ya pueden ver a ChatGPT respondiendo sobre cualquier tema, o a Copilot escribiendo código a partir de su descripción. ¿Acaso creen que faltan cientos de años para poder preguntarle a una inteligencia artificial cosas más sofisticadas, y que nos respondan con mejor calidad?

    La inteligencia artificial es el camino para superar nuestro régimen laboral sometedor, nuestras limitaciones espacio-temporales intelectuales, nuestros límites para construir sociedades diferentes contemplando toda la extrema complejidad a la que nos enfrentamos. Es, perfectamente, el camino hacia un mundo diferente y mejor. Si algún día logramos bajarle la velocidad al tren de la historia, o siquiera controlar su dirección, muy probablemente vaya a depender de apropiarnos de esto.

    Lamentablemente, los modelos grandes de machine learning requieren de centralización masiva de datos, y al respecto de eso estamos en el peor de los mundos: neoliberalismo hegemónico en decadencia. Si la inteligencia artificial va a ser o no utilizada para revitalizar y sostener al neoliberalismo, es algo que nos excede: aunque ciertamente nos parece un peligro muy verosimil, y tristemente inminente. Y por eso les pedimos que se involucren, que aprendan, que se apropien de la inteligencia artificial, creando y usando las suyas propias que funcionen bajo su control, en lugar de y dándole la espalda a las que propongan empresas como OpenAI. La gente de mi generación, quienes en este momento estamos en la adultez, muy probablente seamos una generación visagra, y es absolutamente crítico intentar intervenir en lo que vaya a ser la herencia de las siguientes generaciones: si la inteligencia artificial llega a ser siquiera una partecita minúscula de lo que creemos que puede ser, el mundo se va a transformar muy rápido una vez más, el tren de la historia va a pegar otra curva muy inclinada, y muchísima gente va a salir volando.

    Dediquen su tiempo a otra cosa que no sean las propuestas de las redes y medios neoliberales. Aprendan a entretenerse aprendiendo, reflexionando, ejercitando su capacidad crítica. Armen otros vínculos que no sean los que proponen esas interfases entre sistemas y entre personas, piensen sus propias interfases y sus propios sistemas.

    Y presten atención a los detalles. ¿Cómo es eso de que las GPUs sirven para inteligencia artificial general? ¿No eran acaso para acelerar tareas sobre matrices? ¿Quiere eso decir que la inteligencia artificial son modelizaciones de problemas y datos en matrices? ¿O sea que si encuentro la manera de hacer eso vinculado a los datos que me interese trabajar, puedo usar la GPU de mi computadora para hacer mis propios modelos de machine learning?

    ¿Por qué las GPUs no son un tema del que se hable en las tapas de los diarios entonces? De hecho, en toda mi vida, no estoy seguro de si escuché una sola vez en los medios alguna discusión sobre cómo se fabrican semiconductores. ¿Ustedes discuten eso con sus amigues? ¿Es un tema frecuente de discusión? Porque desde hace como 50 años casi toda infraestructura de todas las áreas de la praxis humana depende de la fabricación de semiconductores. ¿Saben cuántas fábricas importantes hay de semiconductores? ¿Saben cuántas empresas? Se supone que los semiconductores se hacen con silicio, que a su vez se supone que es básicamente arena. Y todos los paises tienen arena. ¿Cómo es entonces que no tenemos fábricas de semiconductores en todos los paises? ¿Cómo es que no tenemos todes revoluciones tecnológicas como las que se vivieron en Estados Unidos, Japón, o China? ¿En la cabeza de quién entra que ese no sea un tema de actualidad en un mundo donde constantemente nos bombardean con la idea de “economía del conocimiento”? Es casi como si todos los paises del mundo hubieran tirado la toalla en esa discusión. ¿Nosotres tiramos la toalla en esa discusión, o ni siquiera la empezamos?

    Fíjense como preguntas muy sencillas dan rápidamente entrada a la dimensión política de la informática. Fíjense cómo no es necesario un gran trabajo intelectual para encontrar grietas en la propaganda. Ese es el camino para encontrar las alternativas que muches dicen que no existen.

    Pero con todo esto anotado, finalmente cerramos esta corta tesis aunque larguísimo video para los estándares de consumo actuales, con el siguiente consejo. No importa si sos neoliberal o revolucionarie marxista, no importa si sos de derecha o izquierda, si sos obrere o empresarie, si tenés mucho o poco dinero, el color de tu piel y su relación con tu sociedad, si vivís en un país del primer o del tercer mundo, si tu cuerpo se adapta a los estándares hegemónicos de belleza de tu tiempo, cómo te lleves con otras especies, qué pienses del medio ambiente o hagas al respecto, qué relación tengas con la política, con el arte, con la cultura, con la ciencia, no importa quién seas ni quién quieras ser, no importa si pensás que la inteligencia artificial es una moda pasajera o el fín de una época, no importa tampoco si creés que esto termina bien o termina mal, no importa si tenés o no esperanza en el futuro de la humanidad o si lo ves con pesimismo. Cualquiera sea tu caso, el consejo es el mismo: nunca subestimes a la historia.

Este es el texto del video publicado hoy en filosofeels. El texto fue redactado entre el 20 y el 30 del pasado Marzo. Algunas líneas fueron cambiadas a la hora de realizar la grabación, pero fueron cambios mínimos.

Attack on Titan está llegando a su fín, y todo indica que no va a pasar nada bueno en ese final. De hecho, todo indica que va a tener el peor de los finales: genocidio a escala planetaria. Ya veremos eventualmente qué termina sucediendo. Pero de una manera u otra, lo que tenemos hasta acá nos permite pensar algunas cosas que no quisiéramos dejar de anotar, porque nuestro mundo real parece estar necesitando cada día con más urgencia algunas reflexiones. Pero esta vuelta mejor prepárense algunos pochoclos o búsquense algo para acompañar el mate, porque en nuestro afán de no separar algunas cosas relacionadas, el video terminó siendo excepcionalmente largo. Así que sin más preámbulos, arranquemos con este ensayo: Attack on Titan, cuando pase el temblor. Que, por supuesto, está lleno de spoilers.

Parte 1: Memoria

La serie ya se viene estirando por varios años, los giros argumentales son densos, la última temporada se está haciendo más larga de lo prometido, y con todo eso corresponde tal vez un breve resumen para refrescar y dar un poco de contexto.

Esta historia, recordemos, arranca con una escena monstruosa: un titán devorando a la madre del jóven Eren Yaeger mientras él observaba todo. Y no sólo a su madre, sino que los titanes ese día destruyeron su ciudad, y mataron a miles. Pero después resultó que sus propios compatriotas y colegas lo consideraron un monstruo cuando se reveló que él podía convertirse en titán, independientemente de sus acciones; y él pudo eventualmente contemplar sus propios actos monstruosos al recordar que devoró a su padre, aún en una situación más bien inconsciente; además de contemplar los actos monstruosos de su padre, por supuesto. Como si todo eso fuera poco, la razón por la que ese pueblo está aislado del resto del mundo, es porque el resto del mundo los considera monstruos, al punto tal que a les eldianes fuera de la isla no tienen derechos plenos de ciudadanía y hasta directamente les toca vivir en campos de concentración.

Entonces, básicamente, después de años de experiencias y revelaciones una más mortificante que la otra, el mundo resultó ser mucho más complicado de lo que nadie logró entender nunca, quien al principio pareciera ser el héroe finalmente resultó ser más bien villano, y todo el planeta en este momento se debate el curso de acción urgente entre el inminente cataclismo y el infinito conflicto. Y si prestaste atención a esas palabras, probablemente te hayas dado cuenta de que no permiten distinguir Attack on Titan de lo que se lee en las noticias todos los días.

En los premios Crunchyroll del año 2022, Eren fue nominado, al mismo tiempo, a las categorías “mejor protagonista” y “mejor antagonista”. Y es que su historia es complicada. Es igualmente difícil calificar a Eren de “bueno” o “malo”, porque el mundo parece articularse alrededor de que él, su familia, su ciudad, su pueblo, sufran las peores condenas, humillaciones, y sometimientos, por milenios enteros. En definitiva, un mundo monstruoso creó a un monstruo, de modo que ahora no tiene ninguna excusa ni para sorprenderse ni para andar echando culpas a nadie: le pese a quien le pese, las acciones de Eren tienen mucha cuota de “justicia retributiva”.

De modo que Eren está enojado, y ese enojo está plenamente justificado. El tema es que, por razones de la trama, está llevando su legítimo enojo hasta el genocidio mundial, mediante el uso del arma de destrucción masiva que su pueblo tiene preparada desde hace tiempo, y a través de la cuál logró un estado autónomo isolado en constante guerra fría con el resto del planeta: the rumbling, o en español “el retumbar”. Es un arma muy sencilla: millones de titanes humanoides del tamaño de edificios, que al caminar pisotean todo a su paso. Estos titanes son inmortales, se regeneran, no sufren dolor, no tienen mente, no necesitan alimento… básicamente se muestran invencibles. Y Eren ejecutó un plan para lograr obtener el control de tales titanes, de modo tal que pueda utilizarlos para exterminar a todos los enemigos de su pueblo: es decir, a todo ser vivo fuera de la isla de Paradis.

Como mencionábamos sobre les antagonistes de Korra en el video anterior, aunque en este caso mucho más preocupantemente, la audiencia incluye mucha gente que afirma sin dudar “Eren tiene razón”: pero entre “tener razón” y “estar en lo correcto” puede haber una distancia enorme, y Eren es básicamente la encarnación de ese problema; tiene la excusa, y tiene el poder, pero aún ignorando la dimensión ética de lo que está haciendo restan en simultáneo muchas preguntas al respecto de la eficacia de su plan. Todo eso forma parte de acalorados e incansables debates entre millones de personas alrededor de todo el mundo, lo cuál es parte integral del encanto de la serie.

En aquel video contamos un poco cómo ese problema del “tener razón” como lo conocemos hoy en rigor es un invento moderno, momento en el cuál emerge también el concepto de ideología. Y si bien son conceptos con problemas diferentes, en realidad no están tan separados. Aquí esas cuestiones particulares no nos interesan tanto como otra en la que sí pretendemos ahondar. Y es que ese “tener razón” es una consecuencia de algo anterior, y no es la única.

Así como Eren y compañía luchan contra los titanes, desde tiempos inmemoriales la humanidad en su conjunto lucha contra algunos enemigos en común a todas las generaciones y todos los pueblos. La enfermedad, el hambre, o la muerte, son algunos de esos monstruos incansables e invencibles que acosan a civilizaciones enteras. Algunos de ellos son de orden enteramente humanos, tales como la pobreza o la violencia; e incluso entre ellos los hay de menor embergadura, como pueden serlo el fracaso o la humillación. Pero en todo caso, esa clase de enemigos no-tan-metafísicos están siempre presentes en la vida humana de una u otra manera. Se tratan de manifestaciones de nuestras propias limitaciones: físicas, intelectuales, históricas. Son constantes recordatorios de nuestra propia fragilidad y temporalidad; nuestra, y de nuestres seres querides. Y alrededor de ellas construimos cosmovisiones y articulamos formas posibles de llevar adelante la vida: religiones, ideologías, sistemas sociales. Todas esas creaciones históricas están directamente condicionadas por el cómo entendemos al mundo: y es allí donde residen también sus límites.

No es lo mismo entender que los cuerpos celestes son dioses perfectos rigiendo su voluntad sobre toda la creación, a entender que son objetos físicos más bien inertes y sometidos a fuerzas que los hacen interactuar de modos predecibles. No es lo mismo entender que el mundo tiene algunos miles de años de acuerdo a algún relato que le da coherencia a una lectura como esa, a entender que tiene millones de años de edad de acuerdo a características que interpretamos de la composición de los minerales del planeta y la luz en el cosmos. No es lo mismo entender a la vida como la manifestación de un alma inmortal en un cuerpo transitorio, a entender la vida como sistemas complejos de componentes múltiples e inter-relacionados. Etcétera. No es lo mismo, porque no tienen las mismas consecuencias en el cómo nos comportamos más tarde cuando integramos esas ideas a nuestro quehacer cotidiano. Todo ello da lugar a diferentes formas de explicar nuestra relación con el universo, nuestro lugar en el mundo, y nuestros horizontes tanto de acción como de futuros posibles.

Por momentos explicar esto se siente francamente como decir en voz alta verdades sobre-entendidas y más bien evidentes. Pero lamentablemente el mundo parece indicar que ese no es el caso, ya desde hace unas cuantas décadas, cuando no directamente siglos. Todo el siglo XX fue escenario de manifestación tras manifestación de declamaciones solemnes acerca de cómo habíamos llegado a encontrar la explicación definitiva y única para el ser humano, la sociedad, y todo lo demás; y al mismo tiempo, una y otra y otra vez pudimos ver los más desgarradores conflictos, las escenas de deshumanización más espeluznantes, y las crisis más aterradoras, de las que se tenga registro: peor incluso que en el medioevo o la antigüedad.

La libertad, el orden, la seguridad, la historia, la raza, los intereses de clase, el género, la voluntad de Dios, la familia; todos totems o ídolos que parecen irradiar las incansables consignas “esta es la medida del ser humano”, “este es el orden verdadero”, “esta es la única justicia”, “este es el pueblo elegido”. Y el problema no es qué tanta cuota de verdad o falsedad puedan manejar esas ideas, sino que casi unánimemente se presentan de la mano de la siguiente: “cualquier otro camino conduce al inevitable desastre”.

El colmo de esto comenzó en la década de 1970, cuando en el contexto de dos crísis energéticas emergió un avatar del neoliberalismo en Margaret Thatcher, y le dejó al mundo la consigna de la globalización económica, política, y cultural: “no hay alternativa”; o “TINA”, por sus siglas en inglés para “there is no alternative”. Y ese colmo que comenzó con Thatcher y su “TINA” en los 70’s finalizó en los primeros años de los 90’s con la caida del muro de Berlín y el colapso de la Unión Soviética, frente a lo cuál un pensador estadounidense declamó haber llegado un momento anteriormente pensado por muches otres pensadores y pensadoras: el fín de la historia. Por supuesto que a pesar de ese señor la historia sigue, y aquí estamos hoy, año 2022, mientras grabamos estas palabras, pendientes de si no nos toca vivir una tercera guerra mundial. E incluso cuando es evidente que el mundo se vuelve cada vez más insostenible año tras año, aquel “no hay alternativa” de Thatcher parece continuar siendo el slogan de miles de millones de personas, y hasta se continúa insistiendo en que el problema a resolver son las desviaciones de aquella aventura globalizadora.

Este sesgo ideológico mundial manifesto en la “TINA” fue analizado en un célebre libro de Mark Fisher llamado “realismo capitalista”: título que a su vez es el concepto con el que engloba la cosmovisión dominante de nuestra actualidad, y que surge del análisis de diferentes eventos históricos y culturales a modo de proceso de diagnóstico. Allí, Fisher describe cómo la ideología imperante se extiende hasta los más íntimos rincones de nuestro aparato insconsciente para lograr hacernos pensar que el aceptar nuestra realidad actual como inevitable e imposible de cambiar, aún con sus evidentes y miserables fracasos empíricos e inconsistencias teóricas, es “ser realista”. Y también de allí se viralizó una frase atribuída a diferentes pensadores, que básicamente dice lo siguiente: “pareciera ser más fácil imaginar el fín del mundo que el fín del capitalismo”.

¿A qué viene todo esto? Sucede que Eren activando el retumbar en Attack on Titan dejó algunas líneas de debate muy intensas en la comunidad de lectores, porque en definitiva parece que al final la explicación es más bien críptica, fraccionaria, o bien directamente polémica, dando lugar a diversas interpretaciones. Lógicamente, muchas de esas interpretaciones argumentan desde el plano ético, que es uno de los enormes problemas involucrados. Pero una de las líneas de debate más intensas está en el detalle de si activar el retumbar fue en realidad un acto necesario, lo cuál más allá de la respuesta está atravezado por diferentes puntos de vista.

Por ejemplo, hay quienes afirman que activar el retumbar estuvo determinado por la relación que mantuvo Eren con la idea de libertad frente al resto del mundo, algo explorado en las primeras temporadas. Otra gente articula que el retumbar se trató de una estrategia exclusivamente militar, determinada por los detalles del conflicto geopolítico en el que se encontraba Paradis, y el análisis de las consecuencias a corto y mediano plazo. Otras personas afirman que el retumbar no tuvo nada qué ver con la voluntad de Eren, sino con la de Ymir, que controló los eventos del mismo modo que se le atribuye control a Eren pero con sus propios intereses. E incluso existen personas que sostienen argumentos alrededor de la determinación temporal, y el cómo eso indica una lógica de inevitabilidad del curso de la historia: es decir, un destino. Lo concreto es que existen esas y otras interpretaciones, que les invitamos a leer por internet, siendo reddit un buen lugar para comenzar en términos de variedad y cantidad de argumentos.

Aquí nosotros vamos a tomar una postura más bien integradora, dando lugar a una mezcla de todas aquellas interpretaciones, y a otras agregadas por nosotres. Pero trajimos también a gente como Fisher o Thatcher, no sólo porque vamos a argumentar en contra de la inevitabilidad del retumbar, sino porque las experiencias planteadas en Attack on Titan se están utilizando para especular interpretaciones vinculadas a eventos de la vida real, tanto históricos como vigentes; y muy especialmente se utilizan para conjeturar justificaciones para el uso de la violencia como herramienta política en diferentes escenarios. Para ello, “realismo capitalista” y el TINA van a ser nuestro vínculo con la realidad actual.

Parte 2: verdad

Comencemos entonces nuestro análisis prestando un poco de atención a Eren, que entre los eventos de la tercera temporada y la cuarta cambió profundamente y de manera muy abrupta. Un día Eren era un jóven motivado a exterminar a los titanes y pelear por sus amigues; apasionado a su manera, aunque con muchas dudas al respecto de cómo realizar cualquiera de aquellas acciones, en buena medida las primeras tres temporadas exploran eso en detalle, y Eren continuaba su desarrollo mucho más a fuerza de convicción que de grandes virtudes. Pero luego de las revelaciones de la cuarta temporada, de repente Eren pasó a ser un jóven adulto muy sobrio, callado, y de semblante entre resignado y pesimista: un aspecto depresivo, que rápidamente llegaba hasta el nihilismo en las pocas veces que pasaba a expresar sus ideas, y cuyo único verdadero factor de alteración de ese estado parecían ser sus propias demostraciones del más violento odio. Eren pasó en unos pocos episodios a verse de jóven profundamente estimulado por el afán de venganza y libertad a una especie de resignado sin pasión por nada.

Aquí es donde nos viene bien una primera y pequeña cita a Fisher. Sucede que una de las líneas de análisis sobre las acciones de Eren atravieza la posibilidad de un verdadero estado depresivo en términos clínicos, con todo lo que eso implica. Hay quienes especulan, por ejemplo, que la revelación de un mundo muy diferente al que conocía fue una crisis catastrófica para su sistema de valores, en especial de cara a sus ideas juveniles de libertad. Otres leen cuestiones parecidas, pero más vinculadas a la experiencia de los poderes del titán de ataque y el camino de Ymir, determinándolo inexorablemente, y dejando su subjetividad en un segundo o hasta tercer plano. Los argumentos pueden ser muchos, pero la lectura concreta de una depresión es verosimil.

De hecho, hay una línea más de lectura vinculada a la depresión, que se encuentra en el opening mismo de la última temporada. La animación muestra la dramática historia de Eren en recuerdos y collages, mientras la canción del opening, que se llama “the rumbling” o “el retumbar”, articula en clave de black metal lo que parecen ser algunos de sus tortuosos pensamientos. Por un lado, un coro épico dice a los gritos “se viene el retumbar”, y un señor muy enojado te dice con voz furiosa y desencadenada: “¡cuidado! ¡viene por vos!”, no se entiende bien si como advertencia o amenaza. Pero también repasa la historia de Eren, con frases como las siguientes, que me permito traducir rápida y más o menos literalmente. “Todo lo que siempre quise fue hacer lo correcto, ¡lo juro!”, “nunca quise ser rey, ¡lo juro!”. “Yo solamente quería salvar tu vida, nunca quise agarrar un cuchillo”. “Ya no me quedan lágrimas, ya no tengo más miedo: estoy en llamas”. “¿Me hablás de cosas de las que no me doy cuenta? Es porque seguís merodeando en la niebla”. “Y si lo pierdo todo, si llego a resbalar y caerme, no voy a mirar para otro lado”. “Ya no quiero nada: estoy acá simplemente para el retumbar”.

Con eso en cuenta, todo indica que su determinación no tiene vuelta atrás. Pero si intrepretamos su oscuro fatalismo como clínicamente depresivo, Fisher hace algunas notas muy interesantes vinculadas a los efectos de inevitabilidad que se implican en la depresión. Y cito:

<< Una diferencia entre la tristeza y la depresión es que, mientras la tristeza se autoreconoce como un estado de cosas transitorio y contingente, la depresión se presenta como necesaria e interminable: las superficies glaciales del mundo de un depresivo se extienden a todos los horizontes imaginables. En la profundidad de la enfermedad, el depresivo no reconoce su melancolía como anormal o patológica: la seguridad de que toda acción es inútil y de que detrás de la apariencia de la virtud sólo hay venalidad golpea a quienes sufren de depresión como una verdad que ellos han descubierto, pero que los otros están demasiado engañados como para reconocer. Existe una clara relación entre el "realismo" aparente del depresivo, con sus expectativas tremendamente bajas, y el realismo capitalista. >>

Más allá de jugar a la psicología, donde yo psicólogo no soy y más vale dejarlo claro, ciertamente Eren tiene todo servido para experimentar un estado depresivo. Su historia es espantosa y brutal, y cada pequeña revelación sobre el estado de cosas en el mundo sólo logró empeorar una vida que le propuso casi exclusivamente crueldad. ¿Y a quién podría extrañarle que, con esa historia, termine siendo cruel él mismo? Cualquiera que haya atravezado un estado depresivo alguna vez sabe que se trata de, entre otras cosas, un estado de profunda crueldad: para con uno mismo, y en definitiva también para les demás, que entre otros efectos se encuentran frecuentemente impotentes de poder intervenir para ayudar.

Pero atención, que Eren en realidad también siempre mostró un vector de acción muy poderoso, que de hecho suele ser un popular recurso cuasi-terapéutico contra la depresión: el enojo. Eren está profundamente enojado, y como mencionara antes en su descripción parece ser lo único que altera ese estado depresivo que venimos interpretando; tanto es así, que de hecho logra quebrar lo que parece ser un estado similar pero con 2000 años de duración, en Ymir. Y desde el enojo, esas expectativas “tremendamente bajas” que menciona Fisher no sólo no parecen ser tan así, sino que más bien diría que son bastante ambiciosas: alterar el orden mundial en lo inmediato, lo cuál sería tildado de fantasioso por el realismo capitalista. Algo aquí no parece coincidir con lo que dice Fisher sobre la depresión.

Mientras pensábamos eso, una de las maneras que se nos ocurrió para explorarlo fue comparar al Eren dolido y furioso de la canción del opening, con algún otro personaje de alguna otra canción. Y así fue que elegimos esta canción muy popular en latinoamérica, en principio apenas relacionada a la cuestión meramente por una familiaridad semántica en el nombre: “cuando pase el temblor”. Y dice cosas como las siguientes: “Estoy sentado en un cráter desierto; sigo aguardando el temblor en mi cuerpo. Nadie me vio partir, lo sé: nadie me espera. Hay una grieta en mi corazón, un planeta con desilusión. Sé que te encontraré en esas ruinas, ya no tendremos que hablar y hablar del temblor. Te besaré en el templo, lo sé, será un buen momento. Despiértame cuando pase el temblor”.

Hubo todo un debate alrededor de a qué “temblor” se refiere esa letra de 1985, y recurrentemente fue asociada a diferentes eventos. Gustavo Cerati aclaró en entrevistas que estuvo fuertemente influenciada por el entonces reciente terremoto de México, pero esa letra fue asociada también a muchos eventos trágicos de la historia latinoamericana: como ser dictaduras militares, siendo el estribillo “despiértame cuando pase el temblor” una especie de canto por la paz, y definiendo a “el temblor” como algo que claramente nadie quiere vivir.

Por ejemplo, Charly Alberti contó una vez que en Chile, cuando Soda Stereo tocó esta canción, la gente entre el público cantaba que finalmente se había terminado la dictadura de Pinochet; y aunque apenas sea una accidente semántico, en las protestas masivas del 2019 contra el neoliberalismo la gente en Chile se unía curiosamente al grito de “Chile despertó”. Esas metáforas de somnoliencia, aún cuando accidentales al relacionarlas entre canciones, no son inocuas. Comparen sino el “despiértame cuando pase el temblor” con el “wake me up when september ends” que Green Day compuso luego del atentado a las torres gemelas, y la accidentalidad parece cada vez menos incuestionable. Y esas ganas de “dormir”, de que a une le despierten cuando la parte insoportable de la vida real ya haya terminado, definitivamente no tiene nada de accidental cuando hablamos de depresión.

Ciertamente, si continuamos aquella comparación de Eren contra la depresión según Fisher, en conjunto con “cuando pase el temblor”, podríamos decir que esa hipotética y verosimil depresión claramente no sería la única condición en su comportamiento. Porque la canción de Soda Stereo también parece hablar de un estado depresivo y hasta alguna forma de inevitabilidad, pero en ningún momento indica ninguna ira sino más bien algo cercano a lo contrario. La justificadísima furia de Eren parece ser algo que escapa al planteo de inevitabilidad a partir del cuadro depresivo, especialmente cuando se empiezan a contrastar ejemplos de otras posibles escenas ciertamente depresivas pero donde les actores terminan eligiendo otras vías de acción. Pero el hecho de que esté justificada es, al mismo tiempo, un condicionante tan poderoso para la ira de Eren, que en este caso cuesta imaginar un camino alternativo para su estado mental, de deprimido a furioso: y si es tan difícil de imaginar esa alternativa, no sería deshonesto afirmar que no hay alternativa.

Tampoco es que “depresión” deba ser la única explicación para el comporamiento de Eren ni mucho menos, como bien aclaramos antes. Sin embargo, además de ser una hipótesis popular, lo cierto es que el resto de la descripción de Fisher parece perfectamente adecuada a Eren, y la ira pareciera ser el único cabo suelto. Además, emociones como la desesperación, la ausencia de poder, o la completa falta de fé, son básicamente el escenario de rutina episodio tras episodio: la depresión es una presencia tan constante como la muerte, y ciertamente la serie dice muchas cosas al respecto.

Todo esto hace que mucha gente lea en Attack on Titan una reivindicación del uso de la violencia; un poco por catártica, otro poco por honrar aquella ira con fundamento legítimo, con todo lo que ello implica. Pero también la violencia es articulada como el único curso de acción “realista” (entre comillas), teniendo en cuenta no sólo las condiciones subjetivas de Eren sino también el contexto geopolítico, donde se mostraba muy pero muy difícil de sostener el aislamiento de Paradis, o siquiera a los titanes como herramienta de disuación. Coherentemente con todo eso, en la violencia parece poder encontrarse una clave para romper con el círculo depresivo “realista” del que habla Fisher.

Y ciertamente mucha gente parece encontrar seductora a esa vía argumental. Pero aquí vamos a apuntar a otra cosa que nos parece mucho más interesante que el proponer violencia.

Sucede que uno de los componentes ideológicos fundamentales del realismo capitalista es el neoliberalismo, en todas sus dimensiones: económica, cultural, epistémica, y demás. Pero curiosamente, el neoliberalismo le propone al ser humano una situación contradictoria. Por un lado, “no hay alternativa”, al menos en términos de estructura económica y social, y eso está más que claro. Pero al mismo tiempo, se supone que una persona llegue a la riqueza a fuerza de mérito, y al caso los ejemplos parecen ser siempre personas que tienen tanta riqueza que finalmente determinan cambios en la estructura económica y social. Es casi como si en realidad sugiriera juntar poder para efectivamente cambiar algo.

Desde Henry Ford hasta Elon Musk o Jeff Bezos, hay un montón de personajes para elegir, pero siempre resultan avatares de gente con demasiado poder sobre la sociedad en general, que efectivamente dejan sus marcas en la historia, y todo eso en virtud de la riqueza que hipotéticamente supieron conseguir gracias a sus visionarias ideas.

Ciertamente el empresariado se atribuye a sí mismo cualquier cambio social positivo por lo menos desde el siglo XIX, y el discurso típico es que en la competencia capitalista está el vector de desarrollo de las sociedades. Y la parte contradictoria para el TINA de Thatcher es: si se tiene tanto poder sobre la sociedad, ¿para qué otra cosa puede servir ese poder, sino para decidir entre el cambiar la sociedad o continuarla como está? Y nótese que no hablo de “poder para superar al neoliberalismo” ni nada por el estilo, sino simplemente de una posición contradictoria frente a la idea de que “no se puede hacer nada”, o siquiera un análogo “no hay nada qué hacer”.

El punto de esta aparente contradicción es que el TINA es mucho más un condicionante, si se quiere incluso inconsciente, del uso del poder, antes que una propuesta de orden particular. Básicamente, TINA no te dice que no tengas poder, sino que lo “uses bien”; no sea cosa que vayas a “mal usarlo” en alguna alternativa. Y esto es otro punto de contacto entre nuestro realismo capitalista y las cosas que vive Eren.

Al principio de Attack on Titan, claramente la pregunta era qué poder podría combatir a los titantes, que regían el orden social y cualquier forma de vida posible; y atado a eso, estaba el concepto mismo de libertad, en ese “más allá de la muralla” que llegado el momento resultó muchísimo más complicado de lo que nadie imaginaba. En aquel momento, ni Eren ni nadie parecía tener ningún poder frente a los titanes, que regían al mundo con crueldad antihumana. Mientras que al final, Eren termina teniendo demasiado poder, y lo aplica sobre el mundo con crueldad antihumana. Y si Eren no hubiera hecho eso, Paradis muy probablemente hubiera sido sometido con crueldad antihumana. Ciertamente, así planteado, no hay alternativa a la crueldad antihumana, en sutil sintonía con el ethos neoliberal.

Y es doblemente curioso que luego de activar el retumbar, la gran mayoría de los debates terminan yendo hacia la cuestión ética de si está bien usar un poder como ese, o hacia la cuestión pragmática de si usando ese poder en rigor cambió algo para bien. Es decir que en definitiva siempre queda cuestionado el poder de transformar la sociedad, y a traves de ello la posibilidad misma de transformarla en sí. Con lo cuál, sucede un “no hay alternativa” de-facto, que mucho antes de “no se puede hacer nada” más bien implica un realista “no esperes un final felíz”: porque si bien podés llegar a hacer algo, ese algo nunca va a terminar bien.

No sorprende que en esas extrañas coincidencias la cuestión de la posible inevitabilidad en Attack on Titan sea un debate proyectable a la realidad. Y ni siquiera son las únicas. Lo concreto es que TINA es efectivamente deprimente, tal y como intuye Fisher, y tal y como se experimenta en el mundo de Attack on Titan. Es deprimente por lo que hace su pesimismo patológico con nuestra voluntad y nuestras fantasías de cualquier posible mundo mejor. Es deprimente porque nos exije que nos sometamos a una serie de reglas que no elegimos, que no queremos, y que sabemos muy bien que es falso que sean las únicas o las mejores: cuestiona hasta nulificar cualquier poder que tengamos para efectivamente hacer algo al respecto. Y es especialmente deprimente, además, porque nos dice que todo eso que nos hace padecer, se llama “libertad”. Mucho peor todavía que el neoliberalismo es la profunda y cruel injusticia del TINA. Y si se lo mira con ese lente, lo que le pasa a Eren y sus amigues es tranquilamente una escenificación bastante fiel de lo que nos pasa a millones de nosotres.

No creo sin embargo que Attack on Titan se pretenda una apología de la violencia, independientemente de si el retumbar era o no inevitable. Más bien, en realidad parece querer advertir sobre los ciclos de odio y contraodio que, según la trama, parecieran ser la fuerza que articula los pistones en el motor de la historia. Lo concreto es que Eren no escenifica lo mismo que Gabi, aún cuando es claro que los personajes son constantemente comparados incluso dentro de la serie, dando lugar a entender que en realidad sí hay alternativa. Attack on Titan es mucho más alarmista que pesimista. Y si bien celebramos los debates a los que está dando lugar, lamentablemente también consideramos que las herramientas que eligió para plantear sus ideas son problemáticas, y por eso muchos “malos entendidos” son tristemente interpretaciones legítimas.

Y cerrando esta parte explorativa del ensayo, donde comparamos algunas cosas para hilar algún sentido, ahora vamos a pasar a otra más crítica donde vamos a exponer lo que pensamos, y el mensaje que pretendemos extraer de la serie. Para eso, nos tenemos que concentrar ya no tanto en las virtudes de estos trabajos, sino en sus defectos. Y concretamente uno muy particular.

Hace minutos mencionamos cómo las diferentes formas de ver al mundo cambian necesariamente nuestra forma de pensar y de adecuarnos a él, y casi sospechábamos de que fuera una verdad demasiado evidente. Y, por lejos, la ciencia es la actividad más revolucionaria en lo que respecta a “entender al mundo de otra manera”, y algunos ejemplos claros también ya mencionamos. Sin embargo, aún cuando tal vez sea tan evidente al pensarlo brevemente, ¿cómo se justifica que, ni en ficciones tan lúcidas como Attack on Titan, ni en textos tan influyentes como Realismo Capitalista, la ciencia parezca tener lugar alguno?

Y aquí tal vez valga una aclaración. La definición de “ciencia” es importante, y nosotres tomamos una definición amplia: filosofar, indagar, y muchas otras actividades de orden más bien cotidiano aquí las consideramos como legítimamente científicas. Pero ya vamos a retomar eso; el punto sobre el que ahora pretendemos llamar la atención es que por momentos pareciera que la ciencia no fuera parte integral de nuestra cultura: apenas tal vez algún apéndice menor de otras cosas mucho más trascendentes, o incluso algo elevado y lejano para nosotres personas comunes y corrientes. Y eso, tristemente, no es un accidente, sino otra de las tantas injusticias a las que el neoliberalismo, el TINA, y en definitiva el realismo capitalista, nos someten.

Parte 3: Justicia

El libro de Fisher es realmente muy lúcido y agudo en su análisis de nuestra actualidad ideológica, y Attack on Titan es muy minucioso y verosimil en su articulación y descripción de personajes. Ambas son, a su manera, dos obras muy celebradas, que entran en contacto de diversas formas cuando se trata de entender nuestra realidad contemporánea. Pero a su vez, curiosa y muy significativamente, ambas pecan de la misma notoria omisión frente a uno de los más importantes vectores de influencia histórica y transformación radical de la sociedad, que es la ciencia.

Y cuando nos preguntamos por la ciencia en Attack on Titan, que es uno de los factores más determinantes en el curso de nuestra historia real, y lo es especialmente en el momento histórico que plantea la trama, empiezan a aparecer un montón de situaciones extrañas, difíciles de explicar. Para explorar esto, en simultáneo vamos a tener que aclarar algunas ideas sobre la ciencia en general, y sobre su historia.

Si pensamos hoy en día en “ciencia”, típicamente lo asociamos a “tecnología”. O bien a la imagen de un señor o una señora con delantal blanco y tubos de ensayo, probablemente con un pizarrón lleno de ecuaciones detrás. Hablamos de “los avances de la ciencia” cuando de repente aparece una tecnología nueva, o cuando superamos algún límite histórico y épico como puede ser el llegar a Marte. O bien incluso frecuentemente cuando se curan enfermedades, entendiendo de inmediato en esos casos a la medicina como otro de los espacios de acción humana regido por “la ciencia”. Confío en que estemos más o menos de acuerdo que nuestro preconcepto contemporáneo de ciencia nos guía por esas ideas, o al menos en que es verosímil que ese sea el caso en las sociedades en general. Quedémonos con esa idea de ciencia por un minuto, y volvamos a Attack on Titan.

La gente de Attack on Titan padece todas las cosas que padecimos en nuestro siglo XX, y algunas más. Esa gente es básicamente idéntica a la de nuestra realidad, y las divergencias importantes son más bien a nivel mundo: cosas que sucedieron en la ficción, pero no en nuestra realidad, y viceversa. Claramente, la divergencia principal es toda esa historia alrededor de Ymir y los titanes, cosa que nunca sucedió en nuestro mundo, y de allí se disparan muchos eventos. Pero eso no quita que igualmente ese mundo es muy similar al nuestro durante finales del siglo XIX y principios del siglo XX, con detalles hasta prácticamente calcados.

Uno de esos detalles es el desarrollo tecnológico. Podemos encontrar frecuentemente ingeniería, por ejemplo, especialmente durante la última temporada. Aunque en realidad ya desde el principio tienen desarrollados esos aparatos para moverse al estilo spiderman, y en la trama son bastante claros en que funcionan a base de gas. También se pueden ver algunas barcazas con lo que parecen ser motores a vapor, y eventualmente en la cuarta temporada aparecen los dirigibles. Claramente le prestaron atención a los gases, y es difícil imaginar que lleguen a semejante calidad de desarrollo tecnológico sin tener desarrolladas las bases de alguna forma de disciplina científica equivalente a nuestra neumática. La neumática comparte con la hidráulica buena parte de su corpus teórico, cosa que pueden confirmar muy rápidamente escribiendo “ecuación de Bernoulli” en su buscador online favorito. Y a su vez, ese corpus teórico está basado en matemáticas, que es una herramienta compartida en todas las ciencias exactas, y no tan exactas también.

No es la única tecnología que tienen. Muestran también desde el principio tecnología medieval con grandes compuertas y el uso de poleas y reducciones. También desde el principio tienen armas de fuego, que aún cuando no tan avanzadas funcionan siempre a base de explosiones controladas. Todo eso no es pensable sin algún control de metalurgia, resistencia de materiales, y nuevamente matemáticas. No cualquier aleación soporta una explosión tal que un disparo se ejecute sin efectos colaterales, ni tampoco se pueden crear grandes cadenas y poleas y mecanismos sin estudiar los detalles de proyectar esos diseños a escala en términos de fuerzas involucradas.

Lo mismo sucede cuando más tarde aparecen representantes Azumabito ofreciéndole un prototipo de avión a Paradis: ya no un dispositivo con motor a vapor, sino que se menciona utiliza ciertas piedras como forma de energía, seguramente vía combustión. Y en el discurso de Tibur en Marley, donde se declara la guerra, claramente se pueden apreciar luces eléctricas y el uso de radio, lo cuál requiere una gestión de la energía y una abstracción de las fuerzas del universo mucho más sofisticada, así como también mucha más matemática.

En principio, nada de eso parece ser un tema ni remotamente periférico dentro de Attack on Titan. No parece haber discusiones al respecto entre personajes, no parece haber gente utilizando esos conocimientos explícitamente, y no parece haber nadie que diga cosas como “pretendo ir a la universidad”: el conocimiento científico no es un tema en absoluto. Electricidad y radio implican alguna forma de teoría atómica, coherentemente con el momento histórico, que ya sabemos en qué derivó en un contexto de carrera armamentística. Carrera que gentilmente exponen en la trama cómo Marley la atravieza. O sea que no deberían ser cosas que no le importen a nadie, sino más bien todo lo contrario: todas las potencias deberían estar acaparando científiques, tal y como sucedió en nuestra segunda guerra mundial. Es muy extraño que con tanto nivel de detalle hayan excluido esto, y en Attack on Titan casi que no pareciera pensable aquella idea de gente con delantal y tubos de ensayo.

Del mismo modo, volvamos algunos pasos para atrás, y en lugar de pensar tanto en tecnología pensemos en medicina. Las dos grandes guerras es el momento donde se descubre y desarrolla la penicilina. Para ese entonces ya se estudiaba hacía rato la sangre, y ya estaba establecida la teoría de gérmenes como explicación canónica detrás de enfermedades e infecciones. Y, de hecho, ya había vacunación. Esto queda, una vez más, gentilmente expuesto en la serie, en el hecho de que Marley inyectaba un suero a sus presos y presas políticos, para transformarles en titanes: de eso a estudiar la condición titán en la sangre, hay apenas un paso.

Pero la cuestión medicinal de la ciencia no termina ahí. Cuando se habla de “ciencia” en conjunto con “medicina”, lo que se implica es una comprensión muy precisa de algunos mecanismos detrás de lo que llamamos “vida”. Un ejemplo claro de esos mecanismos a estudiar es uno que aparece una y otra y otra vez en la serie, que es la herencia. La condición titán se hereda, la sangre del linaje real es importante, y demás detalles como esos llevan muy rápidamente a la pregunta: por qué. ¿Por qué se hereda? Por qué se hereda cualquier otra característica, llegado el caso. Y si revisan la historia de esa pregunta en nuestro mundo real, van a cruzarse con gente como Darwin o Mendel haciendo cosas muy diferentes para explicarlas. También se van a encontrar con que esas cosas no se estudian solamente en el contexto de la medicina, sino que hay otros. Vayan y observen sino los desafíos que se enfrentaron intentando solucionar problemas de alimentación, tratando de adecuar plantas comestibles a entornos hostiles, o incluso calibrando generación tras generación la evolución de plantas alimenticias para aumentar su rendimiento y calidad. La historia de la biología, ya no estrictamente medicinal, es también una historia científica que tuvo páginas muy importantes en el momento histórico que refleja Attack on Titan.

2000 años de herencia titánica, claramente estudiada en algún grado y cuidada por sus actores, claramente sistematizada hasta el nivel biologicista mediante el uso de jeringas, pero luego dejada en eso como si ya estuviera todo dicho al respecto, es desconcertante. Es de hecho muy difícil de imaginar que una cura a la condición titán no estuviera siendo desarrollada, ya no por el caso obvio de eldianes en Marley o Paradis por los sometimientos que la titanidad les hace vivir, sino incluso por los pueblos enemigos de Marley como parte de su carrera armamentística. Es absolutamente inverosimil que nadie, en todo el planeta, se ponga a pensar en los pormenores de lo que es básicamente la bomba atómica de ese mundo; más bien deberían haber tenido un progreso tecnológico y científico mundial alrededor de cómo curar la condición titán, o al menos ese debería ser el caso obvio durante una carrera armamentística, además de hacer cañones más grandes. Pero nuevamente, nada de eso forma parte de Attack on Titan.

Observen estas dos imágenes, claramente de inmediato familiares con Attack on Titan, presentando ejércitos que enfrentan enemigos gigantes monstruosos. Ambas son del año 1831, y corresponden a representaciones de la llegada del Cólera a Europa: la misma Europa entre el siglo XIX y XX que parece querer reflejar la serie. Así se veía a las enfermedades por aquel entonces en el mundo real, y muy rápidamente parecen indicar que no se arregla con rifles y cañones. Attack on Titan tenía servido el ir hacia un planteo de enfermedad titán, y de hecho hasta que casi coquetearon con la idea al involucrar esa criatura que se encuentra Ymir en un pozo de agua del mismo modo que une se encuentra con el cólera. Pero siendo tan minuciosa y detallista la serie, es difícil imaginar que este detalle se le pudiera haber escapado. Con lo cuál la hipótesis que sostenemos acá es que sencillamente en algún momento cambiaron de opinión, por la razón que sea, y activamente le escaparon a ese planteo. Las razones de ello pueden ser muchas, pero si la enfermedad titán era un argumento que querían evitar, lo concreto es que la presencia de la ciencia para el escritor de la serie era un problema más que una solución.

Usualmente, cuando articulo esta clase de argumentos, siempre hay alguien que me responde con un concepto ya clásico de crítica artística: suspensión de la incredulidad. Básicamente se supone que temporalmente dejemos de ser tan críticos con la lógica interna de las obras artísticas, porque el objeto de las mismas no pasa tanto por ese aspecto del relato como por su capacidad catártica a nivel sentimental. Lo cuál está muy bien, y la suspensión de la incredulidad es tan útil como cierta: si nos ponemos a revisar cada pequeño detalle (ya dije, por ejemplo, que esta gente de la europa feudal se mueve como spiderman) y a pensar el “cómo deberían ser realmente”, la verdad que cualquier ficción se vuelve una enorme pérdida de tiempo. Sin embargo, los problemas con eso empiezan cuando la ficción se utiliza como puente para entender la realidad, y eso es muy especialmente el caso cuando la ficción parece pretender que ese fuera su rol. De modo que con Attack on Titan tenemos bastantes razones para dejar de suspender nuestra incredulidad, y criticar la ausencia de la ciencia ciertamente corresponde.

Pero esa ausencia no solamente se puede comparar contra la realidad. Si observan nuestro video anterior, allí se aprecia que Legend of Korra también se concentró en el mismo momento histórico y su drástico cambio generacional, pero de diferente manera. Legend of Korra no le escapa a la ciencia del momento, aún cuando introduce elementos misticistas o hasta de ciencia ficción: vemos por ejemplo fire benders trabajando en usinas eléctricas, la radio y el avión son instrumentales en la comunicación masiva, y hasta tiene representación Henry Ford, todo eso sin el menor detrimento para la trama espiritual o divina. ¿Se imaginan, por ejemplo, que alguien haya puesto titanes a generar energía? Piénsenlo un segundo: se regeneran, son inmortales, no necesitan comer para sobrevivir… ¡Pónganlos a correr en una cinta, y tienen energía infinita para explotar al máximo sus fábricas! ¡La gestión energética también es carrera armamentística! Y cuando no están en guerra, es competencia comercial e ideológica. Todo eso es especialmente extraño en su ausencia cuando recordamos que ya tienen electricidad en Attack on Titan.

Otros personajes con perfil científico salidos de otras ficciones hubieran hecho cosas muy pero muy diferentes a las hipotéticamente inevitables que sucedieron en Attack on Titan. Imaginen por ejemplo un Lex Luthor. Ese personaje es un ser humano sin ningún superpoder en un mundo lleno de gente con superpoderes, que encima desafía al más poderoso de todos. Y lo hace a base de convicción e intelecto. Luthor es especialista en explotar cabos sueltos a su favor, y no tienen ningún problema en ser todo lo cruel que sea necesario. Luthor en el mundo de Attack on Titan seguramente hubiera explorado los detalles de los Ackerman, y usaría cualquier ventaja que encontrara para crear un poder político que le permita control de la isla primero, y del continente luego, al mismo tiempo evitando un genocidio y quedándose él en el poder; probablemente tendría su propio equipo black ops de ackermans criados por él, llevando adelante misiones estratégicas alrededor del mundo para mantener su control. Mientras tanto, en la serie no sabemos prácticamente nada sobre los Ackerman, que son básicamente superhéroes pero que a nadie parecen importarles mucho, ni siquiera en el contexto de carrera armamentística.

O imaginen sino también un doctor Doom. Doom tiene muchos puntos de contacto con Eren. Doom viene de una comunidad romaní: un grupo probablemente todavía más marginalizado que les judíes que pretenden escenificar les eldianes. Y Doom es científico, porque su padre era médico, y por esa vía tuvo contacto temprano con las ideas de las ciencias; pero también es mago, porque su madre era bruja, y eso tuvo el mismo efecto en él que su padre con la ciencia. De modo que a Doom no se le escapan ni siquiera las cuestiones místicas. Él comparte con Luthor el ser un humano sin superpoderes en un mundo lleno de supergente, pero sus motivaciones son muy diferentes. Como le pasó a Eren, Doom perdió a su madre y su padre cuando era muy jóven, y eso lo marcó de por vida. El padre de Doom fue perseguido por fallar en curar a la esposa de un rey, y murió escapando, protegiendo a su hijo; con lo cuál Doom eventualmente tomó el trono de ese monarca por la fuerza. Pero la madre había vendido su alma al diablo, razón por la cuál Doom se convirtió en enemigo declarado del diablo y juró derrotarlo, o al menos liberar el alma de su madre. En su aventura por ser más poderoso que el diablo, el nivel de poder que está dispuesto a obtener no tiene ningún límite, y en reiteradas oportuniades ha logrado derrotar y someter hasta a los dioses más centrales de la creación. Para ello utiliza ciencia y magia, al mismo tiempo, y su modus operandi pasa siempre por entender cómo funciona la fuente de poder de sus enemigues, para no sólo derrotarlos sino también apropiársela y quedarse así con ese poder. Desde ya podemos asegurar que si Doom estuviera en el universo de Attack on Titan, no sólo pondría a correr titanes en alguna cinta para generar energía, sino que en su lista de tareas estarían: entender cómo los titanes son inmortales, estudiar cómo es que algunos pueden revertir su forma a humanos de vuelta, entender cómo es que algunos pueden ser controlados cumplidas algunas condiciones, recorrer el mundo estudiando textos ocultos sobre la historia titánica, buscar y estudiar aquella criatura con la que se cruzó Ymir, y muchas otras cosas más a las que nadie parece prestarle atención en el mundo de Attack on Titan; y todo en simultáneo a también desarrollar su propio armamento para darle a Paradis una ventaja sobre el resto del planeta, tal y como lo hace con su nación Latveria en el universo Marvel.

Lo importante de todo esto es que, claramente, mientras más aparece la ciencia, más lejos está la inevitabilidad de la que hablábamos en partes anteriores. Y mientras más exploramos el asunto, la ciencia en Attack on Titan pasa de ser secundaria, a extrañamente ausente, a parecer activamente ignorada.

Pero como insinuamos en nuestro video anterior, en rigor la ciencia no está del todo ausente, y no sólamente por todas aquellas cosas que venimos interpretando del mundo. Hay un personaje que claramente encarna aspectos de la ciencia, y es Hange. Como en muchas otras representaciones de personajes científiques, Hange se muestra apasionada, por momentos inquieta, y frecuentemente desconectada de las sensaciones de peligro o hasta fatalismos que pueden experimentar otres personajes, sonriendo cuando nadie más sonríe: porque donde otres ven una amenaza, Hange vé una oportunidad para entender algo, develar un misterio, resolver un problema. Es típico que esa actitud les convierta en personajes por momentos incómodos o hasta aterradores. Y lógicamente no es casual sea la única con el interés de capturar un titán para estudiarlo, muy a pesar de casi absolutamente cualquier otro personaje de la serie.

Pero noten también otro detalle con respecto de aquello sobre capturar un titán. Si bien el titán capturado es un prisionero, Hange, al hablarle, parece ser también el único personaje que lo trata como a una persona. Le presta atención, y hasta le pregunta por sus intereses. Es cierto que eso está mediado por su propio interés instrumental: pero una cosa no quita la otra, y por esa vía para Hange el titán tiene un valor y una entidad completamente diferentes al que tiene para les demás. Lo cual lleva a otro detalle muy extraño: ¿notaron cómo, durante las primeras temporadas, nadie parecía identificar a los titanes como “gente”? No hubo ni un sólo personaje que dijera “los titanes parecen gente gigante”; “mala”, si quieren, “idiota” si también les parece, “rara” y “enorme” sin dudas, pero gente al fín y al cabo. Es como si no registraran la condición humanoide en los titanes, y si fueran gusanos o amebas gigantes serían exactamente lo mismo. Por supuesto que eventualmente los titanes se revelan como seres humanos afectados por una condición muy particular, y precisamente esa revelación es un giro dramático; pero hasta ese entonces, Hange parece ser prácticamente la única que de alguna manera humanizaba titanes, aún cuando tal vez accidentalmente. Y el resto de les personajes, hasta les más afilades, parecían ciegos a la cuestión.

Ya solamente con eso podemos anotar algunas cuestiones de la ciencia y de nuestra época. Es típico que cualquier personaje directamente vinculade a la ciencia se muestre como una persona rara, extraña, o a veces hasta loca. Como si quienes hacen ciencia fueran gente especial, o bien fuera necesario ser especial para hacer ciencia. Eso por un lado. Y por otro, nótese cómo la actividad científica es por lo menos una molestia para el sentido común instalado y el estado actual de las cosas. Ya sea que se requieran cantidades desquiciadas de dinero para ponerse a colisionar hadrones, o que se requiera capturar vivo un titán y ponerse a hablarle, eso que hacen les científiques parece ir frecuentemente a contramano de a donde va la sociedad, y hasta tener mucho de locura.

Hange encarna varios aspectos de la ciencia, pero no todos. Luthor y Doom también encarnan otros. El punto es que la ciencia en tanto que actividad humana tuvo y tiene muchos roles diferentes, y muchas cuestiones atravezadas. Es un tema mucho más complejo y amplio que aquello que hace esa gente con delantal y tubos de ensayo, y además de tecnologías y medicinas tiene muchos otros resultados. Lamentablemente, tal y como pareciera suceder en Attack on Titan, todo eso es más bien ignorado, cuando no es activamente ocultado.

La ciencia que conocemos es una cosa bastante reciente en términos relativos, y mayormente desacoplada de lo que fuera en otros momentos de su historia. Hoy, por ejemplo, casi unánimemente “ciencia” tiene una connotación contraria a la religión. Y sin embargo, en una gran parte de su historia estuvieron mayormente unidas, y por aquellos entonces hubiera sido tan impensable el pretender separarlas como hoy podría serlo el pretender unirlas. Y al mismo tiempo, buena parte de lo que consideramos “ciencia” hoy está fuertemente influenciado por categorías acuñadas en tiempos de Aristóteles: como ser el concepto mismo de episteme, en contraposición con otros como la tecné o la doxa.

Sucede que en nuestro tiempo “ciencia” se suele analizar en términos de calidad del conocimiento, o de tipo particular de verdad, y por eso las ideas de Aristóteles y la palabra episteme tienen tanto peso en su definición. Y el tema de la “episteme” es demasiado largo para ahondarlo en este video, porque tiene miles de años de historia, ni siquiera hay una traducción precisa, y arranca ya desde una definición del mundo y el alma que en buena medida es alienígena para nosotres. De modo que van a tener que curiosearlo en otro lado: personalmente les recomiendo la entrada que tiene la enciclopedia online de la universidad de Stanford, que articula y resume la cuestión de manera bastante accesible.

Pero resumiendo esa cuestión muy brevemente, Aristóteles distinguía entre diferentes tipos de verdades, donde una de ellas eran “aquellas que no pueden ser de otra manera”; y esas tenían un status superior a todas las demás. Nos referimos a verdades “eternas”, que no son afectadas por el paso del tiempo, a una forma de conocimiento “verdadero en cualquier situación”. Eso es episteme, y ciertamente ha de ser una cosa muy especial. Y esa idea, con el paso del tiempo, terminó siendo un pseudo-equivalente a lo que hoy conocemos como “leyes científicas”, especialmente las expresadas de manera matemática, que se supone explican el universo y rigen el cómo funcionan las cosas. La ciencia que conocemos hoy fue articulada desde hace siglos de modo tal que la humanidad pueda encontrar más de esas leyes, para lo cuál se establecieron reglas y condiciones y órdenes de trabajo que garantizaran, si no la calidad del resultado, por lo menos la limitación de los errores. Y por estas cosas, la disciplina que estudia a la ciencia se llama “epistemología”.

Y sin embargo, irónicamente, ya en la época de Aristóteles no se ponían de acuerdo con qué significaba episteme, o siquiera qué tan importante podía ser para lograr qué cosas: Platón tenía una idea muy diferente a la de Aristóteles al respecto, que nos llegan a partir de sus diálogos socráticos, mientras que Xenofonte (que también estudió con Sócrates) decía cosas diferentes a las de Platón; y a su vez hay pre-socráticos, y de Aristóteles para acá un montón de cosas dichas y hechas, y eso solamente leyendo la influencia griega en lo que llamamos Occidente. Lugares como China o India tienen miles de años de anterioridad a Aristóteles, y ya tenían también por aquel entonces sus propias ideas bastante maduras, bastante distintas.

En la antigüedad no había diferencia alguna entre ciencia y filosofía, por ejemplo, y de hecho el título “científico” directamente no existía. El rol comparable al del científico actual podía estar dividido en el rol general del “sabio”, cualquiera fuera su encarnación, o bien en diferentes especialidades profesionales diferenciadas: el médico, el arquitecto, el artesano, el funcionario estatal. La historia de la ciencia trae problemas serios a la hora de interpretar con precisión los conceptos involucrados, lo cuál es una de las incumbencias de la epistemología, y al respecto hay mucho escrito. Pero diferentes pensadores y pensadoras dicen diferentes cosas, y en diferentes momentos históricos la ciencia fue cualitativamente muy diferente también.

Esa clase de problemas siguen vigentes hoy en día, sin grandes espectativas de ser resueltos en lo inmediato. Y lo mencionamos para dejar clara una nota absolutamente central acerca sobre la ciencia: qué es la ciencia, y cuáles son sus límites, es objeto de debate y de ninguna manera es un tema cerrado. En esos debates hay algunas cuestiones más claras que otras, pero en todo caso cuando alguien dice “la ciencia es tal cosa”, lo que está haciendo es plantear una postura y no contándote el resultado de un debate ya clausurado.

Y acá por supuesto tenemos postura al respecto, que pretendemos defender y compartir. La historia de la ciencia está llena de buenas intenciones, y en definitiva buena parte de lo que se hace desde esa concepción de ciencia vinculada a “episteme” está muy bien y hay que celebrarlo. Pero eso también tiene un montón de problemas, algunos ciertamente muy serios. A nosotres nos interesa la ciencia en tanto que actividad humana, en un sentido mucho más práctico que ideal, y no tenemos gran interés en que el producto de esa actividad sea ni para siempre, ni en cualquier situación, ni siquiera que tenga uso más de una sola vez. Algo como eso probablemente sería llamado “ingeniería” o “arte” por quienes le prestan atención a esa clase de definiciones, y de hecho Aristóteles lo llamaría “tecné” o alguna de las otras categorías al caso. Pero en este canal las categorías de Aristóteles nos importan muy poco, y lo que buscamos es simplemente entender cosas. Y no nos parece que tenga nada de malo el querer simplemente entender cosas, independientemente de todas esas cualidades que buscaba Aristóteles.

Pero cuidado, que no estamos intentando entender cosas “porque sí”, “porque nos gusta”, o “porque es bello”: queremos entender detalles de cómo funciona nuestro mundo, porque queremos intervenir en él de alguna manera. A veces esa intervención podrá ser una adecuación propia, otras veces será una queja. A veces llevaremos el tema hasta la universidad, y quien te dice si el día de mañana no termina siendo parte de alguna tecnología, o de eso que hace esa gente con delantal y tubos de ensayo. Pero muy probablemente el resto de las veces lo llevemos a alguna marcha en la calle, o a algún comentario en un diálogo con amigues, o siquiera tal vez como recuerdo íntimo de alguna conclusión importante para nosotres; seguramente, la mayor de las veces, simplemente lo olvidemos al terminar el video. Cualquiera sea el caso, nosotres vamos a decir que, cuando se trate de entender al mundo, se trata de ciencia.

¿A qué viene todo eso? A que, por si no lo notaste, “que no puede ser de otra manera” es lo mismo que TINA. Tiene muy poco de casualidad que la definición de ciencia moderna coincida con los preceptos del realismo capitalista, con Aristóteles, y con un mundo cada vez más deprimente.

Como vimos hace minutos, mientras más introducimos ciencia en Attack on Titan, aún en sus formas más precarias y fantasiosas, muy rápidamente queda más y más lejos la idea de que Eren hizo algo inevitable. Y aunque a diario no nos damos cuenta, tal y como pasa en Attack on Titan, nuestra relación con la ciencia tiene mucho qué ver con que entendamos o no como inevitables a todas y cada una de las cosas espantosas que suceden a diario.

Durante el siglo XIX y principios del siglo XX, ese momento donde transcurre Attack on Titan, sucedieron una serie de cosas importantes alrededor de la ciencia. Muches pensadores y pensadoras (aunque estas últimas casi siempre silenciadas) introducían ideas revolucionarias para las sociedades de todo el mundo. Piensen, por ejemplo, las ideas de Marx debatiendo con las de Smith sobre el egoismo o la solidaridad en el contexto del trabajo y la riqueza, las ideas de Darwin hablando sobre el origen del ser humano y su vínculo con otras especies, o ideas como las de Freud o las de Einstein. Fue un siglo de gran alboroto intelectual, y en ese contexto muches pensadores y pensadoras debatieron acerca del modo correcto de hacer ciencia, de lo cuál nacieron algunas corrientes de pensamiento de gran impacto.

Pero esos debates estuvieron fuertemente influenciados por algunos factores contextuales fundamentales. Un ejemplo es el costo económico de investigaciones, desarrollos tecnológicos, y adecuaciones sociales. U otro ejemplo sería el impacto político-ideológico. Una cosa era adecuar las escuelas a dejar de enseñar que Dios creó al hombre, y otra cosa muy diferente era socializar los medios de producción. ¡Y sin embargo las dos eran acciones dictadas por la ciencia! De modo que muy convenientemente, al mismo tiempo que la categoría ciencia parecía tener cada vez más valor y prestigio, también pasaba a estar cada vez más centralizada en menos manos, y algunas cosas empezaron a dejar calificar en esa categoría.

Lo que nos importa de esa historia para este video es que, cuando la ciencia empezó a revolucionar la sociedad, además de haber gente que intentara refinarla y extenderla y llevar sus ideas a todos los lugares y quehaceres de la humanidad, también hubo gente queriendo apropiársela, controlarla, adecuarla a sus intereses, y quitársela a les demás.

Primero se pretendió que todo aquello que fuera llamado “ciencia” debía trabajar exactamente igual a la física, o caso contrario era otra cosa de menor valor si es que tenía siquiera alguno. Esto tuvo el efecto colateral de que la ciencia en líneas generales se volviera profundamente deshumanizante y deshumanizadora, y se llenara de practicantes compatibles con ese comportamiento. A su vez, ciencia no era algo que hiciera la gente pobre, con lo cuál la demografía además estaba determinada por el bolsillo. Por supuesto que también pasó a ser una cuestión de género, y hoy tenemos que andar haciendo investigaciones para que se reconozca el rol constante y oculto de las mujeres en la historia de la ciencia, porque jamás se les acreditaba nada de lo que hicieran. Y todas esas cosas en mayor o menor medida fueron el escenario de pujas entre gente sensible a cuestiones humanas y gente mucho más preocupada por cuestiones ideales.

Pero cuando finalmente aquella condición de “ser como la física” terminó colapsando por su propio peso, apareció un pensador que dejó una definición de ciencia sostenida incluso hoy en día por buena parte de la academia mundial. Karl Popper dijo que, para ser ciencia, lo que se dice tiene que ser contrastable, o en términos técnicos “falseable”. No nos vamos a poner con tecnicismos después de tanto video: lo que hay que saber es que Popper literalmente se puso a articular una definición de ciencia para que el marxismo y el psicoanálisis no fueran aceptados en esa categoría. Y para sorpresa de nadie, Friedrich Hayek, figura fundacional del neoliberalismo, pasó de ser profundo admirador a íntimo amigo de Popper; el mismo Hayek que años más tarde se transformara en el avatar con el que Margaret Thatcher afirmara no haber alternativa.

Es difícil decir con honestidad intelectual qué cuota de maldad y cuanta de ingenuidad puede haber en toda esa historia que apenas estamos mencionando en pocas palabras. Popper no necesariamente era un mal tipo por querer excluir al marxismo o al psicoanálisis del mundo científico, ni Hayek era necesariamente mal tipo por sus ideas sobre la libertad que discutía contra el fascismo. Pero lo concreto es que juntando como referentes gente que pretende excluir teorías, que sostiene al egoismo como motor de la libertad, y que si no se hacen las cosas como dicen ellos es todo falso o desastroso, no debería sorprender a nadie el auge de figuras como Thatcher. Y ojalá todo eso terminara ahí.

Sucede también que, independientemente de si es una buena idea o no basar nuestra ciencia en la episteme aristotélica, hay que tener en cuenta que esa clase de distinciones Aristóteles las estaba realizando porque pretendía distinguir quién debía regir a la sociedad: no estaba distinguiendo solamente entre mejores y peores “modos de la verdad”, sino también entre mejores y peores clases de personas; mejores o peores para gobernar sobre las demás. Y como si no alcanzara con eso, ¿recuerdan aquella cuestión de la suspensión de la incredulidad? Bueno, también viene de Aristóteles, explicando para qué se supone sirva el arte en la sociedad; para sorpresa de nadie, no tiene tanto qué ver con entender al mundo como la episteme.

Accidental o no, coherentemente con todo eso hoy tenemos una ciencia que si no es universal no es tal cosa, de la que sólo un puñado de gente puede participar, y que sólo puede hacerlo de ciertas maneras habilitadas. Nuestro punto de vista acerca de cómo son las cosas “no es científico”, en el sentido de “no es conocimiento serio”, a no ser que cumpla las reglas de la ciencia canónica, e independientemente de qué diga sobre el mundo. Hay detalles para revisar, especialmente pasados los años de 1980, pero en definitiva la ciencia no es en absoluto accesoria para el TINA: requiere que la ciencia sostenga un sólo marco teórico correcto para entender a la sociedad, una sola verdad rectora bajo control de una selecta minoría. Es fácil entender ahora cómo muy en el corazón de eso está una única forma de entender a la ciencia.

Lo que pasa es que “ciencia”, a su vez, se convirtió en algo de lo que ni vos y yo podemos formar parte, porque está bajo llave: sólo un selecto grupo de gente, con un selecto grupo de ideas, puede conseguir acceso al privilegio de decir que lo que hace es “científico”. Y eso es algo que se entiende como correcto y hasta celebrable, porque lo contrario sería permitir que “científico” sea cualquier cosa. Ahí entran conceptos como “relativismo” o “posmodernismo”, que deberán ser el tema de otros videos. El punto acá es que, por buenas o malas razones, por accidente o por premeditación, a vos y a mí la ciencia en tanto que actividad humana de entender al mundo, nos es mayormente vedada. Esto es mucho más intenso en algunas disciplinas que en otras, pero tiene un nombre: tecnocracia, “el gobierno de los expertos”, una forma particular de aristocracia.

Como pasa en Attack on Titan, la ausencia de ciencia en nuestra vida cotidiana restringe el horizonte de lo posible exclusivamente a aquello dictado por el sentido común instalado. La ciencia cuestiona todo y agrega posibilidades: donde algo ya funcionaba lo hace más complejo para permitir otras cosas, y donde algo no funciona da posibles explicaciones del por qué. Y por esta razón es que la ciencia marcó y marca el ritmo no sólo de la tecnología, sino también de las ideologías.

Pero la ciencia no es ni de casualidad necesariamente buena, y de hecho tiene uno de los prontuarios más terroríficos de la historia de la humanidad. Sucede que la ciencia, además de todos los otros aspectos que veníamos mencionando, es básicamente un mecanismo de poder, no solamente de cara a la sociedad sino también al universo. Con la ciencia domamos al veneno y al remedio, al fuego y al rayo, a la luz y a cosas que ni siquiera se ven. Pero también domamos gente, pueblos, y sociedades.

Por eso trajimos como ejemplos a Lex Luthor y el doctor Doom para contrastar con Eren: porque además de científicos son villanos. Ambos odiarían a los titanes tal y como los odia Eren, y también compartirían la misma voluntad inquebrantable para destruirlos o dominarlos, dando lugar a la posibilidad de actos espantosos en el camino. Pero donde Attack on Titan por momentos parece insinuar que Eren es un producto inevitable de la historia, tipos como Luthor o Doom nunca permitirían ser determinados por la historia, sino de hecho exactamente a la inversa: le marcarían el ritmo ellos. Precisamente porque encarnan uno de los perfiles más notorios y tempranos de la ciencia, que es su escandalosa arrogancia.

Recordemos, la ciencia ganó su status no sólo por sus resultados felices, sino también por tener el tupé de cuestionar a Dios y a Su palabra. Intenten imaginarlo: ¿en la cabeza de quién puede entrar el decir que las escrituras sagradas son incorrectas? No solamente pensarlo: ¡decirlo! ¡En voz alta, y para que te escuchen las autoridades intelectuales del momento! ¡Escribirlo y difundirlo para que más gente se entere!. El acto científico ha sido un acto incuestionablemente transgresor durante el curso de la historia, y sin dudas lo sigue siendo en los momentos donde a las tecnocracias de turno le fallan sus defensas. Definitivamente hay que tener un caracter especial para ese aspecto particular del quehacer científico.

Pero todo eso se une a otro aspecto también absolutamente característico de la ciencia, que se ha pretendido atribuir al arte o hasta por qué no a la magia: la infinita capacidad de maravilla. Piensen en llegar al fondo del mar o al espacio exterior, piensen en agregarle décadas a la vida, en conectarse con sus seres querides incluso cuando están aislades y lejos de casa. Imaginen el primer avión, la primera voz sonando en una radio, la primera imagen remota en una pantalla. Imaginen el primer paciente curado de tuberculosis, la primer noticia de que una enfermedad milenaria ha sido finalmente derrotada.

Aunque también la encarnan gente como Hange, a veces en la más alegre curiosidad, otras veces en la incansable voluntad de resolver un problema por irresoluble que pareciera. Pero más significativa todavía es la característica inocencia detrás de todo eso: la convicción de que efectivamente hay algo qué aprender, hay manera de resolver, hay cosas qué crear. Hay alternativa.

Pueden pasar 2000 años donde nadie parece lograr hacer una conceptualización de la deshumanización, pero Hange roza la respuesta al ponerse al tratar a los titanes como gente. En un mundo donde el conflicto parece ser la única alternativa, es Hange quien contacta al general enemigo, y quien sienta a ambos bandos a charlar y sincerarse mientras prepara una cena para todes. Eso se llama “humanismo”, que es un componente fundacional de la modernidad. Y con todo eso, lejos de vivir desconectada del mundo por espantoso que se muestre, y al mismo tiempo lejos de elegir irse a dormir hasta que pase el temblor, Hange dedica cuerpo y alma hasta el último segundo de su vida en intentar encontrarle una solución a la situación.

Así podemos ver que la ciencia cruza mil aspectos de nuestra sociedad moderna y nuestra identidad en tanto que seres humanos. Podrá manifestarse como arte o como metáfora, como política o como filosofía, como arma o como cura: pero cuando se entienden cómo funcionan las cosas, aparecen alternativas, y con ellas otros mundos pensables. Lamentablemente, mientras en Attack on Titan la gente parece vivir sin ciencia y a nosotres nos dicen que no es para cualquiera, mientras les escritores de Attack on Titan le escapan a la cura titán y en nuestra realidad nos dicen que es más fácil imaginar el fín del mundo que el fín del capitalismo, un Eren esclavo de la historia elige un genocidio planetario que luce inevitable, y Mark Fisher finalmente sucumbe a la depresión y termina con su vida a los 48 años.

Durante la pandemia de covid pudimos ver la pasión y el sacrificio con el que resistían nuestros médicos y médicas, la ansiedad por el desarrollo de una vacuna, la celebración de cada pequeño logro científico: barbijos, tests, tratamientos. En la ciencia estaban puestas nuestras esperanzas, nuestra fé, como en otros momentos del mundo hubieran estado en dioses. Nada de eso quitó del medio ninguno de los problemas geopolíticos y sociales que vivimos; del mismo modo que ninguno de esos problemas logró apagar del todo a lo otro. Las metáforas de esa lucha esta vez no incluían solamente monstruos gigantes como en el siglo XIX, sino también superhéroes como los de historias con Luthor o Doom, que ya forman parte de nuestra mitología moderna. Mitología donde la ciencia supo ganarse un lugar, un poco a fuerza de arrogancia y de derrocar dioses al estilo Doom, pero también a fuerza de pasión y dedicación y amor por la vida y el futuro, como Hange.

Y para cerrar esta parte, una última reflexión, que fue determinante en la decisión de hacer este video. La cuestión de la cura titán es especialmente significativa, por muchas razones. Ya vimos la experiencia del covid, y también mencionamos al cólera y la tuberculosis. Pero yo tuve una experiencia relacionada muy particular durante la pandemia del covid, y la quiero contar porque viene muy al caso. Con tanta noticia sobre el covid y economía, pasó mayormente desapercibida una noticia que en otros tiempos hubiera generado celebraciones mundiales: entró en fase 3 una vacuna, pero no para el covid, sino para el HIV, el virus del SIDA. Muches quizás no lo vivieron, pero incluso así les invito a repasar la historia del HIV y todo lo que sucedió alrededor de esa enfermedad durante las décadas de 1980 y 1990. Vean el terror, la marginalización, el odio que se vivía a su alrededor. Miren los problemas que trajo para la ciencia: el descubrimiento de los retrovirus, y cómo eso cambiaba las reglas del ADN concebidas hasta ese momento, con lo cuál cambiaba también la misma concepción de “vida”. Fíjense el impacto cultural y social que tuvo esa enfermedad en nuestra historia reciente. Fíjense de lo que estamos hablando cuando hablamos de una vacuna contra el HIV, y es profundamente conmovedor.

Pero yo lo viví de manera muy particular, porque mi padre murió con HIV cuando yo era chico. De eso hace ya muchos años, y no es ninguna herida abierta ni mucho menos; es algo con lo que aprendí a vivir en paz hace décadas. Y de una manera u otra, cuando escuché la noticia de la vacuna, no pude evitar emocionarme hasta llorar. Pero no era un llanto dolido, tal vez pensando cosas como “la vacuna llegó tarde”, sino una extraña sensación mezcla de alivio y de triunfo, de alegría, de esperanza por un mundo mejor, y de estar viviendo un momento absolutamente histórico. La noticia era accesoria, marginal, secundaria; ya nadie le prestaba atención al HIV como en décadas atrás, y mucho menos en medio del pandemonio que fue atravezar el covid-19: pero sin embargo yo me emocionaba, casi sin razón, tal vez hasta por nostalgia.

Y en el episodio 86 de Attack on Titan, el último que vimos antes de escribir este video, recordé aquella sensación que tuve frente a la vacuna del HIV. Fue cuando ví a Hange explicándole a Annie por qué seguirían peleando. Annie había perdido sus ganas de continuar, y probablemente haya sido la primera escena en toda la serie donde se la mostraba vulnerable y quebrada emocionalmente. Su padre seguramente ya habría sido asesinado por el retumbar de Eren, y entonces no le quedaban razones para continuar. Así que preguntó, “por qué pelear”. Y fue Hange la que explicó que ya no peleaban por sus paises, ni sus familias, ni siquiera por sus propias vidas, sino para que millones de desconocides tuvieran la oportunidad de vivir algo diferente a lo que les tocó vivir a elles. Fué en ese momento cuando me decidí finalmente a escribir esta apología de la ciencia en clave de crítica contra el fatalismo, y cuando finalmente entendí qué era lo que había sentido con aquella noticia de la vacuna del HIV: la alegría que sentí fue la de una absoluta certeza de que, eso que le pasó a mi padre y a mi familia y a mí, ya no le iba pasar a nadie nunca más. Que aquel monstruo invencible había sido derrotado, y no iba a matar nunca más. Que gracias a la ciencia, no iba a pasar nunca más. Nunca más.

Parte 4: Nunca Más

Créanme que nada está más lejos de mi intención que el seguir haciendo este video todavía más largo. Pero lamentablemente corresponde. Porque cuando empecé con esta aventura quería hacer un video sobre la ciencia y fatalismo; sobre lo cruel, injusto, y desastroso que es quitarle a la gente el poder de crear alternativas, y usar el caso de Attack on Titan para graficarlo. Pero muy rápidamente me topé con otra cuestión constantemente haciendo sombra, que es el genocidio.

No se puede hablar de Eren y Attack on Titan haciendo de cuenta que lo que sucede es cualquier cosa comparable con cualquier otra, ni de que lo dice de cualquier manera. Estuve tentado múltiples veces de abordar el tema con comparaciones a ficciones populares como suelo estar cómodo haciéndolo, pero esta vez no fué el caso, y para ser franco la sensación era que el tema siempre me quedaba grande y todo lo que decía sólo lograba banalizar la cuestión.

Y sucedió que mientras escribía este video, en Argentina pasó otro 24 de Marzo; esta vez uno muy especial, por haber sido el primero en que volvemos a salir a la calle después del aislamiento de la pandemia. El punto es que mi país conoce al genocidio, y tiene cosas para decir al respecto.

Mi país Argentina padeció golpes de estado durante todo el siglo XX. Seis de ellos fueron oficialmente exitosos, pero todos los demás intentos fallidos dejaron igual sus marcas en cualquier forma de devenir democrático que mis ancestros supieran lograr. Y mientras en Europa las guerras se hacían mundiales y las colonias en América dejaban formalmente de existir, Argentina vivió en carne propia una y otra vez qué significa estar bajo la influencia de la doctrina Monroe con sus convenientes corolarios e interpretaciones. Si a eso le sumamos nuestra propia experiencia política local y autóctona, donde todas las clases sociales coincidieron en nuestro propio avatar de polarización que compitiera con el tan trillado marxismo del resto del mundo, ciertamente cuesta pensar períodos prolongados que une pudiera llamar tranquilos y pacíficos.

Pero la dictadura militar que tuvo lugar entre 1976 y 1983 fue un momento histórico para Argentina del que todavía cuesta dimensionar en toda su magnitud las consecuencias que seguimos padeciendo. La influencia antimarxista y hegemonizadora estadounidense, en conjunto con el antiperonismo local, la ola neoliberal naciente, y el conservadurismo de corte eclesiástico, configuraron un aparato de represión, acción psicológica, y asesinato, sin precedentes en la historia del país. Y lo llamaron formalmente “proceso de reorganización nacional”, aunque por acá prácticamente todes lo llamamos hoy “la dictadura”.

Los crímenes aberrantes de la dictadura son de conocimiento popular, pasando por violaciones, torturas, robo de bebés privados de su identidad y nacidos en cautiverio, entre muchas otras monstruosidades que son muy fácilmente encontrables como información para cualquiera que le interese y lo busque. Pero el crimen más característico de la dictadura fue sin lugar a dudas encarnado en la emblemática figura de “los desaparecidos”: las víctimas de desaparición forzada de personas.

Terminada la dictadura, múltiples investigaciones llevadas adelante por diferentes organizaciones tanto civiles como estatales, nacionales e internacionales, han recopilado documentación y testimonios de todo tipo vinculados a las acciones de la dictadura. Una de las organizaciones encargadas de investigar los crímenes de la dictadura fue la CONADEP: Comisión Nacional sobre la Desaparición de Personas. Fué una comisión vinculada tanto al poder legislativo como al ejecutivo, dedicada exclusivamente a investigar la cuestión de los desaparecidos. En 1984 la comisión presentó un informe de casi 500 páginas, que tuvo profundo impacto político y social no sólo en Argentina, sino incluso inspirando a realizar informes similares en otros paises. Ese informe se publicó con el título “Nunca Más”, y entre otros dio lugar a la caratulación formal de “plan sistemático de exterminio” para explicar aquello llevado adelante durante esos años, y juzgando eventualmente a sus crímenes como “terrorismo de estado”, y “genocidio”.

Desde ya que tanto partícipes de la dictadura como simpatizantes (que los hay por centenas de miles) justifican su accionar, casi unánimemente en los hechos de violencia previa vinculados a guerrillas o hasta violencia política partidaria o sindical. Y es que la complicada historia de anarquismo, marxismo, liberalismo, peronismo, americanismo, latinoamericanismo, europeismo, nacionalismo, catolicismo, conservadurismo, republicanismo, guerrilla, militarismo, humanismo, y todas las mezclas de todas esas tendencias entre muchas otras, dispersas en un lienzo de decenas de intentos de golpes de estado y algunos hiatos democráticos concretos, sumado a las experiencias cercanas y remotas entre tensiones y revoluciones, dió lugar a ciclos de odios y contraodios infinitos en diferentes sectores de la sociedad. Ciclos de odio, acompañados de tanto romantización como fetichización de la violencia.

Ciertamente Attack on Titan escenifica esa clase de problemas vinculados al odio y la violencia de manera magistral. Pero con todo esto que cuento, en Argentina sabemos cosas sobre la cuestión que sencillamente no se pueden tomar a la ligera, y que son difíciles de tratar incluso para la gente más lúcida.

Una de ellas es un accidente de nuestra historia argentina: la elucubración de una hipótesis explicativa para el conflicto, pretendidamente “neutral” o “crítica”, que oficiara de mediadora entre las diferentes partes, con la esperanza de “cerrar heridas” y dar lugar a un proceso de reunificación de les argentines. Esa explicación sostiene algo cercano a lo siguiente: “lo que hizo la dictadura estuvo mal, pero fue una reacción a la guerrilla, que estuvo mal también”. Y a esa explicación se la conoce coloquialmente como “teoría de los dos demonios”.

Toda esta explicación viene al caso de lo siguiente: la teoría de los dos demonios básicamente indica que la violencia se explica por los ciclos de odio. Frente a lo cuál deberíamos dejar de odiar cuanto podamos, y para eso necesitamos lógicamente algún tipo de acercamiento entre las partes. Cosa que en principio, a decir verdad, suena como un consejo inteligente. Pero es profundamente traicionero entender odio y contraodio como acción y reacción, casi como ley de la Física o verdad universal ahistórica: porque no sólo esconde los detalles particulares de esos odios, sino que además nos exige aceptar algunos tipos de violencia, encima, como inevitables.

Como probablemente se dieron cuenta, la inevitabilidad de la violencia, y en este caso particular del formal genocidio, coincide entre la teoría de los dos demonios y la historia de Eren. Y como ya largamente hablamos en contra de esa supuesta inevitabilidad en Attack on Titan, ahora lo vamos a hacer también con la teoría de los dos demonios, que al estar basada en hechos reales le agrega a la crítica una cuota de seriedad muy delicada. Y tenemos dos puntos para cuestionar.

El primero y más evidente, y más popularmente también compartido por la crítica a la teoría, es que es una absoluta canallada hacer de cuenta que la violencia es siempre la misma y no hay nada allí qué interpretar ni revisar. Ciertamente hubo muertos de “ambos bandos”, pero las comparaciones son francamente atroces y hasta confieso que me dá vergüenza redactarlas. Sea como fuera, ya solamente con la mera y hasta cínica comparación entre número de víctimas queda clara la diferencia de varios órdenes de magnitud en la que la dictadura supera a cualquier acción armada guerrillera, independientemente de la métrica que se utilice. Pero incluso con eso, hasta para el más elemental razonamiento es evidente que jamás va a ser lo mismo la violencia desde el aparato del Estado en una dictadura militar que desde la sociedad civil armada, que no se trata de “bandos”, que “odio” o “violencia” no terminan de describir eso, que no considera intereses de todo tipo involucrados, y que en definitiva para lo único que puede servir un acercamiento basado en comparaciones que asimilan cosas tan disímiles es para consolidar alguna forma autóctona de negacionismo.

Pero sobre eso hay mucho escrito. En realidad nos queremos concentrar en otro punto, frecuentemente omitido en los debates acerca de la viabilidad, posibilidad, y hasta condición “realista”, de la violencia política.

Verán, yo tengo una postura de izquierda, con lo cuál no tengo ningún tapujo en mostrar mi más profundo desprecio y repugnancia por la dictadura. Pero lo concreto es que a mí a la dictadura me la contaron, no la viví. Yo nací en 1982, días después de que la guerra de Malvinas finalizara, y apenas un año antes de que la dictadura entregara el poder del Estado. Mis primeros recuerdos son de años ya pasado todo eso, y francamente pasaron muchos años hasta que la dictadura tuviera alguna entidad en los diálogos con personas cercanas. En la casa donde me crié explícitamente no se hablaba de política, y esa regla se repetía en las casas de mis compañeres de escuela; y frente a esas cuestiones mis maestres se comportaban similar a mis familiares, y en definitiva hasta no haber pasado décadas rara vez me crucé con alguien que articulara reflexiones de orden política ni remotamente sofisticadas: apenas repetir slogans de medios de comunicación, que ante la duda yo también repetía, sin mucho qué cuestionar ni defender.

Es cierto, yo la dictadura no la viví. No cómo mi madre y mi padre, mis tíes y abueles, ni las familias de mis amigues: yo viví más bien la sombra lúgubre que dejó en una sociedad quebrada en muchos sentidos. Una sociedad no sólo inoculada con odio y terror, sino también con la idea neoliberal de que no hay alternativa: que la historia es la que es y no la que hacemos, que cada une debe sólo considerar sus propios intereses, que esos intereses son siempre materiales, y que todo es cuestión de mérito, incluyendo las desgracias.

La sociedad que a mí me vió nacer me genera hoy mucha pena. Era una sociedad desgarrada y en duelo, que en lugar de explicaciones por su dolor recibía mentiras desquiciantes y mandatos culpógenos. No sorprende que en una sociedad como esa, yo y muches otres nos hayamos criado en apatía para con nuestras generaciones anteriores e indiferencia para con la sociedad, y frecuentemente hayamos sentido que la única respuesta realista era el odio. Porque cuando alguien sabe que las cosas no están bien, y nota que las explicaciones que recibe no son ciertas, ese alguien se enoja y ese enojo sólo crece con el paso del tiempo. Y cuando empiezan a aparecer los suicidios entre amigues o entre gente conocida, las adicciones, las pérdidas de cordura, las desesperaciones al perder el trabajo y con eso todo lo demás, el odio entonces se convierte en una cuestión de supervivencia, una fuerza que sirva para sostener la mente y el alma, un aspecto fundacional de la propia identidad.

Con todo eso, debo decir que en muchos sentidos me siento identificado con Eren. Al menos, una parte de mi historia se identifica con él. Y considerando que la historia de mi país y mi generación, no es la única, ni la última, ni siquiera la peor, estoy seguro que ha de haber millones de personas en todo el planeta que sienten la misma coincidencia. En un planeta con desilución, muches en todos lados deben estar fantaseando todos los días la idea de “matarlos a todos”, sin importar en quienes se esté pensando, como solución a los males del mundo. Y confieso que de vez en cuando a mí también me pasa. El odio es una parte de mí, que si bien ya no rige mi comportamiento como en otros tiempos, lo cierto es que tampoco se va a ningún lado. De modo que entiendo el encanto de la violencia, y desde ese lugar no puedo juzgar a la gente que la elige, especialmente sabiendo que las opciones que nos dan en esta vida son brutalmente escasas.

Pero incluso a pesar de todo eso, lejos de la ira homicida, la depresión suicida y la falta de fé, lejos de sucumbir a los horrores del realismo capitalista o de comulgar con él, vivo con enorme fortaleza espiritual y constante estímulo intelectual el camino de crear alternativas. Y eso es así porque antes de mí hubo gente que no le fué indiferente a les demás, y dejó a mi generación algunas verdades que no se ven por televisión. Escuchen a esta señora, presten atención.

[Norita hablando de cómo iba a la mansión, y finalmente la terminaron escuchando].

Escuchen lo que hizo. Escuchen cómo lo hizo. Escúchenla, como la escucharon quienes estaban secuestrades: porque ese gesto que tuvieron con elles y les dió fuerzas para soportar la tortura, es el mismo que ahora nos da fuerza a muches de nosotres. Esa señora es Nora Cortiñas, y es una de las fundadoras de Madres de Plaza de Mayo: un grupo de señoras que le hicieron frente a la dictadura.

Si alguien cree que con odio alcanza para hacer eso que cuenta norita, es porque nunca se jugó la vida. Las madres de plaza de mayo son un grupo de madres a las que les desaparecieron a sus hijes. Y lo que hicieron fue organizarse para, en plena dictadura, encontrar a sus hijes desaparecides. Eran un grupo absolutamente heterogéneo en términos de clase social, formación, o ideología, cuya característica fundamental era ser madres y nada más. Y lo que hicieron fue salir a reclamar, como pudieran, donde pudieran, sin mucha idea de qué hacer exactamemte, buscando apoyo y herramientas para encontrar a sus hijes. Fíjense sino cómo arrancaron.

[Norita contando los inicios].

Además de las madres, estaban las abuelas, que se ocuparon de hacer un montón de tareas vinculadas a relacionar contactos y compartir información. Hacían cosas como juntarse en bares a celebrar cumpleaños ficticios, o en parques a hacer picnics, para poder intercambiarse información y trabajar estrategias de acción sin que las secuestraran también a ellas.

Vivieron constantemente a la sombra de la muerte. Pero siguieron marchando. No sabían cuánto podían durar, ni quién las podría escuchar ni ayudar. Pero siguieron marchando. Hubo madres a las que las desaparecieron, y cuando eso pasó continuar se mostraba como una gigantezca locura. Pero siguieron marchando. Hasta que un día la sociedad empezó a prestar atención, y con eso otras sociedades empezaron también a prestar atención, y hasta que de repente las madres tenían visibilidad en todo el mundo, y todo eso incluso durante la dictadura.

Sobre la lucha de las madres y abuelas se puede hablar horas, así que permítanme ir al grano. Yo no viví la dictadura: yo viví y vivo sus consecuencias. Pero lo que pasa en mi país cada 24 de Marzo, a mí y a mi generación no nos lo cuenta nadie.

Todos los años comparto con millones de personas en todo el país una reunión donde recordamos un hecho horrible de nuestra historia, ciertamente uno de los peores de todos por lejos, pero que de una manera u otra se convierte en un acto de alegría sanadora. Porque incluso con la carga inmensa de horror que tiene el recordar la dictadura, el 24 de Marzo para nosotres que salimos a la calle a marchar es un compromiso también con nuestro futuro, que vamos construyendo de a poquito y en paz.

En todo aquello que conté como experiencias personales mías en una sociedad post-dictadura, la dictadura nunca era un tema, nunca explicaba nada. “Algo habrán hecho” decía cualquier hije de vecine frente a la mención de los desaparecidos, desestimando la cuestión como si fuera algo que le pasa a otra gente distinta a une, y yo francamente me encogía de hombros sin el menor interés por la cuestión. Eso cambió recién cuando finalmente tuve contacto con textos históricos de orden científico en la Universidad, en lugar de comentarios televisivos de algunas pocas palabras o titulares en diarios y revistas. Del mismo modo que luego de entrar en la Universidad, todos esos comentarios y titulares en medios dejaron de pasar desapercibidos y se convirtieron en insultos, amenazas, violencia verbal, mentiras. Aprendí que mi odio tenía mucho qué ver con defenderme de un mundo hostil mientras vivía desconectado de mi historia y de mi pueblo. Y del mismo modo se volvió cada día más evidente que aquel silencio, intolerancia, y hasta negación para con la política que viví durante mi juventud, tenía mucho qué ver con que mis generaciones anteriores hubieran vivido la dictadura.

Las marchas del 24 de Marzo comenzaron minúsculas y a la defensiva, entre radicales y peronistas que pedían a la sociedad se defendiera de nuevos golpes de estado. Pero fueron las Madres y Abuelas quienes las hicieron reivindicativas y propositivas. Las mismas madres y abuelas que combatieron a los militares, DURANTE la dictadura, y de manera pacífica. Y arrancaron siendo apenas un puñadito de señoras, sin ejércitos ni armas. Sus dudas eran muchas. Pero la indiferencia no era una opción frente a su pasión. Hoy juntan millones de personas, y son ejemplo en todo el planeta.

Mientras gente tanto pro como anti dictadura fantasean con la violencia correcta, la justa, la adecuada a la realidad, esas marchas del 24 de Marzo que llevamos adelante millones no son ninguna fantasía romántica, ninguna ficción, ni ninguna teoría sobre nada: es gente real, saliendo a la calle en un acto voluntario de reivindicar la paz y la democracia, al mismo tiempo que se encuentra con su historia y con su pueblo. Y cuando marchamos, nos une una consigna que nos marca el camino, con la que además le contestamos del mismo modo a la dictadura asesina, a la supuesta inevitabilidad de la violencia, y a la teoría de los dos demonios: memoria, verdad, y justicia.

Confío en que, con todo lo dicho, no sea necesario explicar la cantidad de alternativas que habría en el mundo de Eren si hubiera un poquito más de aquellos tres conceptos con los que salimos a marchar en el mundo real.

Conclusion

Finalmente, llegamos al cierre de este larguísimo video, para lo cuál vamos a dejar una reflexión final.

Las múltiples y notorias omisiones en el planteo de Attack on Titan hacen que cualquier lectura de inevitabilidad en el retumbar tenga mucho más qué ver con condiciones ideológicas y sentimentales de quien lee que con nada vinculado a la realidad. Mientras más se involucra la ciencia todo se muestra más y más evitable y lleno de alternativas, y mientras más comparamos contra la realidad nos damos cuenta fácilmente de cuánto está dejando de lado Attack on Titan.

Pero así y todo, si revisan por internet o hasta charlan con sus amigues, la gente que mira Attack on Titan frecuentemente queda con la idea de la inevitabilidad en la cabeza. Al caso vimos que eso tiene mucho de época, y los puntos de contacto entre lo que sucede en Attack on Titan y esas lecturas frecuentes sobre inevitabilidad están muy íntimamente relacionadas con la influencia del realismo capitalista, que Mark Fisher tan lúcidamente logró conceptualizar. Lo cuál hace todavía más complejas a las lecturas acerca de quién es libre de hacer qué, o por qué razones, cuando el sentido común tanto en la ficción como en la realidad es que no hay alternativa. Pero por la vía de Fisher pudimos ver que eso tiene mucho de imposición planificada y cuidada, casi como sucede con las omisiones en Attack on Titan.

Con todo eso considerado, yo no puedo decir que la violencia es siempre incorrecta, ni que siempre es evitable. Afirmar algo como eso sería traicionar a la verdad, porque lo cierto es que hay que estar en los zapatos de la gente, y hablar desde lejos es muy fácil; además de que francamente a mí la violencia me tienta muchas más veces de las que me gustaría aceptar. Pero sí puedo decir que la violencia no es ni por casualidad la única opción, que los resultados de sus alternativas son absolutamente innegables, y que esas alternativas no implican en absoluto resignar nuestras verdades o dejar de trabajar por justicia o por un futuro mejor. Yo no sé si matar con precisión arreglará algún día los problemas del mundo: lo que sé es que lo que en mi país hicieron las madres cura el desgarro y el duelo que dejó la dictadura. Y consideren por favor al caso que estamos hablando de un genocidio en serio, no de alguna ficción fatalista.

Y también sé que otros pueblos no tuvieron ni tienen la misma suerte que tuvo el mío. No tuvieron superheroínas como ellas, no encontraron esa alternativa, o bien no les fué como a las nuestras. Pero de a poco va sucediendo. Cada vez más pueblos tienen millones de personas uniéndose para rechazar las condiciones de injusticia y miseria a las que se ven sometides, y eligen hacerlo en paz. Cada vez más transformaciones sociales son pacíficas, y esas transformaciones son cada vez más estructurales. Aunque nada de eso quita que las fuerzas de la guerra y la violencia sigan siendo inconmensurablemente poderosas, ni que las injusticias sigan siendo en definitiva la norma. Y el realismo capitalista no se fué todavía a ningún lado.

De modo que te dejamos como reflexión, si se quiere, un llamado de atención, directo desde la canción de Attack on Titan: mirá que se viene el retumbar. Están pasando cosas en el mundo que son desafíos sin precedentes en la historia de la humanidad, y tanto mi generación como las que sigan lo van a tener que atravezar. Lo que pasa en Attack on Titan, y lo que decimos en este video, no son miradas nostálgicas a una historia remota, sino una alerta sobre las cuestiones futuras. Y por eso le dimos tanta seriedad a la cuestión, dedicándole un video tan excepcionalmente largo al tema, en lugar de hacer menciones cortitas y aisladas y hasta por qué no más divertidas. Las cosas que se vienen no van a ser divertidas: todo indica que van a ser trágicas, y muy difíciles de vivir. Así que, tené cuidado, porque el retumbar viene por vos. Y cuando lleguen esos momentos decisivos para tu generación, vas a tener que decidir qué hacer, lo quieras o no. Si ese día elegís dormir hasta que pase el temblor, sabé que es perfectamente entendible, y te invitamos a relativizar las voces que te critiquen por decidir eso: porque vos sos un ser humano, la vida no es fácil, y les demás a eso lo tienen que entender aunque se fastidien por no acordar con vos. Pero también tenés que saber que después del retumbar, ya no sé si va a quedar alguien que te despierte, o siquiera una vida que vayas a querer vivir en el mundo que eso deje. Por eso, el día que decidas, tené en cuenta que muches estamos haciendo lo que podemos, nos salga o no nos salga, para que el retumbar nunca suceda.

    Ayer publiqué mi primer video. Todavía estoy aprendiendo detalles sobre cómo hacerlos, y todavía estoy también explorando el ecosistema de hosting de videos, razón por la cuál de momento sólo está en youtube. Pero acá lo pueden ver, y de paso también dejo el texto del video.


    Algunas semanas atrás, en casa nos pusimos al día con Attack on Titan, y sobre esa serie tenemos un montón de cosas para decir. Pero también pasó por esa fecha que Wisecrack publicó un video sobre Legend of Korra. Así que es una buena oportunidad para plantear algo que ambas series comparten. Pero para hacer eso, vamos a tener que comparar con otras cosas que hacen otros trabajos también populares. Así que pónganse cómodes, que arrancamos con este paseo por Legend of Korra, Attack on Titan, y la ideología: por supuesto, con spoilers por todos lados.

    Como decía, necesitamos empezar comparando con otros trabajos. Y la razón principal de esto es que Wisecrack publicó su video sobre Korra en la saga “what went wrong”, donde básicamente argumentan cosas que la serie hizo mal con respecto a su antecesora, “Last Airbender”. Y esto es algo que en muchas oportunidades me crucé, por internet y entre mis amigues. Así que, antes de responder, es necesario contexto.

    Hace algunas décadas atrás, les personajes de series animadas populares, y especialmente las series japonesas, parecían tener siempre algo en común: ser eternes adolescentes. Piensen por ejemplo en un Gokú, un Tsubasa, un Seiya, o cosas de esas. Y ni siquiera hace falta ir tan atrás qué digamos. Es injusto decir que todo el animé es así, porque todes podemos encontrar ejemplos de lo contrario. Y es injusto también echarle la culpa a Japón de esto, porque el resto del mundo tiene su cuota de lo mismo por todos lados. Pero estos personajes son, sin lugar a dudas, extremadamente populares, y trascienden al público infantil.

    Está todo bien con ser adolescente. El problema son eternes cuasi-niñes con solamente dos o tres variables en la cabeza. Y ojalá terminara ahí. También suelen tomar decisiones muy cuestionables sin consecuencia alguna, se la pasan demostrando habilidades inhumanas frecuentemente injustificadas, y tienen varios problemas más que en definitiva pueden hacer de lo que significa “heroismo” para nuestra cultura algo preocupante. Pero cada ejemplo tiene sus detalles, y vale la pena revisarlos.

    Casos como Dragon Ball o Saint Seiya tienen un universo entero estructurado para justificar cualquier exceso, siendo tan así que hasta los dioses multiversales se ponen a tirar patadas para medir qué universo es digno de existencia; una mitología francamente siniestra y demencial, que sólo puede ser tolerada por el final felíz asegurado, caso contrario sería pesadillezca.

    Ejemplos un poco menos ambiciosos como Captain Tsubasa pecan también de antihumanismos bastante serios. El heróico entrenamiento de Hyuga para mejorar su rendimiento y poder así salvar a su familia de la pobreza, o la vida de brutalidad y tragedia a la que se vió sometido Santana y de la que sólo logró sobrevivir a fuerza de fútbol (?), son de alguna manera planteados como inferiores, segundos, frente a la pasión de Tsubasa. Pasión que básicamente le permite articular sus músculos desgarrados y obtener energía de la nada, a pura fuerza de voluntad: porque sí, porque se le antoja jugar al fútbol, y eso es todo.

    “El balón es su amigo”, punto, no hay nada más qué contemplar. “Quiero jugar en Brasil”, punto. “Quiero ganar la copa”, punto. No hay complejidad, no hay contexto, no hay ninguna otra cosa más que voluntad. Si ignora las costumbres sociales de su entorno, al qué va a hacer si le llega a ir mal en el fútbol, o cualquier otra cuestión, nunca son variables a tener en cuenta. Gokú es idéntico: “quiero pelear”, “quiero ser más fuerte”. Y tal como sucede con Gokú, Tsubasa vive en un mundo donde todes parecen aprobar eso: les padres se encogen de hombros, el médico lo deja salir a la cancha con la pierna toda ensangrentada, les compañeres siguen confiando en él aunque a todas luces parece estar lunático, etc. Y bueno, Seiya lógicamente es más de lo mismo: “hay que proteger a Atena”. ¿Por qué? Porque sí. Gracias a eso, supera cualquier obstáculo, y obtiene siempre fuerzas de la nada, que inevitablemente conducen a un final felíz.

    Y aunque sean tan simplones que francamente caen en lo chistoso, así como los planteo yo, no deja de ser preocupante que semejante brutalidad de personajes puedan ser tan populares, tan masivamente aceptados, tan positivamente calificados; no deberían ser esos los héroes mitológicos de generaciones conviviendo con la conquista espacial, la clonación, o la energía nuclear. Y creo que eso dice mucho sobre algunas cosas que estamos viviendo.

    Podría prestarle atención a varias cosas que calificaría como “malas” en todo eso, pero de momento prefiero prestarle atención solamente a una: el tema de la edad. Todas esas historias arrancan con niñes, que después básicamente nunca crecen, o bien tienen una forma de crecimiento muy particular. De hecho, el crecimiento, cualquiera sea, parece más para personajes secundarios que principales.

    Y aquí es donde traigo a Korra a colación. No tengo nada malo para decir sobre la precuela, pero definitivamente consideré Legend of Korra como un trabajo mucho más virtuoso que el anterior, por diversas razones. Así pude ver que Korra dividió aguas en el “fandom” de Avatar, y es por lo tanto un trabajo polémico, llegando hasta el video de Wisecrack. Entonces, tanto el contenido de la serie, como esa polémica en el fandom, vienen bien para plantear algunas cosas.

    Pero el segundo ejemplo que involucro es Attack on Titan: una serie que todavía no terminó y ya da qué hablar. Si existe algo así como una tradición del animé con los modos del heroismo, esta serie rompe con eso de manera muy responsable en sintonía con los temas que plantea. Y es que, aunque en cada caso de diferente manera, uno de los temas centrales que ambas series comparten es el problema de la ideología. Y como si fuera poco, ambas coinciden en plantearla de una manera con la que no sólo coincido, sino que rara vez escucho a nadie mencionar por ningún lado por estos días: la ideología es un problema intergeneracional.

    Esto último está presente casi desde el primer momento en Korra, mientras que en Attack on Titan aparece planteado con fuerza recién en la cuarta temporada. Sin embargo, es tan potente el planteo sobre ideología en Attack on Titan, que sencillamente retuerce cualquier otro argumento persistente de temporadas anteriores, y resignifica todo alrededor de ese concepto tan espinoso para nuestras sociedades contemporáneas.

    Y es que en Attack on Titan queda desgarradoramente claro que les que vienen después de nosotres nos van a pedir explicaciones acerca de por qué el mundo es como es, y “yo soy una buena persona” o “yo tengo excusa” nunca van a ser una respuesta satisfactoria. La ideología se muestra como una cuestión mucho más vinculada al mundo que dejamos que al mundo en que vivimos. Y frente a eso, lo que nosotres queramos hacer con nuestras vidas toma una dimensión tan compleja que sencillamente nubla la mente, y angustia.

    Ideología actualmente tiene dos significados populares, mayormente aceptados. El primero es un término despectivo que viene al caso de plantear una relación equivocada e ilusoria con la realidad. Para esa acepción, “ideología” es una especie de anteojera subjetivista que distorsiona la realidad, a la que se accede básicamente siendo “más objetivo”; y para ser “más objetivo” hay una serie de mecanismos, tales como ir a la escuela para aprender cómo son las cosas en la realidad, o leer muchas fuentes de datos para realizar análisis objetivos. La otra acepción no es despectiva sino descriptiva, y básicamente es un cuasi-sinónimo de “cosmovisión”: el conjunto de creencias e intuiciones que determina las interpretaciones de las experiencias. Quienes articulan esa acepción de “ideología”, generalmente pretenden estudiar qué está sucediendo en tal o cuál situación social, antes que denunciar algún error intelectual de alguien.

    La ideología es un tema gigantezco, muy actual, y muy sofisticado, que de ninguna manera queda satisfecho con esa descripción breve que dí recién. Es imposible abarcarla por completo en pocas palabras. De modo que la estrategia de este canal para encararla va a ser ir reconstruyendo el concepto de a pedacitos, bit por bit, viendo cómo atraviesa muchas de las cosas que nos tocan vivir en nuestra cotidianeidad, esquivando así cualquier pretensión intelectualoide de querer dar una definición definitiva.

    En cualquier caso, sea en términos despectivos o descriptivos, la ideología tiene una particularidad en la que ambos bandos están de acuerdo: reduce brutalmente la complejidad de los conceptos. No importa si uno es de izquierda, de derecha, u otra cosa, la ideología opera necesariamente como filtro entre lo que es el mundo y lo que entendemos de él. Y en ese mecanismo, al mismo tiempo, estamos siempre sacando alguna conclusión necesariamente fragmentaria acerca de cómo es el universo. De esa manera, una parte importante que constituye al fenómeno ideológico son nuestras propias ideas sobre quienes somos y cuál es nuestro lugar en el mundo: cómo debemos comportarnos, cómo deberían ser las sociedades; qué es, en definitiva, ser humane. Se pretenda o no, siempre que la ideología se presenta como problema, esos son temas que la atraviesan.

    Pero la ideología tiene algún que otro parámetro constitutivo más, fundamentalmente en el aspecto histórico. Y no es casual que tanto Legend of Korra como Attack on Titan compartan el mismo momento histórico de desarrollo de las sociedades humanas: el punto cúlmine de la modernidad, que fuera el final del siglo XIX e inicios del XX.

    Brevemente, la modernidad es un momento histórico que arranca en el siglo XVII con la llamada Ilustración, y viene a ser algo así como “la era de la razón”: aparece la ciencia como la conocemos hoy en día, la religión empieza a perder centralidad en las sociedades, suceden la Revolución Francesa y la Revolución Industrial, y entre muchos otros etcéteras prolifera por el mundo un sentido común fundamentalmente antropocentrista; todo pasó a girar alrededor del ser humane.

    Y fue una era de mucho optimismo, fundamentalmente tecnológico: de repente cosas impensadas en tiempos anteriores eran posibles (como volar, por ejemplo), se curaban enfermedades antes incurables, se producía más que nunca, les riques no paraban de generar cada vez más riqueza, y la tecnología no paraba de hacer maravillas. Lo cuál, spoiler, finalmente no sólo terminó mal, sino de hecho casi de la peor manera pensable, que fue la segunda guerra mundial y la bomba atómica.

    Pero otro parámetro importantísimo que determinó la modernidad en la historia de la humanidad es la velocidad del tiempo: desde que empezó, la modernidad determinó que década tras década, año tras año, día tras día, los avances tecnológicos y científicos generaron que el tiempo vaya cada vez más rápido para todes. Hace 500 años atrás, hijes y abueles se dedicaban a las mismas cosas, hablaban de los mismos temas, tenían una vida y horizontes en común; hoy en día a una persona le cuesta encontrar temas de conversación con alguien 10 años mayor o menor. Y eso es algo que nunca se detuvo, llegando hasta nuestra actual desconexión generacional que vivimos en el presente, e incluso profunda desconexión con nuestro “yo” de años anteriores.

    La ciencia es el personaje principal en toda esta historia de la modernidad. Pero no es el único: también fue la historia del nacimiento y caida en desgracia de la ideología. Es así como tanto Korra como la gente de Attack on Titan, súbitamente y casi sin darse cuenta, se encuentra en conflictos ideológicos prácticamente irresolubles, donde todes dicen tener la razón definitiva, y hacen serios esfuerzos por no perderla. Es exactamente lo que pasó con las tres ideologías principales de la historia de la humanidad (y la cuarta tapada por la historia oficial), que se pusieron en juego durante las dos grandes guerras del siglo XX: el liberalismo, el socialismo, y el fascismo.

    Esas ideologías tienen diferentes nombres y diferentes características dependiendo a quién se le pregunte y, nuevamente, este video no es sobre eso. Lo importante para este video es que el siglo XX nos dejó una espeluznante enseñanza al respecto de las ideologías: todas fallan en la cuestión humana, todas deshumanizan por algún lado.

    Después del siglo XX, el cuentito de buenos contra malos está completamente oxidado, y en ese sentido me parece perfecto que Attack on Titan arranque haciendo una cuasi-defensa del fascismo: porque es la ideología que tiene peor prensa en nuestra actualidad, y sin embargo es muy fácil de entender cuando se vé a la humanidad frente a un enemigo externo.

    El fascismo es el fantasma que aterra tanto a liberales y socialistas por igual. Y déjenme aclararlo, para que nadie se confunda: es el fantasma que me aterra a mí también. Pero el punto es que si uno logra ponerse en los zapatos del monstruo, lo humaniza. Y mostrar los efectos de la historia, tanto en términos de los problemas del acceso o no a la información histórica, como en términos experienciales de las cosas que nos tocan vivir, te muestra que todes podemos ser cualquier cosa el día de mañana: inclusive el monstruo.

    El problema del fascismo es que no se resuelve yendo a la escuela a aprender las cosas correctas, ni haciendo esfuerzos por ser objetivo, sino humanizando a les enemigues: algo insoportablemente costoso para cualquier ideología, sin lo cuál las experiencias del siglo XX son más bien inevitables. Y esto queda espantosamente claro y es absolutamente central en la actualidad que estamos viviendo, donde fuerzas de extrema derecha están logrando acceder a la aceptación popular en casi todos los paises del mundo, llegando al punto impensable hace no mucho tiempo atrás de la toma del capitolio en los Estados Unidos: un principio de golpe de estado en la nación más poderosa del planeta.

    Mientras tanto, aunque de otra manera, Korra vive los mismos problemas. Korra se enfrenta a cuál es su rol en una sociedad moderna plena, siendo ella una entidad supuestamente importante para el mundo. Como bien plantea Wisecrack en su reciente video, buena parte de la trama de Legend of Korra gira alrededor del concepto de balance. Y si bien el cómo implementar un balance es en sí un problema, ni siquiera estaba claro para ella a qué se le podía decir “balance” en un mundo convulsionado y complejo como el que le tocó intervenir. Sus antecesores no enfrentaron al desarrollo tecnológico del industrialismo, el uso de la radio para distribuir información por todo el planeta, ni los complicados argumentos de orden político que legitiman los conflicos, las invasiones, y las matanzas: Aang vivió en una época de reyes y dinastías, no de imperialismos tecnocráticos y democráticos.

    No es en absoluto casual que entre sus rivales se encuentren figuras equiparables a Henry Ford. Pero les villanes de Korra claramente marcan el ritmo y eje de su desarrollo como personaje, y sucede que precisamente cada villane es un sofisticado representante de alguna tendencia ideológica; tanto es así que frecuentemente se les encuentra más planteades como “antagonistas” antes que “villanes”, porque no son necesariamente “malignes”.

    No creo que pueda hacerse una analogía lineal perfecta entre les cuatro antagonistas de Korra y las ideologías que conocemos en el mundo real, porque los detalles son muchos. Pero sí me parece claro que Amon está más cercano al socialismo, Unalaq al liberalismo, Zaheer al anarquismo, y Kuvira al fascismo. Y la cuestión por la que “no son tan malos” es que todes tienen plenamente justificadas sus acciones; desde la modernidad para acá, cuando eso sucede, coloquialmente se dice que “tienen razón”. Y es que la modernidad estableció que “tener razón” y “estar en lo correcto” sean básicamente sinónimos, cuando en realidad no lo son.

    Cada antagonista de Korra es en rigor un campeón de su ideología particular. Y a eso no se le gana simplemente tirando piñas y patadas. Wisecrack un poco critica que, irónicamente, eso es lo que termina sucediendo; y coincido en que tal vez The Legend of Korra un poco haya fracasado en su ambición de abarcar los intrincados detalles de ese momento histórico tan importante y complicado.

    Sin embargo, en defensa de ese trabajo, puedo decir que es un intento bastante digno, y mucho más un camino a seguir que otras historias más reconocidas como “completas” por la crítica en general (como puede serlo la precuela). Y esto toma dimensión, tal vez no tanto en el planteo de les antagonistas, sino más bien en las consecuencias que tuvieron en Korra. Precisamente, Korra no puede siquiera empezar a definir la idea de balance, sino hasta cruzarse con esta gente, y es a través de elles que aprende los detalles de un mundo muchísimo más difícil de aprender que el de Aang.

    Atack on Titan, decía antes, no introduce formalmente a la ideología sino hasta la cuarta temporada. Eso forma parte de la estrategia narrativa de la serie, que consiste en sucesivas revelaciones. Y la introducción de la ideología coincide con la introducción del mundo entero. Antes de ese momento, la serie entera sucede sólo dentro de las murallas de un reino aislado. Y cuando la historia pasa a mostrar un fragmento del resto del planeta, el relato pasa a operar en torno a dos personajes nuevos: Falko y Gabi, dos jovencites adolescentes.

    Pero estes jóvenes son de la generación posterior a la que tuvo centralidad en las temporadas previas. Y si bien ambos personajes comparten muchas cosas, tienen posiciones ideológicas muy diferentes. A su vez, esas posiciones ideológicas se encuentran en conflicto con las de sus antecesores, tanto a la hora de coincidir como de disidir. Y es que las coincidencias ideológicas, cuando suceden, no son precisamente un alivio, sino más bien una responsabilidad; cosa que la serie escenifica de manera descarnada y brutal cuando Gabi comienza a volverse más y más y más extrema en su justificación de una ideología absolutamente heredada.

    Son dos problemas distintos el hecho de que existan las ideologías, y el hecho de que se transmitan generacionalmente. El primero es un problema de orden epistemológico, que tiene qué ver con aquella definición de las “anteojeras” y la objetividad y todo eso. El segundo problema surge de la acepción “cosmovisión”, y de cómo la ideología en términos prácticos tiene más qué ver con culturas que con sujetos sueltos. Y no por nada tampoco un personaje importante para la trama de Attack on Titan literalmente se llama “Historia”.

    Sucede que la ideología surge formalmente en la modernidad con el desarrollo de las teorías marxistas de análisis económico, político, y cultural; y en esas teorías, la historia tiene un rol central. Las mismas personas que comenzaran a usar el término “ideología” como herramienta para entender al mundo, plantearon también las ideas de “alienación” y “motor de la historia” para entender a la gente y a todos esos cambios que estaban comenzando a ocurrir de manera cada vez más acelerada con el desarrollo de las fábricas y las ciudades.

    Los personajes de las primeras temporadas de Attack on Titan viven en una era del desarrollo de la humanidad muy similar a la que le tocó vivir a Aang; y tal y como sucedió con Korra, apenas una generación los separa de un mundo completamente diferente y mucho más complicado por el paso de una historia acelerada y las ideologías en juego. Y, también del mismo modo, determinadas ambas historias por los eventos cercanos al final de la modernidad, de repente les protagonistes ya no eran tan importantes ni centrales para la trama como el mundo mismo: y es que en el siglo XX, el personaje principal pasó a ser el mundo.

    Es con esas cosas en mente que a veces hasta me burlo de críticas a la calidad de los personajes supuestamente principales de Legend of Korra, o de críticas desde las supuestas reglas de los géneros narrativos, cuando en relidad me parece que los temas que se pretenden articular están muy correcta y respetuosamente articulados, tanto teniendo en cuenta a la audiencia hipotética como a las posibilidades reales de plantear algo tan sofisticado.

    Pero fundamentalmente valoro tan positivamente a Legend of Korra, y la encuentro tan ejemplar, cuando se evalúa la urgencia que tiene mostrar esta clase de problemas, y las consecuencias que tiene el no hacerlo. Por esto, aunque no tenga nada malo qué decir sobre la historia de Aang, no me parece mejor que la de Korra. Y, del mismo modo, Attack on Titan, cuyo target a todas luces se acerca a los animés de acción y heroismo de los que podemos encontrar toneladas, y que atraviesa algo tan delicado como el militarismo o hasta directamente el fascismo, me parece mucho más respetuosa por las urgencias del mundo real que por las exigencias del mundo editorial.

    La pregunta por si somos hojas en el viento de la historia, o actores con agencia y capacidad de decisión para cambiar algo, no se puede responder ni siquiera mirando hacia atrás, porque todes vemos algo diferente: sea en el mundo, sea en la historia. Y la revelación de la perspectiva del otre es siempre una crisis para nuestro sistema de creencias, que nos gusta pensar que construimos, pero al que en realidad nos sometemos. Cuando nuestras ideologías se muestran como lo fragmentarias y fantasiosas que en realidad son, quedamos siempre al borde del colapso psicológico: somos muy frágiles, muy sensibles a la historia y la experiencia social. Es así como nos volvemos conservadores y hasta fanáticos: escapándole a eso.

    Y tanto Korra como Attack on Titan comparten esta enseñanza, de la que difícilmente podamos decir que tenemos alguna más urgente en la actualidad. Después de Korra, une puede dudar sobre la bondad o maldad de les antagonistas cuando se trata de cuestiones ideológicas. Pero luego de Attack on Titan, queda absolutamente claro que solamente alguien que no vivió una pizca de lo complicado que puede ser el mundo (léase, niñes), o que tiene los ojos tapados por la razón que sea (léase, el intento desesperado por esconderse detrás de la propia ideología), puede decir que ya se sabe cómo se resuelve la vida en sociedad. Ambas series, a su manera, plantean posturas tan humanistas como anti-romanticistas.

    Y con esto podemos volver hacia el inicio de este video, contrastando con personajes como Gokú o Tsubasa. Pero antes, una pequeña mención crítica a ambas series que tomé como ejemplares.

    Tal vez el punto más débil del planteo de Korra haya sido el haber determinado, al final de sus historias, a les antagonistes como gente “rota”, “impura”, o hasta “corrupta”. Porque, como creo haber planteado, la ideología tiene necesariamente un aspecto epistemológico vinculado a eso de “tener razón” y cómo es la realidad. E históricamente la ideología se puso en juego a ver cuál era “la correcta”, ya sabemos todes con qué clase de resultados.

    El problema es que, en todo caso, casi unánimemente, cuando se lleva a cabo un juicio ideológico, “la corrupción” pasa a ser una de las conclusiones para justificar un “desvío” de lo correcto. Esa “corrupción” es frecuentemente y a todas luces utilizado por los peores actores de las sociedades para sobresimplificar y polarizar los juicios ideológicos, llevando hasta fenómenos insoportablemente actuales como los triunfos electorales de Donald Trump, Jair Bolsonaro, o Mauricio Macri. Y es que no hay camino más acelerado hacia el fascismo que “la corrupción”, que no significa ninguna otra cosa más que “lo contrario a la pureza”.

    Los racismos, los clasismos en el mal sentido, los edaismos, la xenofobia, los conflictos de género, y tantos otros pensables, son todos ejemplos de qué pasa con las sociedades cuando se pretende distinguir entre pures e impures (o bien “corruptes” y “no corruptes”, como está de moda ahora). Para el tema que maneja Korra, y el coraje con el que lo manejaron (tomando distancia de la fórmula ganadora de la precuela), me parece una torpeza en la ejecución dejar a “la corrupción” como explicación del antagonismo.

    Eso, y detalles un poco menos dañinos, como ser la continuidad de la obra de les antagonistas. ¿El movimiento igualitario de Amon desaparece de la noche a la mañana porque su creador se mostró “corrupto”? ¿Con Kuvira se terminan las facciones imperialistas? Cosas de esas no son coherentes con la complejidad del mundo que eligieron plantear, y se sienten.

    Y en el caso de Attack on Titan, que toma decisiones diferentes para plantear estos temas, le critico la ausencia del rol de la ciencia en su historia. Porque si bien tienen tecnología, que se percibe en el desarrollo de tecnología militar y civil, lo cierto es que no parecen mostrar ninguna forma del desarrollo abstracto y filosófico que constituye la ciencia, ni siquiera cuando se trata de hablar del resto del mundo. Y esto es otra marca importante de la modernidad, que en Attack on Titan se vé muy tapada bajo las consignas religiosas o incluso una especie de planteo disimulado de unidireccionalidad e inevitabilidad en la Historia (al estilo Marx).

    Y es que la ciencia comienza en el mismo fenómeno que mostraron en muchas oportunidades en el desarrollo de este relato, que es la pregunta. Me refiero a cosas como Irwin preguntándose si había gente más allá de las murallas, pero también a cosas como Eren odiando a los titanes y jurando destruirlos a todos, o a Errin soñando con libertad. Todas esas cosas llevan a preguntas que determinan la vida de quienes luego terminan buscando las respuestas. Y esa búsqueda es lo que da lugar a todas esas teorías, a veces tan lúcidas e inmediatamente reveladoras, otras veces tan extrañas y sofisticadas, sobre el universo, que constituye la ciencia. Porque Eren, en su afán por derrotar a los titanes, o incluso personajes como Zeque, pudieron preguntarse si no había manera de alterar la condición titán en la sangre: es decir, una cura. Y, de hecho, cuando Zeque se lo pregunta, llega a conclusiones bastante simplonas.

    Pero más allá de esos dos o tres personajes, esa clase de preguntas, entre muchísimas otras sobre las que este video NO trata, son estadísticamente inevitables cuando hablamos del planeta entero, y especialmente de uno en abierto conflicto, como fue el del siglo XX. Alguien siempre va a hacer las preguntas incisivas que hace falta hacer para resolver un problema, y eso es parte constitutiva de la ciencia. Attack on Titan falla, hasta el momento, en darle a eso un lugar adecuado, y sin ello la historia comienza a sentirse forzada hacia una conclusión que no tenía por qué ser inevitable, pecando aquí también de pretender articular un universo que justifique las acciones de les personajes.

    Y como nota final sobre esas series, una aclaración importante. Lo que celebramos de Korra o Attack on Titan no es que estén en lo correcto, sino que pongan en escena cosas que otros trabajos más bien esconden. Y claramente consideramos que es muy importante poner esas cosas en escena; más importante incluso que satisfacer los sesgos de las audiencias. Pero acá no consideramos que las ideologías sean todas iguales: son, de hecho, muy diferentes. Como objetos de estudio se prestan a comparaciones y nos permiten pensar cosas que comparten, pero en la vida diaria son experiencias más bien inconmensurables. Y en ese sentido tampoco estamos diciendo que una persona sea imbécil por abrazar o negar tal o cuál ideología: más bien estamos diciendo que lo hagan pero con responsabilidad. Precisamente, Attack on Titan y Legend of Korra, nos permiten dar ese mensaje.

    Pero bueno… comparemos todos esos problemas con Gokú queriendo pelear, o Tsubasa queriendo jugar al fútbol. El problema con esas historias “simples” es que, precisamente, sobresimplifican los personajes. El universo es simple, la sociedad es simple, las emociones son simples, y la vida es básicamente una cuestión casi exclusivamente de voluntad. Todo eso es algo muy peligrosamente parecido a los argumentos actuales que sobresimplifican a los serios problemas políticos y económicos que vivimos todes en cualquier país del planeta, dando lugar a polarizaciones y binarismos extremos. Y es fundamentalmente una lógica de niñes, no de gente que ya tuvo esas experiencias que revelan los límites de la propia ideología.

    No hay mucha distancia en el “querer es poder” de Tsubasa, al que plantea el neoliberalismo para salir de la pobreza; no hay tanta distancia entre el valorar la pureza del alma de Tsubasa o Gokú hasta lo emocionante, y el despreciar “la corrupción” como si fuera el gran problema de nuestras sociedades. Y, todo bien, no creo que Gokú ni Tsubasa cuenten historias fascistas: pero definitivamente necesitamos, generacionalmente hablando, otra clase de héroes a los cuales mirar con simpatía, si lo que pretendemos es resolver los problemas complejos de un mundo complejo.

    Estos “héroes” de cuando yo era niñe, allá por los ochentas y noventas, que veo re-editándose e insistiendo, y que veo consumir por gente de mi edad como algo digno de celebración, son representaciones de gente que no crece, que no cambia con el tiempo, que casi no tiene generaciones posteriores con las cuales dialogar a la hora de reflexionar sobre sus acciones. Usualmente tienen un maestro o maestra que les enseñó algo, y eventualmente los superan, y eso es parte del relato. Pero, ¿en algún momento se pregunta Tsubasa sobre sus posibles hijes? ¿En algún momento van a importar en algo Gohan o Goten para la historia de Dragon Ball, o va a seguir siempre girando alrededor de Gokú? ¿Dá igual entrenar para Gokú, o jugar al fútbol para Tsubasa, si hay o no hay guerra mundial? ¿Serían gente anti-cuarentena durante el COVID-19, porque querrían realizar sus pasiones con libertad?

    La verdad que es un poco tramposo preguntarse cosas como esas. Pero también es tramposo plantear gente que vive casi completamente fuera de la historia, con dos variables sobre las que articular toda su estructura de pensamiento, y decirle a eso “héroe”. Porque, convengamos, eso describe bastante también a la gente que se fanatiza con alguna consigna del momento que le tocó vivir, como pueden ser “los intereses de clase”, “la nación”, “la libertad”, o “combatir la corrupción”. Y me parece, sinceramente, que de esa gente ya tenemos más que suficiente.

    Y así terminamos nuestro primer video. Todavía estamos explorando detalles sobre cómo hacerlos, y tenemos un montón de dudas al respecto: el tono, la duración, los conceptos que articulamos, y muchos más. De modo que nos vendrían muy bien sus comentarios. Si quieren, pueden escribirnos acá, o pueden hacerlo a la casilla de email comentarios@filosofeels.com.ar. Como sea, gracias a todes por llegar hasta acá, y nos vemos en el próximo video.

Cancelígeno

| June 11th, 2021

Hoy salió a la cancha Nuclear, un nuevo medio que pretende dar discusiones, a veces un tanto apagadas en otros espacios, y otras veces desde modos y perspectivas diferentes.

Y allí me publicaron un artículo, titulado Cancelígeno, donde repaso algunos pormenores de la cancelación de Richard Stallman, y reflexiono cómo eso se relaciona con otros fenómenos actuales. Así que dejo acá también la url: https://nuclear.com.ar/2021/05/27/canceligeno/

    Tuve acceso a una copia de Multiversos, el recientemente publicado libro del grupo Luthor, y lo terminé de leer hace un par de días. El libro es excelente, y lo considero una lectura recomendada si no fundamental para cualquier persona que se interesa por entender a la ficción en tanto que objeto de manera rigurosa, contemporánea, y comprometida.

    Sin embargo, mucho más que una reseña (que francamente no sabría cómo escribir), me queda en el tintero una crítica, que me viene genial para mis propias teorías. Así que voy a aprovechar el envión de tener la lectura fresca y el tiempo libre de Enero, para dejar anotada mi línea de lectura de un problema que percibí. Sucede que en el capítulo 6 del libro, se habla sobre el concepto técnico de “saturación” en la ficción. Y mientras lo explicaron, dos puntos claves me resultaron disonantes. Se trata de apenas una diferencia de interpretación en un fenómeno, pero que cambia cierta carga de responsabilidad de mecanismos de bajo nivel, y entonces explica el fenómeno de otra manera, llevando tal vez a otros conceptos diferentes para entender la ficción.

    (…) Nuestra percepción de lo real parte de una saturación completa y de la negociación constante entre nuestros sentidos, es decir, del recorte que nuestra psique necesita hacer de la información proporcionada por ellos para organizar la experiencia y no colapsar en la hiperestesia. (…)

    Este es el primer punto donde empecé a sospechar de lo que leía, de modo que voy a detenerme a investigarlo. Hay algo aquí que me parece… confundido entre el sentido común de lo que se afirma. Es decir: cualquiera estaría de acuerdo sin grandes debates en que la realidad se constituye de aquello saturado en conjunto con aquello percibido. Pero hay detalles.

    En primer lugar, el límite de la hiperestesia. Hiperestesia es hipersensitividad: sentir demasiado, sentidos saturados (en la acepción coloquial del término). Esto se puede imaginar fácilmente con ruidos tan fuertes que aturden, luces tan brillantes que nos hacen doler la cabeza, etc. Y es interesante pensar los pormenores de esas operaciones físicas, biológicas, aún siendo legos en el asunto (es decir, sin ser médicos, ni estudiosos del cuerpo humano).

    Piensen un segundo en esos ejemplos: ruido muy fuerte, luz muy brillante. “La psique” a la que se hace referencia en la cita anterior no puede hacer absolutamente nada contra eso: no le pone un límite a los decibeles del tímpano ni a los lúmenes del ojo; la psique no calibra los sentidos, que a su vez no negocian entre ellos: en la hiperestersia, los sentidos se padecen, y punto. Y la hiperestesia, al menos en esas escenas que yo planteo, se produce por causas ajenas al funcionamiento de la percepción de lo real: fuerzas hostiles, desestabilizadoras de ese mecanismo. Hay otros ejemplos pensables, como ser condiciones del cuerpo que lo llevan a fenómenos similares: configuraciones que lleven algún sentido a ser vivido con mucha más intensidad que la de alguna forma de normalidad deseable. Piensen en alguna alergia en la piel, que te hace sentir demasiado cuando tocás algo, y “pincha” o “quema”.

    Aquí parece asumirse que el recorte de “la información proporcionada por los sentidos” tiene el doble fín último de “organizar la experiencia” y de “no colapsar en la hiperestesia”; pero en esos ejemplos inmediatos que introduzco yo, para nada extraños, no parece tener mucho qué ver la hiperestesia. Asumo que se está sosteniendo una hipótesis como la siguiente: “si no recortáramos nuestros sentidos, nos quemarían la cabeza”. Y coincido. Pero eso no es “hiperestesia”, y el detalle es absolutamente clave.

    Esa “cabeza quemada” no sería el efecto de “un sentido (o más) que sintió demasiado”, sino de una percepción intentando abarcar más de lo que puede. Y ese “recortar” y “hacer de intermediaria entre los sentidos” que parece ser la función de la psique, hoy por hoy se puede llamar sin grandes polémicas “procesar”. Como decía antes, la psique no calibra los sentidos: están siempre sintiendo a pleno. Siempre están a su 100% biológico de rendimiento. Lo que la psique sí puede hacer en situaciones normales es administrar el valor de lo que le brindan esos sentidos: recortar, valorizar, enfocar, etc. La “cabeza quemada” entonces se daría en la psique: con lo cuál no se le puede asignar a los sentidos la responsabilidad del problema. Y si el problema está en la psique, y es problema a la hora de procesar, de lo que estamos hablando es de, básicamente, de un problema de “ancho de banda” de la cabeza.

    Hasta aquí, apenas un detalle menor, mañoso, que en definitiva cambia poco o nada: casi que se termina diciendo lo mismo con otras palabras. Pero más adelante aparece la siguiente segunda cita:

    (…) podemos no haber viajado jamás a China, pero vivimos en la certeza de que no por eso los teatros de Shangai dejan de tener un número determinado, que podríamos averiguarlo, y que pueden ser visitados en direcciones verificables.
    (…)
    En cambio, por definición todo mundo ficcional es un mundo incompleto. (…) No podemos afirmar ni negar la existencia de la localidad de Aldo Bonzi en los mundos ficcionales en los que transcurre el Ulysses de Joyce, el Grand Thief Auto, o Seinfeld. Al menos no hasta que una expansión de esos mundos ficcionales llegue hasta allí,
    (…)
    La saturación del mundo ficcional, entonces, jamás supone la amenaza hiperestésica de lo real, sino que es una selección de escorzos y una gradual distribución de ausencias, dependiente, por principio de divergencia mínima, del marco de referencia de la realidad en la que se insertan.
    (…)

    Y aquí ya se asumen muchas cosas, que implican divergencias importantes entre lo que yo sostengo y lo que el capítulo ofrece. Vamos a tener que ir por partes.

    Fíjense, por ejemplo, esa última mención a la hiperestesia, y compárenla con lo que yo expliqué antes; aquí sí se vuelve importante la diferencia entre los sentidos y la psique. En el planteo de Luthor, esto no es menor: para elles, “inmunidad a la hiperestesia” se muestra como un razgo constitutivo de lo ficcional, mientras que desde mi punto de vista no existe tal inmunidad: la ficción te puede comer todo el ancho de banda de la cabeza sin mayores problemas.

    La clave está en el orden de los factores. Recordemos, si la responsabilidad no es de “los sentidos”, entonces es de “la psique”; y la psique “procesa”, y tiene un problema de “ancho de banda”. Claramente la analogía inmediata es con una unidad central de proceso típica de computación básica, y al problema aquí podemos llamarlo más específicamente “capacidad de cómputo” o “de proceso”. Todes sabemos que las computadoras pueden tener “el cpu al 100%”, y entonces “ponerse más lentas”, ¿verdad? O también “tildarse”. Todas esas cosas suenan bastante parecidas a aquél “colapso” del que la psique se protege al cortar la información. Pero ese colapso no sería porque el mouse o el teclado “se volvieron muy sensibles” (en cuyo caso la computadora es simplemente más difícil de usar), sino porque el CPU no tiene más capacidad, y se calienta, y demás fenómenos conocidos. Así entendido, la naturaleza de lo que procesa el CPU no hace ninguna diferencia, sino cuánto puede procesar y en qué tiempo.

    Y lejos de ser gratuita o lúdica, o siquiera didáctica, esta comparación viene al caso de introducir una cuestión que Luthor no toma en su libro: la ficción en tanto que problema computacional. Lo cuál es especialmente llamativo teniendo en cuenta que uno de sus principales intereses es abarcar a los video-juegos como género legítimo de ficción, y teniendo también en cuenta que en todo caso Luthor siempre reconoce los pormenores técnicos y operativos de cada medio (cine, literatura, etc) como condiciones de análisis. Sucede que los video-juegos introducen su propia especificidad en la cuestión computacional o informática; y tal y como sucediera con otras “nuevas artes” de tiempos anteriores (claramente pienso en el cine), este nuevo aspecto permite entender detalles de la ficción que de otras maneras serían escurridizos.

    Pero definitivamente lo más llamativo de esta ausencia de lo computacional en el texto de Luthor es que uno de los mecanismos más trabajados en el ambiente computacional, precisamente, es la saturación, en todas sus acepciones: porque el problema del CPU que planteo no es alegórico sino real, literalmente hay industrias enteras empedernidas en resolverlo, y durante décadas los video-juegos vienen siendo uno de los campos principales de batalla.

    Dejo apenas un ejemplo, ilustrativo de los contactos que hay entre la saturación de Luthor y la informática. Piensen en el desarrollo de los video-juegos 3D en primera persona. ¿Alguna vez se pusieron a curiosear cómo funcionan? ¿Intentaron tal vez programar alguno? Tienen a su disposición un mundo ficcional, y necesitan buscar estrategias eficientes de interacción con el mismo. “Eficientes” significa varias cosas, y entre ellas se encuentra “que no se bloquee el CPU tratando de procesar todo al mismo tiempo”: es decir, aquella “hiperestesia” que amenazaba desde lo real. Literalmente las ficciones ahora padecen esa hiperestesia, y literalmente quienes desarrollan video-juegos tienen que buscar estrategias para trabajarla o caso contrario el video-juego no existe. De ninguna manera la ficción está libre de esa “hiperestesia”, y cabe preguntarse seriamente cuáles son las diferencias entre esa “optimización necesaria” del problema computacional y aquel riesgo “sensorial” que Luthor describe como uno de los límites que separa ficción de realidad.

    Otro ejemplo de problemas en aquel planteo de Luthor. Se trata de una experiencia personal. Hace algunas semanas, distendiéndome luego del trabajo y el año académico, me puse a ver por internet el video-juego “Half Life: Alyx“. El cuál, debo decir, es una maravilla de la tecnología. Sin embargo, tuve la muy triste experiencia de padecer un efecto colateral de ese modo particular de video-juego: me generó nauseas. No pude seguir mirándolo, aunque me encantara. ¿Y por qué no pude? Literalmente por hiperestesia. En este caso, mi sentido del equilibrio se vió afectado por estar viendo en pantalla completa un juego VR en dos dimensiones. Y eso sucedió sin que yo me “tildara” ni “me pusiera más lento”: mi capacidad de cómputo estaba intacta. Es un ejemplo de cómo la hiperestesia efectivamente es otra cosa distinta de la que habla Luthor, y entonces no es ahí donde está ese límite de la ficción que busca. Y que claramente hay hiperestesia en la ficción.

    El juego VR literalmente exige calibrar la experiencia sensorial; ya no estamos hablando de estrategias discursivas sujetas a interpretaciones, o referencias que requieran un nivel de entrenamiento cultural determinado para poder percibir con plenitud el recurso literario, sino de efectos biológicos directos. Y el caso particular del sentido del equilibrio es paradigmático: un problema también de la robótica y la cibernética. Sucede que (y esto también fue una experiencia personal, porque yo estudié robótica y quise programar inteligencias artificiales desde muy jóven), cuenta la leyenda, en la medida que se pretendieron hacer robots autónomos y/o humanoides, quienes los desarrollaban, al intentar copiar las características humanas, se fueron dando cuenta de que en realidad tenemos otros sentidos sumados a los cinco canónicos, siendo el del equilibrio uno de ellos. ¿Quién no vió algún video de un robot humanoide, siendo torpe y cayéndose sin poder demostrar el menor atisbo de equilibrio? Es típico que tomamos conciencia de estos sentidos sólo cuando los perdemos, y mientras tanto continúan operando “en segundo plano”, sumando datos para ser procesados, sin que nos demos cuenta. Y es difícil pensar cómo “la psique” regularía esos sentidos si ni siquiera nos damos cuenta que existen; entraríamos en el terreno de lo inconsciente.

    Pero no es todo. Otras cosas se pueden obtener de esos ejemplos. Los juegos 3D se la pasan haciendo “recortes” de “lo que se percibe”. En realidad, lo que hacen es recortes de lo que se procesa, y de cómo se visualiza. Y es muy importante prestarle atención a los algoritmos utilizados al caso, para entender la clase de problemas puntuales que se solucionan. Por ejemplo, siendo que la generación de imágenes es uno de los procesos más costosos (¿lo será también para el ser humano?) sólo aquello que está dentro del rango de visión se debe enviar a procesar para ser generado como imagen; la memoria volatil es más rápida que el disco rígido, de modo que todo aquello que pueda guardarse en memoria se pretende mantenerlo allí para poder ser accedido rápidamente, de modo que el CPU no deba quedarse esperando al disco rígido para poder terminar alguna operación (allí ya estamos hablando de interdependencia articulada temporal y secuencial entre diferentes componentes de un sistema); los espacios tridimensionales pueden ser muy grandes y tener muchos componentes para procesar en simultáneo, de modo que todo ese proceso (así como también la ya mencionada generación de imágenes) se acelera con hardware ad-hoc para que no “colapse” el CPU, y diferentes algoritmos permiten cargar en memoria diferentes fragmentos del mundo con diferente criterio, para no necesitar cargar todo junto; etcétera. Si bien claramente la materialidad es muy distinta, no parece haber grandes diferencias conceptuales con aquel “necesita hacer de la información proporcionada por ellos para organizar la experiencia y no colapsar” de Luthor. Y así planteado, se nubla mucho la diferencia entre lo que Luthor propone que hace la gente para acceder a la realidad y lo que las computadoras hacen para generar la ficción.

    Computacionalmente, los algoritmos de optimización de capacidad de cómputo, u otras optimizaciones, no sólo los implementan los video-juegos, sino que toda la informática está plagada de ellos. Por ejemplo, los videos que consumimos por internet tienen un grado tal de optimización que podemos ver cosas de altísima calidad transmitiendo un porcentaje fraccionario de los datos totales de tal visualización: se utilizan algoritmos predictivos, y de variaciones mínimas, calibrados para obtener calidades suficientes, que reconstruyan la imagen a partir de menos información de la que se disponía originalmente, y permitan un balance entre cantidad de datos que se transmiten y calidad del producto final. Literalmente se calibra si se usa más CPU, más internet, placa de video, etc. Y siempre con el horizonte de que “no colapse”.

    Otro detalle. Luthor dice que “por definición todo mundo ficcional es un mundo incompleto”, y contrasta eso con la verificabilidad de lo real. Pero esto es profundamente problemático. En primer lugar, se habla de manera inocente de verificabilidad con el ejemplo de los teatros de Shangai, intentando sostener esa idea con la expresión “vivimos en la certeza”. Frente a esto, me permito recordarle a Luthor que vivimos en un momento de la historia de la humanidad donde existe más información que nunca, más accesible que nunca, más fácil de compartir que nunca, y con un desarrollo de la ciencia y la técnica absolutamente estremecedor y maravilloso, pero así y todo fragmentos significativos de la sociedad mundial te discute que la tierra es plana. “Vivimos en la certeza” no da cuenta de lo complejo que es el problema de la verificabilidad de la realidad; más bien dá cuenta de sus límites, y convierte a la realidad en un caso particular de la ficción: algo con lo que estaría plenamente de acuerdo, pero que no creo sea lo que Luthor pretendía decir.

    Y no tan curiosamente los video-juegos también tienen cosas para decir al respecto. Quizás lo que dice Luthor con respecto a los límites de la ficción sea aplicable para la literatura o el cine, pero en los video-juegos existe la posibilidad de la generatividad: se vá generando, sin más límite que el que resistan los servidores y el software. Eso coincide con el universo real, donde el límite lo pone la física universal. Y, además, en un mundo de un video-juego uno puede ir a ver al código y a la memoria qué existe y qué no: algo bastante más eficiente y preciso que la verificabilidad de la realidad. Está claro que Luthor se concentra más bien en la idea del canon y el relato concreto; pero el canon es errático cuanto menos, y la ficción no se reduce al relato: dos aspectos que también coinciden con lo que llamamos “realidad”.

    Eso último es importante. Porque claramente se pueden hacer interpretaciones de a qué llamamos “límites de la ficción”. Y Luthor se amparó en un sentido común de verificabilidad para hablar de realidad, cuando a todas luces es un concepto en absoluta crisis, en todo el mundo, de la mano de fenómenos como la posverdad y los infinitos negacionismos reaccionarios de toda índole. Pero al mismo tiempo, Luthor se permitió sostener “no podemos afirmar ni negar la existencia de la localidad de Aldo Bonzi en los mundos ficcionales”, poniendo diferentes ejemplos, entre ellos Senfield: una sitcom que no pretende plantear ningún universo distante ni extraño, y de hecho transcurre en Nueva York. Luthor va a tener que hacer serios esfuerzos para convencer a cualquier persona poco comprometida con la crítica literaria de que “en realidad no existe Aldo Bonzi en el universo Senfield”; porque es el más elemental sentido común que sí existe. Y cierra esta propuesta afirmando que no se va a poder sostener la hipótesis Aldo Bonzi “hasta que una expansión de esos mundos ficcionales llegue hasta allí”. ¿Por qué lo menciono? Porque estas expresiones son claramente mucho más normativas que descriptivas de la ficción: si no un síntoma de que algo no anda bien con la teoría, al menos un pedido de concesión.

    “Vivimos en la certeza” se aplica perfectamente al decir “Aldo Bonzi existe en el universo de Senfield” para cualquier hije de vecine. Aquí, en esta dimensión del problema que se plantea para explicar el concepto de saturación, tampoco percibo ninguna diferencia entre “la percepción de lo real” y “acceso a la ficción”. Ni tampoco en la idea de “selección de escorzos y una gradual distribución de ausencias” (casi una descripción de lo que hacen los motores 3D de video-juegos), en especial teniendo en cuenta que en todo caso se depende siempre de una “enciclopedia personal” y una “divergencia mínima”: ambas cosas necesarias para entenderse a une misme y a les demás en la realidad.

    Etcétera. Esos son algunos puntos disonantes en el planteo del capítulo de Multiversos sobre Saturación. Puntos que, admito, recorto y focalizo para poder hacer mis propias interpretaciones sesgadas e interesadas. Y digo esto porque en líneas generales el capítulo es sólido, y el concepto de saturación es cuanto menos productivo. A mí me hace ruido porque es básicamente mi tema de estudio, y puedo afirmar con plena seguridad que caso contrario no tendría nada qué reprocharle al capítulo. Y me parece que todas estas divergencias pueden entenderse tirando del hilito de la “hiperestesia”. De hecho, me parece muy lúcido que hayan planteado esa barrera. Mi recorrido teórico fue similar, pero con la divergencia mínima de considerarlo problema computacional. Y así, para estos problemas, yo desarrollé otras herramientas, que no creo que compitan con el concepto de saturación sino que sirven más bien para integrar aquello que no queda satisfecho en las presentes críticas.

    Decía, yo partí también del problema de lo sensible, como Luthor pensó a la hiperestesia como peligro de lo real y límite distintivo de la ficción. Pero yo invertí la carga de responsabilidad del problema poniéndola en “la psique”, y no en “los sentidos”. De esa manera, en Feels Theory, interpreté a los sentidos como el input de un segundo componente de nuestra subjetividad, y pensé un poco en qué hace ese otro componente. Pero también pensé en qué hacen los sentidos, qué son. Mi objetivo fue lograr una teoría que explique algunos fenómenos contemporáneos y urgentes de disonancias para con la realidad (o sea, ficciones): en concreto, la posverdad. Por eso mi lectura está calibrada para percibir cosas como “verificabilidad ingenua” o “sentidos y capacidad de cómputo”. Sucede que interpretando a los sentidos como un input de otra cosa, puedo pensar problemas de esa otra cosa, en lugar de ponerme a pensar en las infinitas materialidades de cada posible vector de influencia (un trabajo análogo a la búsqueda de especificidad de Luthor en la ficción, separándola del medio puntual). Pero también partí de otros conceptos, basados en experiencias personales, y francamente pasionales. Y sucede que, si separo los sentidos del cómo se procesan, y los interpretos como inputs de ese procesador, en realidad ese procesador tiene capacidad para tomar muchos inputs diversos, y no necesariamente son sólo los cinco sentidos canónicos. En ese nivel, ¿qué diferencia hay entre los sentidos canónicos y cualquier otro input de ese “procesador”? Tal y como fuera el caso del equilibrio, que constituye “un sentido de segunda línea”, pueden existir muchos otros “sentidos”, entendiéndolos como inputs. Y como si fuera poco, este modelo también permite una recursividad: el output del procesador puede volver a ser input en un segundo tiempo. De esa manera experimentamos, vivimos, sentimos, a la ficción; y allí ciertamente hay lugar para “hiperestesia”. Y, como si fuera poco, un pilar de mi teoría es la idea de la verdad como sentido: algo que explica mucho mejor al “vivimos en la certeza” de Luthor que la verificabilidad de la realidad.

    Hay mucho para decir, y no lo voy a hacer en este texto. Pero puedo adelantar que a los algoritmos para procesar información los llamo “sesgos”, a lo pre-procesado guardado en “base de datos” los llamo “prejuicios”, hablo de “experiencias cognitivas”, separo las nociones de “información” y de “dato”, entre otras cosas más. Yo abracé el aspecto computacional para encarar a la ficción, al mismo tiempo que abracé a sentimentalidad, para buscar explicaciones nuevas a qué pasa con las personas en el mundo que conocemos, y poder desarrollar tecnología vinculada a ello. Por eso el subtítulo de mi libro es “desde la posverdad, hacia la sentimentalidad artificial”. Y desde ese lugar entonces pretendí introducir una lectura crítica de apenas unos pocos renglones, disonantes para mi paladar, del reciente trabajo de Luthor.

No es tanto tiempo

| October 26th, 2020

    Querida gente que viene después de mí. Les escribo algunas notas, apenas aprovechando una oportunidad, antes de que la vida me encuentre de nuevo sin el tiempo, ni las energías, ni tal vez la claridad, cuando no directamente la salud. Quería decirles algo desde hace mucho tiempo, para lo que siempre parece que no fuera el momento, que lo que voy a decirles no viene al caso de nada, que ya lo saben. Supongo que lo vamos a averiguar. Y es que la cuestión es, precisamente, acerca del tiempo.

    En este momento estamos atravesando la pandemia. Espero que sea “la” pandemia, y que no suceda lo que hace 100 años atrás pasó con “la gran guerra”; espero que no venga otra después, o incluso cosas peores, y que este evento que vive mi generación sea realmente una cosa excepcional, trascendente, histórica. Pero tengo la triste convicción de que eso no va a ser así, y que ustedes van a pedirnos explicaciones por el mundo de mierda que van a haber heredado; y que cuando eso suceda, mis hermanes, con mucha frustración y vergüenza, van a bajar la vista sin saber qué decirles. O peor aún, van a gritarles, defendiéndose, diciéndoles qué es lo que tienen que hacer y cómo tienen que vivir. O van a mentirles, mintiéndose también a sí mismos, desesperades, aterrades, echando culpas hacia todos lados, aferrándose a la fé lunática de sus ideologías moribundas como salvavidas en pleno naufragio.

    Lo siento mucho. Es lo primero que tengo para decirles. Sinceramente lamento que las cosas sean lo que son para ustedes. Sepan que no se lo merecen: no es su culpa, no es por nada que ustedes hayan hecho o dejado de hacer. Fuimos nosotres, les que vinimos antes. Cúlpennos a nosotres: por favor, déjennos al menos quitarles esa carga, permítannos al menos eso, si es que no podemos hacer nada más.

    Lo segundo que les pido que entiendan es que, se los juro, nosotres no sabemos qué hacer. Estamos improvisando, y no nos está yendo bien. Vemos al mundo destruirse más rápido de lo que llegamos a meterlo en nuestra cabeza, y nos vemos unes a otres sufriendo desconsolados sin saber cómo ayudarnos. No queremos morir, y sólo queremos una vida felíz y en paz, pero así y todo nos matamos unes a otres y a todo lo demás que nos rodea en una sucesión de infinitos accidentes que jamás aprendimos a controlar. La situación nos excede, y francamente nos excedió siempre. Es desesperante. Y les juro que hacemos lo que podemos, lo que nos sale hacer.

    Pero tengo algo más para transmitirles, y les aseguro que esto es mucho más importante para ustedes que unas simples disculpas o un poco de empatía. Tienen que saber esto: mi generación es hija del siglo XX. Y el siglo XX fue un absoluto y completo desastre. Mi generación, como la de ustedes, heredó un mundo que iba a toda velocidad hacia el desastre. En eso les entiendo, y por eso les escribo: porque tengo reflexiones al respecto, y estoy haciendo lo que esté en mis manos para que ustedes no tengan que vivir las mismas cosas que a nosotres nos marcó tan para mal. Ese demente a los gritos, esa señora que se larga a llorar sin saber qué decir, ese viejito que les agarra fuerte el brazo con miedo desesperado a la muerte y a la soledad, alguna vez vivió eso que están viviendo ustedes ahora, y nunca lo resolvió. Sé que es horrible, lo sabemos todes les que heredamos el siglo XX, les que tuvimos la responsabilidad de construir el siglo XXI, y que fracasamos.

    Cuando llegó nuestro momento, el mundo nos dió a elegir: mierda, o mierda. Y ni siquiera eso: la verdad es que no había dos opciones. Yo nací en 1982, y para el 1989 ya había una sola. Yo no le hice dos guerras mundiales a nadie, no tiré ninguna bomba atómica en ningún lado, no llevé adelante ningún Plan Condor ni ninguna proxy war: y sin embargo yo tuve que pagar la cuenta de todas esas cosas. Y no sólo eso: me dijeron todos y cada uno de los días cómo tenía que hacerlo, qué cosas estaba bien y mal elegir, cómo tenía que pensar. Me dijeron que sólo podía elegir al capital: ya sea el de Smith, el de Marx, el de Keynes, o el de Hayek; y cuando dije que no, se burlaron de mí, abusaron de mí, me humillaron frente a todes, e hicieron de todo para doblegar mi cuerpo y mi alma. Me castigaron cuando soñé cosas mejores y distintas. Me respondieron con violencia cuando les dije que creía en mis ideas. Y ni siquiera me ofrecían el exilio: me amenazaban con la prisión o la muerte si no hacía caso, y me decían que no tenía ningún lugar a dónde ir, que el mundo era uno sólo.

    Mi historia es la de todes mis hermanes. Poques la atravesamos con cordura, difícilmente podemos decir si en verdad no estamos loques. Tenemos miedo, a les demás y a nosotres mismes; nos cuesta infiernos distinguir amigues de enemigues, y encima el siglo XX se ocupó también de matarnos la fé. Yo soy un bicho raro al que todavía no lograron quebrar. No sé por qué, no importa mucho; somos algunes, ni de casualidad mayoría en nada. Confío en poder vivir hasta el último día de mi vida con lucidez espiritual plena, pero la verdad es que no puedo asegurarlo. Así que déjenme transmitirles esto último, antes de que tal vez no pueda hacerlo más.

    Sepan esto, gente que viene después de mí: todo este pandemonio tiene un defecto secreto, que no se nota mucho, pero que una vez lo pude ver. El secreto es que no es tanto tiempo.

    Desde la revolución industrial para acá, todo vá más rápido día tras día tras día tras día. Hoy estamos en la era de la información, en la que mi generación puso tantas esperanzas, tan sólo para ser nuevamente sometida y humillada por las mismas fuerzas enfermizas de siempre: hoy internet es nuestro gas mostaza, nuestro bombardero, nuestra bomba atómica; la misma internet que iba a unir y liberar al mundo, y que terminó esclavizándolo y dividiéndolo como nunca antes, tal y como pasó con las maravillas científicas y tecnológicas de todo el siglo XX. Caimos en la misma trampa. Y repetimos el mismo pecado de duplicar y triplicar y cuadruplicar la velocidad de todo. Y les juro que no nos dimos cuenta hasta no tener al mundo en llamas preguntándonos qué carajo fué lo que pasó.

    Y es que no es tanto tiempo. Hace un par de días hablaba con una amiga, y ella me decía preocupada: “la revolución francesa no fué un evento único y rápido; desde el primer evento al último pasaron como setenta años, y esos setenta años fueron de monarquía absoluta, les primeres que se levantaron terminaron todes muertes”. Ella temía un nuevo período oscuro para latinoamérica. Y fue entonces cuando le dije que entre el primer gran gobierno argentino y el siguiente pasaron también básicamente la misma cantidad de años, que no es tanto tiempo. Ayer fué un día histórico en Chile: 80% de les chilenes en todo el mundo votaron que quieren otra constitución, diferente a la que les dejó Pinochet. Chile fue el gran ejemplo de éxito neoliberal para el mundo, y especialmente para latinoamérica: Chile era lo que todes les demás debíamos ser. En Chile, básicamente, la macroeconomía daba siempre positivo, mientras que les chilenes vivían en la más demencial desigualdad. Eventualmente, con la educación y la jubilación privatizadas, mi generación de chilenes se encontró teniendo que mantener a sus hijes y a sus padres, además de a sí mismes, todes sometidos bajo deudas imposibles de pagar. Más de 30 años soportaron eso. Y no es tanto tiempo. Y fue suficiente para que una chispa de treinta centavos saque a la calle 5 millones de personas a protestar en un país de 15 millones. Hace poquitos días el pueblo boliviano votó al MAS, el partido de Evo Morales. A Evo lo echaron a tiros hace un año atrás, en un golpe de estado articulado por la Organización de los Estados Americanos, donde literalmente quisieron matarlo. Evo transformó Bolivia de una manera tan épica que probablemente haya pocos registros históricos comparables; vayan a leer libros sobre lo que hizo Evo. Y hace una semana atrás decían que sus rivales tenían chances, que Evo la tenía difícil; ganó en primera vuelta con el 55% de los votos, con veintipico de puntos de distancia. Parecía que habíamos perdido latinoamérica hace apenas dos años atrás, un año atrás, unos meses atrás; latinoamérica parecía hundida en el peor oscurantismo, y hoy tenemos progresismo y humanismo latiendo en sincronía sobre las reservas más grandes de litio del planeta.

    No es tanto tiempo. Lo que pasa es que nos dicen que estamos apurades, que esta es la última batalla, que es a todo o nada: que todo es vida o muerte. Nos dicen que es acá y ahora, urgente, que nos prendemos o nos lo perdemos. Nos hambrean para que nos lo creamos, para que sea real la amenaza de morir. También nos dicen “revolución”, pidiéndonos que seamos mártires, y nos cagamos encima parados porque de la adrenalina no nos podemos ni sentar. Nos dicen cómo es nuestro tiempo, qué hacer con nuestro tiempo: que no tenemos tiempo. Nos meten miedo con el tiempo, nos obligan a decidir desesperades, y así es como decidimos locuras. Y es que no es tanto tiempo: el que tenemos que aguantar, el que tenemos para dar. Entre el primer y último evento de la revolución francesa pasó una generación; entre el primer y segundo buen peronismo pasó una generación; decile a la gente del 1900 que en una generación íbamos a, no sólo volar, sino directamente caminar por la luna. Imaginate las caras de todes eses cuando les decís “una generación”. Decíselo a la gente del primer peronismo. Decíselo a la gente que llora les muertes de los primeros levantamientos en Francia, a les que se someten al miedo. “Una generación”. Hablale de la luna al que todavía limpia las calles de bosta, y que en poquitos años va a vivir una masacre tan espeluznante e inimaginable que no entra ni en pesadillas. Mirales las caras. ¿Conocés esas caras? Si, es la misma que te ponen mis hermanes cuando les hablás de tus sueños.

    Yo me dí cuenta que no es tanto tiempo. Lo cuál es fácil de decir con la panza llena, está claro. Pero, como imagino que ya debés estar viviendo vos también, la sociedad se las rebusca para que incluso así no puedas sentarte a considerarlo. Y por eso aprovecho el poquito tiempo que tengo para dejarte este mensaje, que un poco es de esperanza, pero fundamentalmente es de cordura: sabé que no es tanto tiempo lo que piden los sueños, apenas una que otra generación haciendo lo suyo.

    Yo voy a hacer lo mío. No creo poder hacer mucho, pero igual lo voy a intentar. ¡Y no te das una idea de los sueños que soy capaz de abrazar!: si supieras te caés de culo. Yo sueño con mundos y galaxias, con gente que vive lo que viven las lunas y los soles, con ser parte de las fuerzas en el cosmos que todavía no tienen nombres. Sueño con cosas super chiquititas que terminan cambiándolo todo para bien. Yo soy futurista, ¡mañana es mejor!, y sueño con mil mundos posibles e imposibles, todos juntos y al mismo tiempo. Así que sé muy bien que no voy a ver nada de mis sueños más allá de en mi propia imaginación. Algunas veces eso se sintió triste. Pero tengo también la intuición de que algo en esos sueños logró que tantos matones y tanta demencia junta en el mundo todavía no logren quebrarme; mis sueños siempre fueron parte integral de mi rebeldía contra un mundo hostil y despiadado, así que les estoy muy íntimamente agradecido. Y la parte más felízmente extraña en eso es que, si lo pensás un poco, en definitiva vos sos parte integral de mis sueños, así que en realidad es a vos a quien le agradezco. Por ahí les humanes somos apenas eso: sueños que sueñan con sueños, que duran lo que duran, y se sienten como si tuvieran sentido aunque si los decís en voz alta suenan como absolutas locuras. Como sea, también por eso te digo que cuando todo se vuelva infernal, le prestes atención a lo que vos soñás, sin importar el tamaño ni el sentido, y que tengas cuidado con cuánto tiempo parecen necesitar.

    Pero te decía, yo voy a hacer lo mío. Voy a apostar a ser solidario con mis hermanes, para que la realidad sea un poco menos enferma; al mismo tiempo que voy a intentar construir herramientas para que tu generación tenga más opciones de las que tuvo la mía. No tengo dudas que voy a fracasar, pero mi plan es construirles a ustedes los planos de una nueva ciencia para una nueva y mejor era de la humanidad. Son sueños: ni más, ni menos. Ojalá pudiera darles algo más. Pero sabé que algunes intentamos dejarles un mundo mejor del que recibieron, como pudimos, así como intentaron muches de los que vinieron antes que yo; sépanlo cuando crean que están soles, o loques, o que la historia termina ahí donde están ustedes. Ahora les dejo, que es su tiempo, y el mío terminó.

Fucking Normies

| April 25th, 2020

    En casa vivimos con una gata. Se llama “Meli”, pero yo le digo Señora Gatita. Frecuentemente, la Señora Gatita me viene a despertar cuando es hora de levantarme a trabajar. Se sienta al lado mío en la cama, y me dice: “miau”. Si yo no le contesto, me toca en la frente o en el pecho con una patita, y me dice: “miau”. Es siempre el momento exacto en el que me tengo que levantar de la cama. Y entonces me levanto.

    Mi rutina entonces es bañarme, desayunar un café con algo, y salir hacia la oficina (hoy, en días de pandemia, la oficina cambió por el living). Mientras me estoy bañando, la Señora Gatita me espera en la puerta del baño. A veces me pide mimos cuando salgo, a veces no. Entonces ella, luego, espera un minuto a que me termine de vestir, y cuando bajo las escaleras para ir a desayunar ella me acompaña también por las escaleras. Mientras empiezo a tomar mi café, casi en sincronía, a ella se la puede escuchar tomando agua, al lado del mueble desayunador donde apoyo mi taza; a veces también aprovecha para comer algo. Después de eso, vuelve a dormir, acompañando a mi esposa, y yo me voy a trabajar.

    Jamás le enseñé (ni intenté siquiera) nada de eso; fue voluntad propia de la Señora Gatita implementar esa rutina.

    Y es una rutina mayormente felíz, excepto por los días feriados. La Señora Gatita no sabe lo que son los feriados. Y esos días me viene a despertar también. Pero esos días, cuando me dice “miau”, yo le contesto: “no”. Y ahí empiezan los problemas. A la Señora Gatita no le gusta eso. De repente empieza a decir “miau” más frecuentemente. Cambia el tono, dice otros miaus distintos. Me insiste con la patita: “¡Miau!” me dice fuerte, y abre los ojos bien abiertos. Camina por la cama, dá vueltas en el lugar, encorvada, y se la puede apreciar visiblemente estresada. No le gusta ni un poco lo que está pasando, es evidente. De modo que le hago unos mimos para que se tranquilice un poco, y después de un par de minutos se queda más tranquila, ronroneando, como si una crisis hubiera terminado y se diera permiso a descansar.

    Le conté esas cosas una vez a mi mamá. Me dijo que sí, que está al tanto de que los gatos hacen eso, y me contó entonces una historia propia. Hace ya algunos años, mi mamá tenía una gata, que se llamaba Os. Vivió como 20 años esa gata. Y mi mamá me cuenta que en un momento en el que mi abuelo todavía trabajaba, cercano a su jubilación, él se levantaba alrededor de las 4 de la mañana para llegar al trabajo. Y la gata, como en mi caso, lo iba a despertar todos los días a horario.

    Pero a veces mi mamá se despertaba porque escuchaba unos ruidos raros, unos golpes. Era un misterio, después de unos minutos desaparecían. Resulta que un día mi abuelo le hace un pedido a mi mamá: “decile a tu hija que los domingos y los feriados yo no trabajo”. Lo que sucedía, descubrió después mi mamá, era que mi abuelo dormía con la puerta de su habitación cerrada. Y todos los días, Os lo despertaba arañando suavemente la puerta; un ruido liviano fuera de la habitación de mi abuelo. Pero cuando él no atendía, la gata se ponía nerviosa, hasta que finalmente comenzaba a golpear la puerta de la pieza con su cabeza. Nuevamente, esa alteración de la rutina no era nada felíz para la gata, que insistía cada vez con más énfasis.

    Hace poco reflexionaba sobre esto, y sobre algunas cuestiones vinculadas a la identidad, el lenguaje, los sentimientos, y la verdad. Lo de siempre, bah. Y me interesó de estas escenas el siguiente detalle evidente: los gatos no entienden lo que es un feriado. No como nosotros, está claro; se podrán revisar las diferentes deficiones técnicas de “lenguaje” y “lengua”, dentro de las que seguramente alguna califica válida para los comportamientos animales, pero difícilmente estemos hablando de acepciones que lleven a un gato a entender “hoy es día no laboral” como nosotros lo conceptualizamos. Los hechos que yo describo me brindan la siguiente perspectiva: los gatos manejan cierto concepto de normalidad, aún sin nuestro sofisticado aparato conceptual, y no sólo eso sino que además parecen reaccionar con estrés a lo que se escapa de las normas que ellos mismos constituyen como tales (porque ni yo ni mi abuelo le enseñamos ni pretendimos jamás a esos gatos comportarse de esa manera: fueron ellos mismos siendo ellos mismos). ¿Y cómo hacen para llegar a la conclusión de “algo raro pasa”, sin palabras, sin conceptos cognoscibles?

    Esto me lleva a otra elucubración: la normalidad como sensación, sentimiento, sentido. Del mismo modo que escribí un libro planteando la verdad como sentido, donde especulaba que puede haber muchos otros sentidos poco ortodoxos (o, tal vez, no-canónicos), imagino que la Señora Gatita siente “lo normal”, y siente “lo anormal”, y ambas tienen un impacto importante en su proceso de toma de decisiones. Como sucede con la gente, diferentes contextos constituyen diferentes normalidades: mis horarios no son los mismos que los de mi abuelo, y tanto Os como la Señora Gatita se adecuaron sin dificultades que yo sepa. Y como también sucede con la gente, lo anormal parece ser estresante.

    Quizás sea un buen eje de estudio, para alguna que otra investigación o planteo. Como sea, comencé a tirar de ese hilito uno de estos tantos días en los que renegaba de cómo los cochinos normies están arruinando el mundo, “cómo podía ser”, y qué se podía hacer para lidiar con ellos. Eso, en sintonía con otras reflexiones (en las que reniego de las culturas del cambio constante o la innovación, o bien reivindico la tradición y el conservadurismo), me lleva hacia la intuición de que, tal vez, la normalidad pueda no estar siendo contemplada en todas sus dimensiones humanas.

    Hace más de un año publiqué Feels Theory, donde teorizaba una relación recíproca entre razón y sentimientos, planteando a los sentimientos en el origen mismo del raciocinio. Hoy me encuentro con este otro fragmento de Humberto Maturana, que quiero dejar anotado:

    ¿Qué somos?, ¿qué es lo humano? Corrientemente pensamos en lo humano, en el ser humano, como un ser racional, y frecuentemente declaramos en nuestro discurso que lo que distingue al ser humano de los otros animales es su ser racional.

    (…)

    Decir que la razón caracteriza a lo humano es una anteojera, y lo es porque nos deja ciegos frente a la emoción que queda desvalorizada como algo animal o como algo que niega lo racional. Es decir, al declararnos seres racionales vivimos una cultura que desvaloriza las emociones, y no vemos el entrelazamiento cotidiano entre razón y emoción que constituye nuestro vivir humano, y no nos damos cuenta de que todo sistema racional tiene un fundamento emocional. Las emociones no son lo que corrientemente llamamos sentimientos. Desde el punto de vista biológico lo que connotamos cuando hablamos de emociones son disposiciones corporales dinámicas que definen los distintos dominios de acción en que nos movemos. Cuando uno cambia de emoción, cambia de dominio de acción. En verdad, todos sabemos esto en la praxis de la vida cotidiana, pero lo negamos, porque insistimos en que lo que define nuestras conductas como humanas es su ser racional. Al mismo tiempo, todos sabemos que cuando estamos en una cierta emoción hay cosas que podemos hacer y cosas que no podemos hacer, y que aceptamos como válidos ciertos argumentos que no aceptaríamos bajo otra emoción.

    (…)

    Todo sistema racional se constituye en el operar con premisas aceptadas a priori desde cierta emoción.

    Biológicamente, las emociones son disposiciones corporales que determinan o especifican dominios de acciones. Los invito a meditar sobre como reconocen ustedes sus propias emociones y las de los otros; y si lo hacen verán que distinguen las distintas emociones haciendo alguna apreciación del dominio de acciones en que se encuentra la persona o animal, o haciendo una apreciación del dominio de acciones que su corporalidad connota.

    Las emociones son un fenómeno propio del reino animal. Todos los animales las tenemos. Si ustedes en la noche, en su casa, al encender la luz y ver en el medio de la pieza una cucaracha que camina lentamente, gritan: “¡Cucaracha!”, la cucaracha empieza a correr de un lado para otro. Si ustedes se detienen a observar lo que pasa, podrán darse cuenta de que las cosas que la cucaracha puede hacer en un caso y otro son completamente distintas. La cucaracha que va caminando pausadamente en medio de la pieza puede detenerse a comer, pero la cucaracha que corre de un lugar a otro no puede hacerlo. Lo mismo nos pasa a nosotros, pero nos pasa no solamente con las acciones, sino también con la razón.

    Nosotros hablamos como si lo racional tuviese un fundamento trascendental que le da validez universal independiente de lo que nosotros hacemos como seres vivos. Eso no es así. Todo sistema racional se funda en premisas fundamentales aceptadas a priori, aceptadas porque sí, aceptadas porque a uno le gustan, aceptadas porque uno las acepta simplemente desde sus preferencias. Y eso es así en cualquier dominio, ya sea el de las matemáticas, el de la física, el de la química, el de la economía, el de la filosofía, o el de la literatura. Todo sistema racional se funda en premisas o nociones fundamentales que uno acepta como puntos de partida porque quiere hacerlo y con las cuales opera en su construcción. Las distintas ideologías políticas también se fundan en premisas que uno acepta como válidas y trata como evidentes de partida porque quiere hacerlo. Y si uno esgrime razones para justificar la adopción de esas premisas, el sistema racional que justifica esas razones se funda en premisas aceptadas porque sí, porque uno consciente o inconscientemente así lo quiere.

    Observen ustedes que existen dos tipos de discusiones entre las personas. Hay discusiones, desacuerdos, que se resuelven sin que uno vaya más allá de ponerse colorado. Si yo digo que dos por dos es igual a cinco y ustedes me dicen: “¡no hombre, no es así! Mira, la multiplicación se hace de esta manera”, mostrándome cómo se constituye la multiplicación, yo a lo más digo, “¡ah! de veras, tienes toda la razón, disculpa”. Si esto ocurre, lo peor que me puede pasar es que me ponga colorado y tenga un poco de vergüenza. También puede ser que no me importe nada, porque el desacuerdo no tiene nada más que un fundamento lógico ya que sólo hubo un error al aplicar ciertas premisas o ciertas reglas operacionales que yo y el otro aceptábamos. Nuestro desacuerdo era trivial; pertenecía a la lógica.

    Nunca nos enojamos cuando el desacuerdo es sólo lógico, es decir, cuando el desacuerdo surge de un error al aplicar las coherencias operacionales derivadas de premisas fundamentales aceptadas por todas las personas en desacuerdo. Pero hay otras discusiones en las cuales nos enojamos (es el caso de todas las discusiones ideológicas); esto ocurre cuando la diferencia está en las premisas fundamentales que cada uno tiene. Esos desacuerdos siempre traen consigo un remezón emocional, porque los participantes en el desacuerdo viven su desacuerdo como amenazas existenciales recíprocas. Desacuerdos en las premisas fundamentales son situaciones que amenazan la vida ya que el otro le niega a uno los fundamentos de su pensar y la coherencia racional de su existencia.

    (…)

    Por esto, no podernos pretender una justificación trascendente para nuestro actuar al decir: “esto es racional”. Todo argumento sin error lógico es obviamente racional para aquel que acepta las premisas fundamentales en que éste se funda.

    Lo humano se constituye en el entrelazamiento de lo emocional con lo racional. Lo racional se constituye en las coherencias operacionales de los sistemas argumentativos que construimos en el lenguaje para defender o justificar nuestras acciones. Corrientemente vivimos nuestros argumentos racionales sin hacer referencia a las emociones en que se fundan, porque no sabemos que ellos y todas nuestras acciones tienen un fundamento emocional, y creemos que tal condición sería una limitación a nuestro ser racional. Pero ¿es el fundamento emocional de lo racional una limitación? ¡No! Al contrario: es su condición de posibilidad (…)

    De Emociones y Lenguaje en Educación y Política.

    (…)

    La democracia no está en la rotación, en la elección de representantes. Los sistemas electorales son artificios para la apropiación de las responsabilidades. La democracia está en una convivencia en la cuál todos los ciudadanos tienen acceso a la cosa pública, y la cosa pública son los temas que le interesan a todos los ciudadanos como coparticipantes de una convivencia en una comunidad.

    (…)

    En la relación materno-infantil aprendimos a respetar, aprendimos a colaborar, aprendimos a participar, aprendimos a conversar, a no resolver nuestras discrepancias en la mutua negación. Y aprendimos algo muy importante: aprendimos el emocionar que hace posible a la democracia. (…) Si no existe la emoción, no existe la acción. (…) No es lo que uno hace lo que produce la emoción, sino la emoción con la cuál se hace. En ese sentido, reafirmo que la convivencia democrática es posible solamente si uno aprende el emocionar que hace posible a la convivencia democrática (…)

    El curso de la historia es el curso de las emociones. En particular, el curso de los deseos. No son los recursos materiales, no son las oportunidades materiales lo que define la historia. (…) El vivir democrático es una obra de arte. No tiene que ver con eficiencia, no tiene que ver con la perfección, tiene que ver con el deseo de una convivencia en la fraternidad.

    (…)

    La gran tragedia de la Unión Soviética no es el fracaso económico, sino el de las teorías filosóficas que pretenden prescribir lo que es bueno para los seres humanos. (…) Los paradigmas en crisis son los deshumanizantes. Cada vez que uno defiende la verdad niega al otro, cada vez que defiende principios niega al otro. (…) La Unión Soviética surgió del intento ético por acabar con el abuso, con la guerra, con la discriminación, con la negación. Pero surgió orientada por una teoría filosófica que creía tener la verdad, lo que generó abuso, discriminación, y negación del otro. En la Unión Soviética lo que está en juego es la lucha por el poder, un discurso en términos de polémica, de fuerza. No de conversaciones, no de proyectos comunes. La democracia es un proyecto común, por eso es que es una obra de arte, porque tiene que configurarse momento a momento en la convivencia, por eso es que la democracia no es una temática del poder.

    (…)

    La democracia es un proyecto de convivencia que se configura momento a momento. Pero para poder vivir eso uno tiene que dar lugar a la emocionalidad. No es un ámbito de lucha, no se accede democráticamente al poder. No hay poder. Y mientras pensamos que todo lo que está en juego es una lucha por el poder, lo único que vamos a lograr son dinámicas tiránicas, vamos a pasar de ser una pequeña tiranía a otra pequeña tiranía.

    (…)

    La democracia no tiene justificación racional. Si uno quiere que todos hagan y digan lo que uno quiere, entonces es más lógica una dictadura.

    (…)

    Yo comprendo, cierto, uno puede decir “por qué hablamos de amor”; es un romanticismo cuando vivimos en la agresión, en la negación. Es verdad, vivimos en eso. Pero si no nos hacemos cargo de la presencia de las emociones y de lo que ellas significan en la vida, nunca vamos a salir de este juego de manipulación de mutua negación, de violencia, de agresión, porque nunca vamos a entender lo que está en juego. Los conflictos humanos no se resuelven a través de la razón. (…) Porque la razón no convence a nadie que esté ya convencido, porque todo argumento racional se forma en premisas que son aceptadas a priori desde la emoción. (…) Si queremos democracia, tenemos que generar una democracia, no desde la razón, sino desde la emoción, porque no hay justificación racional para la democracia. (…) ¿Por qué queremos democracia, sino es porque añoramos el mutuo respeto?

    (…)

De La democracia es una obra de arte, de Humberto Maturana.