En el año 1948, Norbert Wiener publicó su libro Cibernética, o el control y comunicación en animales y máquinas. Es por supuesto el origen de la palabra y la disciplina Cibernética. Ya me referí a ello en mi saga “de máquinas y revoluciones”, donde reivindiqué a la cibernética como el origen de lo que hoy llamamos “inteligencia artificial”, y a Wiener como una de las figuras centrales -y al parecer mayormente olvidadas- de ese desarrollo. Y mencioné que dos años después de “Cibernética…”, en 1950, Wiener escribió un segundo libro titulado “El uso humano de seres humanos: cibernética y sociedad”. También aproveché en mi trabajo para burlarme un poco de toda una tradición histórica cuasi maníaca detrás de la creación de una máquina que jugara al ajedréz.
Sucede que hace pocas semanas atrás finalmente leí El uso humano de seres humanos, y en un capítulo me encontré inevitablemente “humillado” -en el sentido positivo de la palabra-. Aunque no porque, como hiciera yo, Wiener también se burla de la máquina que juega ajedréz -y luego le dá el giro que corresponde a la cuestión-, sino por la contundencia con la que ya por aquel entonces estaba en condiciones de evaluar aquello que no se iba a vivir en el mundo hasta décadas después de él muerto. Y muy especialmente me pareció reveladora la cita que Wiener agrega: un extracto de la reseña que un cura francés hizo del primer libro de Wiener.
De modo que traigo este recorte de El uso humano de seres humanos, para tener a mano y compartir cuando alguien diga que no se podían ver venir las cosas que estamos viviendo; después de textos como estos, la pregunta no es si se podía o no ver venir, sino más bien qué miraba o mira quien diga eso. Léanlo, y saquen sus propias conclusiones.
(…)
Hasta el momento, hemos discutido la construcción de aparatos que, en lo que respecta al gran público, parecen compartir el distanciamiento característico de la ciencia teórica por las necesidades humanas inmediatas o que son beneficiosos para las personas con defectos físicos. Llegamos ahora a otra clase que posee algunas posibilidades sumamente siniestras. Es bastante curioso que entre ellas se encuentre la máquina de jugar al ajedrez.
Hace algún tiempo, sugerí un modo de utilizar una de las modernas máquinas de calcular para jugar una partida de ajedrez bastante pasable. En estas investigaciones, sigo un sendero que tiene una larga historia. Poe estudió una fraudulenta máquina de jugar al ajedrez debida a Maelzel y desinfló el globo demostrando que funcionaba merced a un ser humano sin piernas que se metía dentro de ella. La máquina que me imagino es genuina y aprovecha algunos recientes progresos de las de calcular. Es fácil construir una que juegue pobremente, de acuerdo con las reglas. Es una tarea sin esperanza construir una que lo haga perfectamente, pues requeriría demasiadas combinaciones. El profesor Johann von Neumann, del Instituto de Estudios Superiores de Princeton, ha comentado esta dificultad. Sin embargo, no es fácil ni imposible construir una que jugará lo mejor posible para un número limitado de jugadas, digamos dos, y que dejará el tablero en la posición más favorable de acuerdo con algún método más o menos fácil de evaluación.
Las actuales máquinas últrarrápidas de calcular pueden actuar como jugadoras de ajedrez, aunque podría producirse una mejor, a un precio exorbitante, si decidiéramos construirla exclusivamente para ese fin. Su velocidad es suficiente para evaluar toda posibilidad, teniendo en cuenta las dos próximas jugadas, durante el tiempo legal de una sola. El número de combinaciones aumenta aproximadamente en progresión geométrica. Así, pues, la diferencia entre el cálculo de todas las posibilidades después de dos jugadas y el mismo número después de tres es enorme. No hay posibilidad de jugar una partida, algo así como 50 jugadas, en un tiempo razonable. Sin embargo, sería posible para seres lo bastante longevos, como lo ha demostrado von Neumann; un juego perfectamente conducido por ambas partes conduciría a una partida siempre ganada por las blancas o siempre por las negras o, más probablemente, siempre a un empate.
El señor Claude Shannon,de los laboratorios Bell, ha sugerido una máquina de acuerdo a las mismas ideas de la de dos jugadas propuesta por mí. Su evaluación de la posición final después de dos movimientos tendría en cuenta el dominio del tablero, la protección mutua de las piezas, su número, el jaque y el jaque mate. Si después de dos jugadas, el juego fuera inestable por la existencia de un jaque o de una pieza importante en una posición que puede tomarse, el jugador mecánico haría una o dos jugadas más hasta que el juego fuera estable. No sé cuánto alargaría esto la partida por encima del límite legal, aunque tampoco estoy seguro de que podamos ir muy lejos en esta dirección, sin meternos en dificultades con el tiempo a las velocidades presentes.
Coincido con Shannon en una máquina de esa clase jugaría ajedrez como un aficionado muy bueno y hasta posiblemente como un maestro. Su juego sería rígido y carecería de mucho interés, pero sería mucho más seguro que el de cualquier ajedrecista humano. Como lo hace notar Shannon, es posible introducir en ella un elemento de arbitrariedad en sus Operaciones, para evitar su constante derrota, de manera puramente sistemática, por una rígida secuencia dada de jugadas. Puede introducirse esa arbitrariedad en la evaluación de la posición final después de dos jugadas.
La máquina jugaría gambitos y probablemente terminaría las partidas como un jugador humano, utilizando el conjunto conocido de gambitos y terminaciones. Otra más perfecta guardaría en una cinta todas las partidas que ha jugado y complementaría los métodos que ya hemos indicado mediante una investigación de todas las anteriores, para encontrar algo adecuado, es decir, mediante el aprendizaje. Aunque hemos expuesto la posibilidad de construir máquinas capaces de aprender, es muy imperfecta todavía la técnica de proyectarlas y utilizarlas. No ha llegado aún la hora de construir una máquina de jugar al ajedrez de acuerdo a ese principio, pero probablemente no está muy lejos.
Una máquina de esa clase capaz de aprender podrá tener una actividad sumamente variada, de acuerdo a la calidad los jugadores contra los que se la haya empleado. La mejor manera de obtener una máquina maestra consistirá probablemente en enfrentarla a una amplia variedad de buenos ajedrecistas. Por otra parte, una máquina bien proyectada podrá arruinarse más o menos por la elección poco juiciosa de sus opositores. También se echa a perder un buen caballo, si se permite que lo maltraten los malos jinetes.
En este tipo de máquinas, conviene distinguir lo que puede y lo que no puede aprender. Es posible construir una que posea una preferencia estadística por ciertas formas de conducta, sin que ello excluya otras; también es factible determinar de antemano ciertos rasgos de conducta de manera rígida e inalterable. Llamaremos a la primera clase de determinación “preferencia” y a la segunda “constricción”. Por ejemplo: si no se introducen desde el principio en la máquina las reglas del ajedrez como constricciones y si se proporciona a la máquina la capacidad de aprender, puede convertirse sin previo aviso en otra que ejecute una tarea totalmente distinta. En cambio, aquella en la que se han introducido como constricciones las reglas de juego, puede seguir siendo capaz de aprender en lo que respecta a la táctica y los planes de acción.
El lector podrá preguntarse la razón de que nos interesemos por esa clase de máquinas. ¿Son algo más que otro caso de vanidad inútil y sin importancia, con el que los especialistas buscan mostrar su preciosismo a un mundo que, según ellos esperan, abrirá la boca y se asombrará de sus éxitos? Como hombre honrado, no puedo negar que existe un poco de ostentoso narcisismo, por lo menos en mí. Sin embargo, como el lector verá muy pronto, no es el único elemento motor, ni tampoco el más importante para el profano.
El señor Shannon ha publicado algunas razones para demostrar que esas investigaciones tienen mayor importancia que la de una simple curiosidad, interesante sólo para los jugadores. Entre otras posibilidades, sugiere que esa máquina puede ser la primera etapa para construir otra capaz de evaluar una situación militar y determinar la mejor jugada en un momento especificado. No piense el lector que hablo ligeramente. El gran libro de von Neumann y Morgenstern sobre la Teoría de los juegos ha hecho una gran impresión en el mundo y la menor no ha sido sobre Washington. Cuando el señor Shannon habla del desarrollo de tácticas militares, no dice tonterías, sino que discute una contingencia inminente y peligrosa.
En un periódico parisiense bien conocido: Le Monde, del 28 de diciembre de 1948, un fraile dominico, el padre Dubarle, publicó una aguda crítica de mi libro: Cibernética. Citaré una sugestión suya que expone algunas de las terribles consecuencias de la máquina de jugar al ajedrez, cuando esté completamente desarrollada y se la meta en una armadura:
Una de las más fascinadoras perspectivas que se abren es la de la dirección racional de los asuntos humanos, en particular, de los que interesan a las comunidades y parecen presentar una cierta regularidad estadística, tal como el desarrollo de la opinión pública. ¿No es posible imaginarse una máquina capaz de coleccionar este o aquel tipo de información, como, por ejemplo, la información sobre la producción y el mercado, determinando después, como función de la psicología media del ser humano y de las cantidades que es posible medir en un caso dado, el futuro probable de una situación determinada? ¿No es posible imaginarse un aparato estatal que comprenda todos los sistemas de decisiones políticas, sea bajo un régimen de numerosos estados esparcidos por toda la tierra o bajo el aparentemente mucho más simple de un solo gobierno humano de este planeta? Por el momento nada nos impide imaginarlo. Podemos soñar acerca de una época, en la que la machine d gouverner pueda suplantar, para bien o para mal, la ineficacia actualmente evidente del cerebro, cuando éste se ocupa de la acostumbrada maquinaria política.
En todo caso, la realidad humana no admite una determinación tajante y segura como ocurre con los datos muméricos. Sólo admite el cálculo de su valor probable. Una máquina que trate esos fenómenos y los problemas que plantean, debe emprender esa tarea con un pensamiento probabilístico más que determinista, como aparece, por ejemplo, en las modernas máquinas de calcular. Esto conduce a que su tarea sea más complicada, pero no imposible. La máquina de predicción que determina la eficacia del fuego antiaéreo es un ejemplo de ello. Teóricamente, la predicción temporal no es imposible, así como tampoco lo es la determinación de la decisión más favorable, por lo menos dentro de ciertos límites. La posibilidad de máquinas que juegan, por ejemplo, al ajedrez, parece demostrarlo. Pues los fenómenos humanos que forman el objeto del gobierno pueden ser comparados a juegos en el sentido que von Neumann ha tratado matemáticamente. Aunque estos juegos tienen un conjunto incompleto de reglas, hay otros cuyo número de jugadores es muy grande y de datos extremadamente complejos. Las machines d gouverner definirán al Estado como el jugador mejor informado en cualquier situación y el único coordinador supremo de todas las decisiones parciales. Son privilegios enormes; si se adquieren científicamente, permitirán al Estado derrotar en cualquier circunstancia a todo jugador humano distinto de sí mismo, ofreciéndole el siguiente dilema: ruina inmediata o cooperación planeada. Eso será la consecuencia del juego mismo, sin ninguna violencia exterior. Los amantes del mejor de los mundos tienen algo para soñar.
A pesar de todo esto y quizás afortunadamente, la machine d gouverner no estará a nuestra disposición en un futuro cercano. Pues además de los muy serios problemas que plantean todavía el volumen de información y la rapidez de su elaboración, la cuestión de la estabilidad de la predicción está más allá de lo que podemos soñar. Pues los fenómenos humanos son asimilables a juegos con reglas incompletamente definidas y que además son funciones del tiempo. Su variación depende tanto del detalle efectivo de la situación producida por el juego mismo como del sistema de reacciones psicológicas de los jugadores frente a los resultados obtenidos en cada instante.
Pueden ser aun más rápidas. Un excelente ejemplo parece ser el de la encuesta Gallup sobre la elección de 1948. Todo esto no sólo tiende a complicar el grado de los factores que influyen en la predicción, sino que probablemente hacen radicalmente estéril la manipulación mecánica de situaciones humanas. Por lo que se puede juzgar, sólo dos condiciones aseguran la estabilidad en el sentido matemático de la voz. Por una parte, una ignorancia suficiente de gran parte de los jugadores, explotada por uno experimentado que además pueda establecer un método para paralizar la conciencia de las masas; por otra parte, la buena voluntad suficiente para permitir a cada cual, en pro de la estabilidad del juego, remitir sus decisiones a uno o unos pocos jugadores que posean privilegios arbitrarios. Esta es una dura lección de seca matemática, aunque arroja cierta luz sobre la aventura de nuestro siglo: la duda entre una turbulencia indefinida de los negocios humanos y la aparición de un prodigioso Leviatán en comparación con el cual el de Hobbes era sólo una ligera broma. Actualmente corremos el riesgo de un gran Estado Mundial, en el que la injusticia primitiva, deliberada y consciente, sea la única condición posible de la felicidad estadística de las masas, algo peor que el infierno para toda inteligencia clara. Tal vez no fuera una mala idea que los creadores actuales de la cibernética asociasen a su grupo, compuesto de hombres que provienen de todos los horizontes a la ciencia, a algunos antropólogos serios y tal vez algún filósofo que tenga curiosidad por los asuntos mundiales.
La machine d gouverner del padre Dubarle no nos asusta, pues no hay ningún peligro de que adquiera el gobierno autónomo sobre la humanidad. Es demasiado grosera e imperfecta para tener la milésima parte de la conducta teleológica e independiente del ser humano. El peligro real, sin embargo, consiste en que esas máquinas, aunque incapaces por sí mismas, puedan ser utilizadas por un ser humano, o por un grupo de ellos, para aumentar su predominio sobre el resto de la especie o en que los conductores intenten manejar la población, no mediante las mismas máquinas, sino utilizando técnicas políticas tan estrechas y tan indiferentes a las posibilidades espirituales como si hubieran sido concebidas mecánicamente. La gran debilidad de la máquina, que nos ha salvado hasta ahora de su dominación, es que aún hoy no puede tener en cuenta la vasta amplitud de posibilidades que caracteriza cualquier situación humana. El predominio de la máquina presupone una sociedad que se encuentre en las últimas etapas de entropía creciente y en la que son nulas las diferencias estadísticas entre los individuos. Afortunadamente todavía no hemos llegado a esa etapa.
Pero aun sin la máquina estatal del padre Dubarle, se desarrollan actualmente nuevos conceptos de guerra, o de conflictos económicos y de propaganda basados en la teoría de los juegos de von Neumann, que es ella misma una teoría de la comunicación, como lo han demostrado ya los hechos desde 1950. He afirmado en un capítulo anterior que esa teoría contribuye a la del lenguaje; ya existen oficinas gubernamentales dedicadas a aplicarla a propósitos militares o casi militares tanto de agresión como de defensa.
En lo esencial, la teoría de los juegos se basa en una disposición de jugadores o coaliciones de ellos, cada uno de los cuales desarrolla una estrategia para alcanzar sus propósitos, suponiendo que sus antagonistas, lo mismo que él, mantienen el proceder más conveniente con vistas a la victoria. Ya se juega la gran partida mecánicamente y en colosal escala. Aunque la filosofía en que se basa no es probablemente aceptable para nuestros actuales antagonistas, los comunistas, hay fuertes indicios para creer que sus posibilidades se estudian ya tanto en Rusia como en los Estados Unidos y que la primera potencia, no contenta con aceptar la teoría tal como nosotros la presentamos, la ha refinado probablemente en algunos aspectos importantes. En particular, gran parte del trabajo, aunque no todo, que hemos efectuado en la teoría de los juegos se basa en la hipótesis según la cual tanto nosotros como nuestros antagonistas tenemos capacidades ilimitadas y que las únicas restricciones impuestas al juego dependen de lo que podemos llamar las cartas que sacamos del mazo o la posición en el tablero. Hay muchas razones para pensar, más por los hechos que por las palabras, que Rusia ha completado esa actitud, considerando las limitaciones psicológicas de los jugadores y especialmente su inclinación a la fatiga, como parte del mismo juego. En lo esencial, existe ya, pues, una especie de machine d gorverner en ambos bandos del conflicto mundial, aunque no es un aparato que establece una política, sino una técnica mecanicista que se adapta a las exigencias de un grupo-máquina de hombres dedicados a proyectar una línea de conducta internacional.
El padre Dubarle ha llamado la atención de los hombres de ciencia acerca de la creciente mecanización militar y política del mundo como un grandioso aparato superhumano que funciona según principios cibernéticos. Para evitar los múltiples peligros que ello encierra, tiene mucha razón en insistir sobre la necesidad de antropólogos y filósofos. En otras palabras, como hombres de ciencia, debemos saber lo que es la naturaleza humana y cuáles son sus propósitos innatos, aunque debamos utilizar esos conocimientos como militares o como hombres de Estado. Y tenemos que saber también para qué deseamos dominar al hombre.
Cuando digo que el peligro de la máquina para la sociedad no proviene de la primera sino de lo que el hombre hace de ella no hago más que insistir en la advertencia de Samuel Butler. En Erewhon se imaginan máquinas, incapaces de actuar de otra manera, que conquistan a la humanidad utilizando los hombres como órganos subordinados. Sin embargo, no debemos tomar demasiado seriamente la visión de Butler, pues efectivamente en su época, ni él ni ninguno de los que le rodeaban podía entender la verdadera naturaleza de la conducta de los autómatas; sus afirmaciones son incisivas figuras de dicción más que observaciones científicas.
Nuestros periódicos se han hinchado la boca con el Know-how, el “saber cómo”, de los Estados Unidos desde que tuvimos la desgracia de descubrir la bomba atómica. Existe una cualidad más importante que ésa y mo podemos acusar a los Estados Unidos de poseer una cantidad excesiva de ella. Se trata del “saber qué”, mediante el cual determinamos no sólo cómo lograr nuestros propósitos, sino además cuáles han de ser. Puedo aclarar la diferencia entre los dos casos mediante un ejemplo. Hace algunos años un distinguido imgeniero de los Estados Unidos compró una costosa pianola. Después de una semana o dos, era evidente que la compra no correspondía a ningún interés particular en la música que producía el aparato, sino a una enorme preocupación por el mecanismo. Para ese señor, la pianola no era un medio de oir música, sino un modo de proporcionar a un inventor la oportunidad de mostrar su habilidad para vencer ciertas dificultades de la reproducción musical. Es una actitud estimable en un estudiante de segundo año de bachillerato. Dejo al juicio del lector determinar cuán estimable es eso en una de las personas de las que depende todo el futuro cultural del país.
En los mitos, en los cuentos de hadas, que leímos en la niñez, aprendimos algunas de las verdades más simples y más evidentes. Por ejemplo, si se encuentra un genio dentro de una botella, vale más dejarlo allí; un pescador que pida demasiadas veces las bendiciones del cielo por insistencia de su mujer, terminará exactamente en el mismo lugar en el que empezó. Si se conceden a uno tres deseos, ha de pensarse cuidadosamente lo que se pide. Esas verdades simples y evidentes equivalen en la vida infantil a la cosmovisión trágica que poseyeron los griegos y tienen todavía muchos europeos modernos y que nos falta en los Estados Unidos, país de la abundancia.
Los helenos consideraban el descubrimiento del fuego conemoción dividida. Por una parte, para ellos, como para nosotros, es una bendición. Por otro lado, bajarlo desde el cielo a la tierra era un desafío a los dioses del Olimpo, que no podían menos de castigarlo como un insulto a sus privilegios. Vemos la grandiosa figura de Prometeo, el portador del fuego, el prototipo del hombre de ciencia, un héroe condenado, sujeto por cadenas a las montañas del Cáucaso, mientras los pájaros de presa picotean sus entrañas. Leemos las sonoras líneas de Esquilo en las que el dios encadenado llama a todo el mundo bajo el sol, para que sea testigo de los tormentos que sufre a manos de los habitantes del Olimpo.
El sentido de lo trágico consiste en que el mundo no es un pequeño nido agradable, creado para nuestra protección, sino un vasto ambiente ampliamente hostil, en el que podemos realizar grandes cosas, sólo desafiando a los dioses, acto que trae inevitablemente consigo su propio castigo. Es un mundo peligroso, en el que no hay seguridad, excepto aquella algo negativa de la humildad y la limitación de las ambiciones; en el que siempre existe un condigno castigo, no sólo para el que peca con consciente arrogancia, sino también para aquel cuyo único crimen es la ignorancia de los dioses y del mundo que le rodea.
Si un hombre con ese sentido trágico no se aproxima al fuego, sino a otra manifestación de poder original, como la fisión del átomo, lo hará con miedo y temblando. No correrá allí donde los ángeles no se atreven a pisar, a no ser que esté dispuesto a aceptar el castigo de los ángeles caídos. Tampoco traspasará calmosamente a la máquina, hecha a su imagen, la responsabilidad de la elección del bien y del mal, sin continuar aceptando la responsabilidad por tal elección.
Ya he dicho que el hombre moderno, especialmente el ciudadano contemporáneo de los Estados Unidos, por mucho “saber cómo” que posea, tiene muy poco “saber qué”. Aceptará la destreza superior de las decisiones hechas por la máquina sin ínquirir mucho acerca de los motivos y los principios en que se apoyan. Al obrar así, se colocará más tarde o más temprano en la posición del padre en el cuento de W. W. Jacobs: “La pata del mono”. Deseó tener cien libras y se encontró en la puerta con el agente de la compañía en la que trabajaba su hijo. El agente venía a entregarle exactamente esa cantidad de dinero como consuelo por el fallecimiento del muchacho en la fábrica. O puede ocurrirle como al pescador árabe de “Las mil y una noches” que rompió el sello de Salomón de la tapa de la botella y dejó escapar al iracundo genio.
Recordemos que existen máquinas que juegan partidas del tipo de la pata del mono o del genio embotellado. Si la construida para tomar decisiones no posee el poder de aprender, dará respuestas completamente literales. ¡Desdichados de nosotros si dejamos que decida nuestra conducta, sin haber examinado previamente la ley según la cual actúa y habernos asegurado previamente de que su comportamiento se basa en principios aceptables para nosotros! Por otra parte, la máquina, como el genio, que puede aprender y tomar decisiones sobre la base de sus experiencias anteriores, no está de ninguna manera obligada a decisiones análogas a las que hubiéramos tomado nosotros o que nos resulten aceptables. Para la persona que no sabe esto, arrojar el problema de su responsabilidad sobre las máquinas, capaces o incapaces de aprender, es arrojarla a los cuatro vientos y encontrar que vuelve sentada en un torbellino.
He hablado de máquinas, pero no sólo de aquellas que tienen cerebros de bronce y tendones de acero. Cuando se funden los átomos humanos en una organización, en la que se utilizan, no en toda su capacidad como seres humanos responsables, sino como engranajes, palancas y bielas, importa poco que la materia prima sea carne y hueso. Lo que se usa como un elemento de una máquina es efectivamente parte de ella. Si confiamos nuestras decisiones a las de metal o aquellas otras humanas que son oficinas, vastos laboratorios, ejércitos y corporaciones, nunca obtendremos las respuestas correctas a nuestras preguntas, a menos que las planteemos correctamente. “La pata del mono” de carne y hueso es algo tan mortífero como cualquier cosa fabricada de hierro y acero. El genio que es una unificadora figura de dicción para toda una corporación es tan terrible como si fuera una enaltecida fórmula de encantamiento.
Es muy tarde y la elección entre el bien y el mal golpea a nuestra puerta.
Hace más de tres años atrás, en nuestro primer video, ya veníamos llamando la atención sobre cómo se sobresimplificaba la noción de “héroe”, y cómo desde las derechas pretendían explotar esa retórica. No pasó mucho tiempo hasta que desde lugares como Davos nos terminen diciendo que los evasores de impuestos y los criminales de guante blanco son héroes. Después pusimos atención sobre cómo en ficciones populares dejaban de lado perspectivas históricas importantes -y en particular a la figura de la ciencia- para instalar a los genocidios como “inevitables”, del mismo modo que contrastamos eso con la historia Argentina como contrapartida a ese sesgo negacionista particular que es el determinismo. No tardó mucho, después de eso, en aflorar el negacionismo por todos lados. Después advertimos que la violencia política era síntoma de una crueldad sistémica, que esa crueldad era activamente estimulada y explotada, planificada, y que podía dar lugar a que Milei terminara ganando las elecciones. Finalmente Milei ganó esas elecciones, y meses después todo el mundo hablaba con sorpresa de lo cruel que podía ser. De modo que creemos estar bastante en sintonía con el espíritu de la época. Y con esa convicción, vamos a continuar hablando de lo que vemos en la actualidad política, donde parecen reinar la incertidumbre y el pesimismo, para plantear alguna hipótesis de qué puede terminar pasando en un futuro no demasiado lejano, siempre mezclando material teórico y científico junto con nuestras propias ideas originales. Y esta vez vamos a comenzar con un breve análisis de una película de hace pocos años atrás, para desde allí proyectar luego algunas ideas hacia nuestras historias y nuestras sociedades actuales, en este trabajo titulado “Supervíctimas: entre la banalidad y la mitología moderna”.
Introducción
En el año 2022 salió a los cines la película “Argentina, 1985”, recomendada y debatida tanto por la crítica cinematográfica como también por la militancia política. Y en ese contexto hice una reseña ese mismo año, a la que titulé muy parecido al presente trabajo; pueden encontrar el link a esa reseña en la descripción de este video. Aquella reseña dejaba una línea crítica de análisis vinculada a los discursos contemporáneos, las audiencias, y nuestros recursos disponibles al caso de diferentes fines. Concretamente, yo aprecié algunos recursos estilísticos y retóricos de la película como fallidos a la hora de interpelar grandes audiencias, independientemente de que los recursos elegidos hayan sido impecablemente ejecutados, y para plantear mi caso comparé esta película con otras que en nuestra actualidad resultan eventos culturales de envergadura. Sin embargo, de allí emergía también una hipótesis de trabajo, un poco en términos comunicacionales o hasta narratológicos si se quiere, pero otro poco también filosófico, girando alrededor de la figura de los héroes.
Por todo aquello, un primer capítulo de este trabajo va a ser simplemente una reversión de aquella reseña: adecuada a otro objetivo un tanto más ambicioso que simplemente analizar la película, pero en definitiva quedándose en un análisis de la misma en sí, para luego continuar con lo que de allí plantiemos. Aunque ese análisis peca de ser demasiado centrado en fenómenos de Argentina, y no queremos que esa sea la experiencia de este otro trabajo: no queremos ni que exija conocer demasiados pormenores argentinos, ni que sea una tesis sobre Argentina en sí, sino algo más general para públicos más amplios. De modo que les pedimos un poco de paciencia en la primera parte a quienes no dominan los pormenores de la política e historia Argentina, con la promesa de que las siguientes partes de este trabajo van a poner el lente en otro lado.
Cabe aclarar también que, si bien los videos de este canal se pretende sean vistos por personas de cualquier país, la reseña que hice hace un par de años en realidad dá por sentado bastante conocimiento de Argentina. En particular me refiero a la figura de la Unión Cívica Radical, o UCR, como fuerza política. En nuestro video anterior hemos caracterizado brevemente al peronismo, que es la fuerza usualmente central en los debates políticos argentinos, pero uno de sus históricos rivales fué la UCR: creada décadas antes del peronismo, y también en diferentes momentos representante de corrientes populares, aunque eventualmente más bien posicionada como una derecha ilustrada. Más allá de la reseña sobre la película, el resto del presente trabajo no requiere mayores conocimientos sobre todo esto, de modo que lo consideramos absolutamente opcional: apenas revise wikipedia a quien le resulte interesante la cuestión, pero caso contrario, para los intereses de este trabajo, no le presten demasiada atención porque nuestro eje será otro. Entonces, este trabajo está dividido en partes, donde la primera será aquella reseña ligeramente adaptada. Luego, en la segunda parte, vamos a introducir a un autor cuyo trabajo utilizaremos para pensar algunas cuestiones. En la tercera parte vamos a contrastar el trabajo de ese autor con otros de su momento y con el contexto mundial, y en la cuarta parte vamos a curiosear dónde nos deja todas esas comparaciones de cara a los temas que estuvimos revisando. Recién en la quinta parte vamos a sacar algunas conclusiones. Recuerden que pueden acceder a las diferentes partes directamente desde la descripción del video, de modo tal que les facilite verlo en diferentes momentos sin necesidad de seguirlo completo en una sola sesión.
Parte 1: el juicio de la historia
Concentrémonos en “Argentina, 1985”.
La película narra el trabajo del fiscal Julio César Strassera y su equipo, durante la preparación del juicio civil a quienes conformaran las juntas militares durante el golpe de estado de 1976 en Argentina, período más comúnmente conocido como “la dictadura”.
La película fue muy recomendada por los y las comunicadores con quienes me informo habitualmente, y está lleno de reseñas mayormente positivas por todos lados. Parece haber un consenso en que la película es mayormente correcta en sus aspectos técnicos, y que está del lado correcto de la historia en sus aspectos ideológicos. Pero con tanta presencia que tuvo, francamente esperaba mucho más de esta película, y de hecho me despierta algunas dudas, cuando no directamente preocupaciones.
En primer lugar, ¿para quién o para qué está pensada esta película? ¿Qué es? ¿Una clase rápida de historia? ¿Una reivindicación de la figura de Strassera y/o del juicio? ¿Un intento por instalar el tema, por difundirlo? ¿Algún acto de humanismo en línea ideológica con la UCR?
Como difusión internacional, me parece más bien pobre. ¿Alguien que no sea argentine va a entender las infinitas referencias de la película, los contextos en los que aparecen tales referencias, los chistes siquiera? Si ese alguien no está empapado de todos los infinitos detalles que se omiten en la historia, o que cuanto mucho aparecen como fugaz referencia, ¿qué le queda de esto? ¿”la historia de un juicio”?. Al final de la película, pasadas ya dos horas, aparece una placa que dice “primera vez en la historia universal que un tribunal civil juzga a una dictadura militar”, lo cuál tiñe al relato de una carga histórica importantísima. Pero, ¿era tan difícil ponerlo al principio, o en el trailer siquiera?
El trailer, de hecho, es muchísimo mejor que la película. Al menos en lo que respecta al impacto, que es un punto clave a la hora de realizar un trabajo de difusión mediática y cultural. Dice “nadie más se animó desde Núremberg”, poniendo el eje del conflicto en el lugar correcto; pero francamente “el juicio más importante de la historia argentina” no veo que le importe mucho a nadie fuera de Argentina: al menos, no imagino a mis compatriotas argentines intrigades por “el juicio más importante de la historia de Haití”, ni el de Laos, ni el de Pakistán o Islandia, y entonces imagino que en el resto del mundo la gente se comportará más o menos parecido con respecto al de Argentina. De modo que, salvo por el hecho de que es una película de género con todas sus reglas cumplidas al pié de la letra -fácil entonces de adecuarse a ella como espectador-, no imagino que esto esté pensado para grandes mayorías, sino para algunos pocos segmentos muy puntuales del plano internacional: la gente que mira “películas de juicios”, las de “thriller histórico extranjero”, y no mucho más que eso. Entonces, a alguien que sea argentine, ¿le suma algo esta película?
Pero pesando qué se supone que deje la película al espectador, me parece que la película misma encara esa cuestión de manera explícita, en el diálogo que Moreno Ocampo tiene por teléfono con su mamá y lo que le planteaba Strassera: “nunca vamos a poder cambiar a la gente como tu mamá”. La mamá de Moreno Ocampo, cabe anotarlo, aprobaba a la dictadura. ¿Está, acaso, esta película, pretendiendo cambiarle a alguien la mentalidad a través del relato de las víctimas, emulando lo que cuenta que sucedió en 1985 con el juicio pero esta vez con quienes tienen a Patricia Bullrich como referente en 2022? ¿Es esta película que menciona al peronismo casi exclusivamente en una escena chistosa, una especie de intento de “entrismo progresista” vía sesgo de la UCR? ¿Es una película fácil de mirar sobre una Argentina donde el peronismo no tiene mucho qué ver con nada, pero igual la dictadura estuvo mal y enjuiciarlos estuvo bien? Eso ciertamente no va a seducir al pueblo peronista pero, ¿al otro sí? ¿Sigue estando bajo el ala de la UCR el antiperonismo en 2022? ¿Sigue siendo la UCR la encarnación de un humanismo republicano y legalista con representación de un pueblo clasemediero? ¿Sigue estando ahí aquel 40% que vota a Macri como presidente y Pichetto como vicepresidente? A mí me parece que no. Y me parece también que el y la peronista promedio está más bien informade de la cuestión de la dictadura, y entonces esta película no creo que le diga mucho. ¿A qué argentine le habla entonces la película? Sinceramente no me queda claro.
¿Suma todo eso? Supongo que suma. Pero… ¿era para tanto reconocimiento? Pasan las semanas, y se sigue recomendando esta película como si fuera la gran cosa.
Como sea, volviendo al trailer, el mismo además cierra con la imagen de Strassera diciendo que la historia no la hacen tipos como él: funcionarios grises clasemedieros que se las rebuscan para ser gente decente sin meterse mucho en problemas que le queden grandes. La película ciertamente le presta atención a eso, mucho. De hecho, la película casi que es más sobre Strassera que sobre todo lo demás.
No tengo nada contra Strassera, y me importa muy poco si durante los setentas se acobardó o no: había que estar en los zapatos de esa gente, y en los ochentas Strassera fué valiente, por mí es un tema cerrado; los villanos de esa historia no fueron los civiles supuestamente cobardes, que rara vez debieron haber sido otra cosa más que víctimas, y esto la película -y aquí merece un enorme reconocimiento- lo dice con todas las letras.
Está todo bien entonces con reivindicar a la figura de Strassera, y lo celebro. Y está todo bien también con lo que parece ser la línea de razonamiento de esta película, al menos desde el lente del trailer: “sí, vos tenés algo qué ver, vos también sos La Historia”. Un poco es “hacer historia le toca a quien le toca”, otro poco es “hacemos nuestro trabajo con responsabilidad y coraje y pasan cosas buenas”, otro poco es “mirá cómo somos siempre parte de algo más grande que nosotres”, y otros argumentos como esos, todos felices y reivindicables. Hay una cuestión ahí con el heroismo. Pero… ¿articularlo de esta manera con este tema?. No quiero faltarle el respeto a Strassera, pero en esta cuestión me parece una figura muy chiquitita, y la película no deja de hablar con Strassera en el centro. Me resultó muy disonante ver eso.
No me parece mal el foco en Strassera, de hecho: me resulta disonante que el tema es muy grande como para solamente dos horas de relato metódico de género, un pequeño puñado de testimonios de gente secuestrada -por contundente que sean-, y algunas situaciones familieras pretendidamente divertidas y livianas. Strassera es importante, pero no más importante que las Madres y Abuelas, que Alfonsín, que la historia del peronismo, que la historia del planeta en ese momento… ¿en serio ni una mención al Plan Cóndor? ¿Ni siquiera en las placas ya terminada la película? ¿No va a decir nada sobre el plan económico de la dictadura, que tanta vigencia tiene hoy en día? En un momento dicen “la ESMA es brava”… ¿pero no muestran por qué? ¿se supone que sea más brava que el testimonio de Adriana Calvo, pero no tienen nada para decir al respecto?
Y, como decía antes, la ejecución parece ser unánimemente reconocida como “correcta”: tampoco creo sea un problema de los recursos artísticos ni técnicos particulares. Insisto: mi problema es la escala, el tamaño de la cuestión, que me parece fue insoportablemente reducido en esta película, al punto tal de llegar apenas a lo anecdótico, de quedar en lo trivial.
No es lo mismo darle o no a la cuestión la escala que le corresponde, y eso es absolutamente central si el objetivo es instalar el tema en agenda: un juicio de hace 40 años no va a ser más importante que la inflación, la guerra, y cualquier otra situación importante actual, a no ser que realmente venga al caso de explicar o representar algo; caso contrario es pasatiempo, tan banal como cualquier otro consumo mediático: así, el elegir entre Gran Hermano y Argentina 1985 pasa a ser una “cuestión de gustos”. Y, peor todavía: así, quienes le prestamos atención a la cuestión de la dictadura, quedamos como gente desconectada de la actualidad, viviendo en un pasado más bien remoto desde el que tratamos de dar sermones para obtener alguna forma de atención, mientras los problemas del mundo y de la vida actual pasan por otro lado; así pasamos a ser nosotres quienes no saben interpelar desde la memoria, la verdad, y la justicia, a quienes padecen una actualidad angustiante.
Y me resulta sorprendente que esto se haya dado de esta forma, muy especialmente en el plano técnico. Porque la gente que hizo esta película a todas luces es muy capaz en lo técnico: su manejo de los recursos de género es más bien impecable. La pregunta es: ¿por qué eligieron ese género en particular?. Es casi como si hubieran querido hacer una película sobre 1985 con los recursos técnicos cinematográficos que eran estandar en 1985. Y estamos en 2022: tenemos muchos otros recursos en este momento histórico.
Creo que uno de los aspectos más elocuentes de todo esto es el cómo se planteó a, digamos, los villanos de la historia. Yo, que vivo en Argentina y tengo algún contacto mínimo con su historia, me cruzo con un oficial militar por la calle y me siento inevitablemente incómodo. El oficial militar, el “milico”, no es una figura trivial acá. Y no lo es, porque esa figura tiene la historia que tiene. Pero viendo a los milicos de la película, veía más bien unos tipos que eran simplemente los acusados en un juicio y nada más: no tenían mayor trascendencia que lucir de manera más o menos pintoresca. Videla era mucho más “raro” y hasta “pobre tipo” que intimidante. Era como sacar a Hitler de su historia, y ponerlo como “un enano con un bigote medio raro y que pone caras ridículas”, ¿se entiende?
Con ese planteo, ¿qué persona que no sea de Argentina va a vivir una representación de lo que significan para nosotres los milicos? Hasta me pregunto si no hará daño a la imagen que dá frente a las nuevas generaciones, que saben que hubo un monstruo hace poco en su historia pero que tienen tantos problemas en el mundo de mierda que les tocó vivir que probablemente no podría importarles menos.
Esos tipos sentados en los banquillos de acusados tenían que ser personajes malignos de magnitud histórica, no algunos meros señores en una mera película sobre un juicio en un país ignoto: son conceptos, entidades, nociones desde las que tomamos puntos de referencia y comparamos contra otras cosas. Los milicos son, en la historia Argentina, el triste límite conocido del sadismo y la crueldad; son la barrera histórica y empírica que separa lo humano de lo inhumano. Esos milicos, en términos de los recursos mediáticos de mi generación y de la actualidad técnica cinematográfica, fueron y son supervillanos.
Me parece que a los milicos, en el año 2022, hay que relatarlos como se relata a un Thanos, a un Saurón, o alguno de esos: con la épica y el tiempo de relato que corresponde. Y esos milicos fueron resistidos y combatidos por gente cuya única diferencia con los superhéroes está en los superpoderes que no tuvieron, porque todo lo demás que hicieron es digno del mismo título. Y quién sabe si las aptitudes espirituales de algunas de esas personas no serán incluso verdaderos y legítimos superpoderes: porque, y nunca lo pierdan de vista, acá estamos hablando de los límites de lo humano.
Y, sin embargo, casi pareciera que la película no sólo no muestra superhéroes ni supervillanos, sino que sólo muestra algo así como supervíctimas: desde Strassera y su familia, hasta su equipo cercano y sus familias, y les demás funcionaries judiciales, y las víctimas concretas de los secuestros y torturas… todes víctimas de algo excepcionalmente victimario. Algunes por ser víctimas canónicas, pero todes les demás por verse atrapades en un sistema de relaciones de poder nefasto, cruel, y muy difícil de soportar. Como decía antes, la parte de las víctimas sí está muy bien planteada en la película, y esto es sumamente reivindicable. Decir algo como “todes somos víctimas” también es un punto de comunión entre partes, muy necesario tanto en aquel momento como en la actualidad: “víctimas versus victimarios” es un foco muy diferente al de “buenos contra malos” -especialmente en la parte de la culpa, con la que Strassera parece cargar-, y ciertamente al de “peronistas contra antiperonistas” o “comunistas contra anticomunistas”. Eso me parece un acierto.
Pero, junto con detalles técnicos como la ambientación o las actuaciones -increible la voz actuada de Alfonsín-, me parece que para cualquier objetivo de la película se queda corto, y especialmente frente a la amplitud y complejidad del tema. Precisamente, es un mundo enorme, complejo, e intenso, el que requiere un relato para una historia como la que atraviesa esa película, y no un héroe eventual suelto en un evento particular. Del mismo modo que a los villanos, a los héroes hay que plantearlos en sus inter-relaciones: nunca están solos ni aislados, siempre fueron muchos eventos los que llevaron a ese heroismo, y siempre hubo héroes más tapados y otros no tan tapados; la historia de la resistencia es la historia de muchísima gente haciendo muchísimas cosas, algunas de esas personas y acciones realmente importantísimas, y todo eso no puede nunca ser reducido -ni siquiera enfocado- solamente en Strassera, su equipo, y el juicio. Así es como me parece que “Strassera es chiquitito”, y que la cuestión se anecdotiza si se enfoca de manera inadecuada. Algunas personas vamos a saber sacarle jugo a lo que muestra la película, pero… ¿y las demás personas? ¿No estaba hecha para ellas también la película? ¿Qué hacen esas personas con esta película que ofrece un material tan acotado?
Me parece que todas esas ausencias o hasta defectos son mucho más restricciones del medio que limitaciones ideológicas o profesionales de la gente que hizo la película. Y por lo tanto creo que mi problema con esta película es que no debió ser una película en absoluto: esta historia es para una serie, de muchas temporadas y con algunas películas también intercaladas, financiada por el Estado. Esta historia tiene finales de temporada desgarradores, tiene personajes que van apareciendo con el paso de los años y madurando y cambiando su trascendencia, tiene revelaciones con detalles intrincados que sólo se entienden dándoles tiempo y poniéndolos en contexto… Una película nunca le va a hacer justicia a todo eso, y va a estar siempre en falta con la magnitud de lo que implica. Un relato que le haga justicia a lo que pasó en los setentas, se parece mucho más a cómo se relata en Marvel que a cualquier otro producto de la historia del cine. Es una historia que marca generaciones, que durante décadas pide spinoffs y en 30 años pide remakes, y que así arma una cultura popular alrededor de la resistencia y el heroismo en nuestra historia real y reciente.
Eso, lógicamente, si hablamos de establecer agenda, y de tener un diálogo con una generación actual adecuada a recursos cinematográficos y narratológicos actuales. Si pretendemos hacer política desde el cine, tenemos que re-ver ese proyecto siempre fantasmagórico de “nuestro propio Disney“.
Y sé muy bien que este planteo mío no va a generar ningún efecto felíz en el creyente promedio del cine elevado y culto -en contraste con un cine más bien vulgar-, ni en sus equivalentes vinculados a las literaturas, historias, o hasta por qué no ciencia política. Y eso va a ser especialmente disonante para elles teniendo en cuenta que reniego de una posible banalización del tema. Pero yo pretendo ver a lo popular como lo que es -además, en paralelo, de lo que me parezca que debería ser-, y a lo cinematográfico como técnica humana de acción social -sin importarme mucho francamente los principios rectores de sus géneros ni métodos-. Los pueblos van a considerar importante aquello que consideren importante en cada momento dado, y no a algo así como “lo objetivamente importante”: y hay razones pensables de por qué los pueblos de la actualidad le prestan más atención a unas cosas que a otras. Allí emergen debates legítimos por los modos de los relatos y sus infinitos detalles, y ahí entran cuestiones como las que se discuten en este artículo. Pero lo concreto es que mientras tenemos cineastas como Leonardo Fabio, con todas sus virtudes, en el resto del mundo se sigue identificando al peronismo como a un pseudo-nazismo, mientras Disney no para de crecer desde hace 100 años y es una de las organizaciones más profesionales de la historia de la humanidad, sin tener por ello un target precisamente excluyente ni acotado a algún país en especial. Así que yo creo que la discusión por los modos del establecer agenda, especialmente desde lo mediático, tiene que considerar algunas cosas de lo popular en términos más empíricos que ideales.
Por otro lado, si lo que buscamos es otra cosa más vinculada a la información concreta, es muy probable que otras herramientas también nos permitan lograrlo. Por ejemplo, si hablamos de géneros, siempre vamos a tener al documental, y allí podemos dedicar más tiempo a datos que a recursos cinematográficos: ya no vamos a necesitar representaciones de cómo la pasaba Strassera con su familia ni recreaciones verosímiles del momento histórico, y probablemente tengamos entonces un poco más de presupuesto y de espacio en esas dos horas para saber por qué la ESMA era “tan brava” -especilamente, después de, y en contraste con, los testimonios previamente plasmados, que ya eran bravos-. Lógicamente, una aventura como esa cambia el target, y especulo que lo vuelve todavía menos popular. Pero también le quita una buena cuota de banalidad a la película.
Con todo esto, irónicamente para su sesgo aparentemente de UCR, opino que la película comparte una extraña cualidad con el peronismo: con todos sus defectos, está del lado correcto de la historia y hasta tiene momentos absolutamente reivindicables, razón por la cuál hay que defenderla y hasta por qué no militarla; pero con la conciencia de que no se hace por sus hipotéticas grandes y excepcionales virtudes, sino porque lo que está en frente es un absoluto espanto y entonces la vara queda bastante baja a la hora de encarar un proyecto que se pretenda popular.
Pero con esos problemas presentados, quitemos un poco la atención de esa película particular, y concentrémonos en los problemas que de allí obtuvimos: toda esa relación entre los heroismos, la interpelación popular, y los proyectos posibles de planificación cultural.
Parte 2: folklore y realidad
Es muy difícil el balance entre los temas importantes de nuestra historia, las herramientas populares para relatarlos a cada generación honrando sus idiosincracias, y la calibración del tono y foco del relato para no caer ni en lo banal ni en lo demasiado solemne. A veces sencillamente no se puede evitar alguna de esas dos polarizaciones, e incluso muchas veces ni siquiera debe evitarse. Pero este es un problema histórico y recurrente cada vez que la idea de lo popular se mezcla con alguna cuestión importante o identitaria.
Si los temas se plantean de un modo demasiado preciso y sofisticado, buena parte del pueblo queda excluido como interlocutor adecuado. Si por el contrario se simplifica para que el acceso popular al tema pueda ser mayoritario, los límites válidos de tales simplificaciones son siempre un problema, y uno cada vez más serio en la medida que aumenta también la seriedad del tema. De modo que no es de extrañar que a “Argentina, 1985” se le puedan cuestionar esos límites: difícil tarea la de relatar el juicio a las juntas en apenas una película.
Además, decíamos antes, las técnicas cinematográficas imponen ciertas reglas que luego habilitan o excluyen algunos discursos posibles, y nuestra crítica fue que la película parece más respetuosa de esas reglas que del tema que relata. Pero el cine no es la manera en la que históricamente los pueblos vivieron los relatos de sus propias historias, y en realidad tenemos muchos recursos a considerar cuando encaramos esa tarea. Y si hablamos de pueblos, la herramienta por excelencia es el folklore.
Cuando hoy, muy especialmente en Argentina, hablamos de “folklore”, nos referimos comúnmente a dos cosas diferentes, aunque muy cercanamente emparentadas. La primera acepción del término refiere a cierta categoría particular del consumo mediático, multimedial, cultural, mayormente musical. Pero eso suele ser el caso cuando lo vemos desde algún gran centro urbano o metrópolis, donde la lógica del consumo también incluye al folklore. Una segunda acepción del término se aprecia en las periferias de los grandes centros urbanos y refiere a muchas prácticas culturales tales como músicas o danzas, festivales o vestimentas, que hacen a diferentes identidades costumbristas locales y por ese lado tienen mucho más vínculo con las ideas de “tradición” o de “historia” que con la de consumo. Así, el floklore sólo muy excepcionalmente es novedad, y casi siempre refiere a fenómenos vinculados a tradiciones populares locales antes que a eventos culturales internacionales. Pero eso es apenas un estado actual de cosas en el siglo XXI, y el folklore es un concepto con muchísima historia.
Folklore es una unión de dos palabras que no son de origen español: “folk”, y “lore”. Ambas a su vez tienen una historia muy rica en deficiones y conceptualizaciones. Por ejemplo, hacia el siglo XVIII, “folk” refería a grupos de personas mayormente pauperizadas, viviendo economías de subsistencia fundamentalmente rural, sin estudios formales y sin condiciones para la integración a un mundo moderno de tecnología y centros urbanos en frenético crecimiento. Eso cambió radicalmente durante los siglos XIX y XX, de la mano de los cambios también radicales en las ciencias en general, y en las ciencias sociales o humanas en particular, dando lugar a que hoy ese concepto de “folk” nos atravieza a todos en alguna medida y termina siendo un cuasi-sinónimo de “pueblo”. Mientras que “lore” refiere a un cuerpo de prácticas sociales, tradiciones, historias, y creencias, que en su conjunto se viven como una forma particular de conocimiento, habilitante este último de algunas formas de vida en sociedad. El lore puede entonces abarcar desde relatos históricos hasta leyendas o mitos, e incluso extenderse a explicaciones de misterios religiosos o naturales. De modo que, cuando funcionan en conjunto ambos conceptos, lo que obtenemos es algo así como la idea de “conocimiento popular”. Y eso es algo que fué muy intensamente discutido durante el siglo XX en las áreas de “estudios folklóricos” o “folklorismo”, y que ahora vamos a discutir en este trabajo, para más tarde reflexionar sobre cómo hablar acerca de las historias de nuestros pueblos.
Hablar de “folklore” en términos de “conocimento” hoy en día puede ser muy disonante, tanto para gente formada en teoría del conocimiento como para la persona totalmente ajena a esos temas. Y es que, como planteáramos hace apenas segundos, la idea de folklore nos llega a veces como un consumo y a veces como algo que se hace en algunos lugares fuera de las grandes ciudades, pero ambas cosas parecen tener mucha más relación con la noción de “identidad” que con la de “conocimiento”. ¿Qué hay de “conocimiento” en un baile tradicional? ¿Qué hay de “conocimiento” en celebrar todos los años el mismo ritual el mismo día, hoy frecuentemente ya como evento turístico incluso antes que como tradición? ¿Qué hay de “conocimiento” en repetir canciones de hace siglos, en reivindicar leyendas populares, en utilizar vestimentas de otras épocas, en un mundo donde “conocimiento” tiene más cercanía con “tecnología” o hasta con “poder”? Y sin embargo, no sólo hablamos aquí de conocimiento en el folklore, sino que ese ya era el caso hace 100 años atrás.
En casi todos nuestros videos hablamos sobre la modernidad: es uno de los conceptos pilares de este canal. Y cuando lo hacemos, repasamos diferentes detalles de qué significa y de cómo se fué formando. Particularmente en nuestra saga “de máquinas y revoluciones” dedicamos los primeros dos videos a explicar, la modernidad primero, y la primera mitad del siglo XX luego, en aquel trabajo orientando la cuestión hacia la historia de la inteligencia artificial. O incluso en nuestro primer video, donde criticábamos una noción simplista de la idea de “héroe”, explicábamos detalles de la modernidad presentes en Legend of Korra y Attack on Titan. De modo que les invitamos a ahondar en la cuestión revisando esos trabajos si acaso aquí no se sienten preparades para seguir el hilo del tema. Pero ya con esa nota, continuamos con el presente trabajo.
Durante los efervescentes conflictos ideológicos del siglo XIX, uno de los actores principales fue el marxismo. Y el marxismo, si bien se entiende frecuentemente como teoría política o teoría económica, en rigor es un marco filosófico, ideológico, y epistémico, dentro del cual nacen desde partidos políticos hasta ramas de las ciencias. Y eso último fué absolutamente central en la primera mitad del siglo XX, donde dos guerras mundiales y la emergencia de bombas atómicas dieron por terminado al optimismo tecnológico cientificista: evento que a su vez le diera un enorme impulso a las ciencias sociales, en buena medida para estudiar y entender cómo podía haber sido posible semejante desastre. Las ciencias sociales emergieron para estudiar a un ser humano que ciertamente no estaba haciendo sólo cosas buenas con los “milagros” de la ciencia y la tecnología. En ese mismo contexto sucedía el conflicto ideológico multipartito entre Anarquismo, Socialismo, Capitalismo, y Fascismo, que finalmente derivó en una contienda bipolar entre la Unión de Repúblicas Socialistas Soviéticas y los Estados Unidos de América. Y entonces, tanto por cuestiones políticas, como históricas, como sociales, como epistémicas, el marxismo tenía una presencia central en las discusiones de todo tipo y a nivel mundial. Ese contexto es el origen de quien será el héroe de nuestro relato actual.
En el año 1917 sucede un evento que marcó la agenda del resto del siglo en todo el planeta: la Revolución de Octubre. Ese evento es mayormente conocido como “la revolución rusa”, y consistió en una serie de eventos políticos de envergadura en la entonces Rusia imperial, para derivar eventualmente en el nacimiento de la Unión Soviética. Muchas cosas sucedieron durante ese tiempo, tanto en Rusia como en el resto del mundo, este último todavía padeciendo la primera guerra mundial.
Durante esos años, en la Rusia revolucionaria, la ciencia y el ámbito académico fueron también un campo de fuertes disputas por los sentidos del proceso revolucionario y su relación con las articulaciones de sociedades posibles. Esto frecuentemente estaba encarnado por jóvenes comprometidos e idealistas, que desde sus áreas de estudio pretendían revolucionar la cosmovisión heredada de sus generaciones anteriores y el status quo académico de su momento, adecuándolo a los principios ideológicos que la historia imponía. Uno de ellos fué Vladimir Propp, quien terminaba sus estudios universitarios en filología Rusa y Alemana en 1918, y se convertía en profesor e investigador. Propp fué uno de los muchos jóvenes académicos comprometidos con la revolución, dando batallas contra lo que él mismo caracterizó como una academia “zarista” -elitista, alejada del pueblo-, y con eso siempre presente fue que trabajó durante años hasta lograr en 1928 la publicación de su primer trabajo original completo: un libro llamado “Morfología del Cuento”, donde Propp desarrolló un método absolutamente revolucionario -en todo sentido- para el estudio de los cuentos folklóricos, utilizando análisis morfológico y comparativo que permitiera identificar generalidades entre diferentes cuentos folklóricos.
Recién entre 1958 y 1968, treinta o cuarenta años más tarde, “Morfología del cuento” fué “descubierto” por occidente, convirtiéndose en un evento de magnitud y absolutamente central para las áreas de estudio que le competían. Pero para ese entonces Propp había dado muchos más pasos en el desarrollo de su teoría original sobre el folklore, dedicándole décadas de trabajo en el que consideró a los textos folklóricos de todo el planeta en todos los tiempos, así como también las teorías acedémicas canónicas de su momento en todos los paises donde se estudiaran tales cuestiones: algo varios órdenes de magnitud más extenso y laborioso que aquello planteado en “Morfología del Cuento”.
El punto de la nota es marcar que Propp estaba muy adelantado a sus contemporáneos. Y buena parte de ello se sostenía en su condición de revolucionario marxista. Como dijimos antes, él formó parte de una vanguardia teórica y académica en ciencias sociales que disputaba los cánones científicos heredados, estos últimos siempre cargados de ideologías incompatibles con el nuevo momento histórico. Propp basó su teoría del folklore en el materialismo dialéctico: el marco epistemológico desarrollado por Marx y Engels como base de sus estudios sobre las sociedades y la historia. Y en ese momento de la historia difícilmente podía haber algún marco teórico más adecuado y poderoso para las ciencias sociales, las cuales llevaban ya cierto tiempo peleando por reconocimiento mediante el uso de metodologías o conceptos de ciencias exactas y naturales. Pero no solamente el método de estudio estaba dictado por las ideas de Marx y Engels, sino también el objeto de estudio, y el horizonte de acción política de la teoría: _el pueblo_. Como parte de su colaboración a la causa revolucionaria, Propp buscaba reivindicar académicamente los textos y relatos populares, a la poesía popular, mayormente ignorada por la academia donde él se formó, como un objeto de estudio que permitiera entender de manera científica la historia de los pueblos.
Entonces, plenamente en sintonía con las ideas marxistas, la teoría de Propp planteaba que en el folklore se podían identificar las condiciones de producción de diferentes estadíos del desarrollo humano. En sus propias palabras: “(…) la escrupulosa confrontación del material del cuento con el pasado histórico no deja ninguna duda sobre cuáles son las raices históricas de los argumentos de los cuentos. (…) El ‘pueblo’ nos interesa, no como una unidad ‘étnica’ o ‘racial’, sino como representante, como modelo de determinado estadío en el desarrollo socioeconómico. (Fín de la cita)”. En un sólo movimiento, Propp pretendía con su teoría encauzar el trabajo académico al contexto de la revolución, reivindicar el trabajo artístico popular, y proteger a las ciencias sociales de las influencias de experiencias infelices previas amparadas en ideologías retrógradas y equivocadas en su enfoque social -como lo fuera la frenología-. Pero todo esto se aprecia mejor revisando algún ejemplo.
Utilizando el método que presentó en “Morfología del Cuento”, Propp estudió durante décadas los cuentos y culturas de todo el mundo en busca de similitudes, y las comparaciones lo llevaron efectivamente a diferentes conclusiones. Por ejemplo, notó la constante presencia de un héroe o heroína a quien se le asigna una tarea difícil de realizar, la cuál siempre está mediada por alguna forma de viaje, y cuando vuelve se dan lugar a diferentes consecuencias para la sociedad: a veces un nuevo liderazgo, a veces una maldición levantada, a veces un cambio en alguna ley, etc. Y si bien todos los cuentos son muy diferentes entre sí, en realidad se mostraban a Propp como variaciones de la misma estructura composicional.
Algunos cuentos folklóricos son historias de origen, donde algún héroe o heroína ancestral obtuvo por primera vez algún don o capacidad supernatural que luego le permitiera a ese pueblo disponer de los recursos centrales para su forma de vida. Es muy típico encontrar historias donde se relata las travesías de un primer rey, fundador del pueblo y de sus costumbres. Aunque también es común encontrar otras donde se relata no tanto lo que sucedió con un héroe o heroina, sino el cómo se accedió a algún objeto sagrado, fundamental en las creencias religiosas del pueblo en cuestión. A veces los cuentos simplemente explican los rituales que se practican en esos pueblos, frente a lo cuál se vuelve importante marcar que estos cuentos se transmiten oralmente. Pero en todas esas variaciones entre cuento y cuento se encuentran también muchos fenómenos. A veces las variaciones son diferentes versiones del mismo cuento en diferentes momentos de un mismo pueblo. Otras veces son pueblos que no tuvieron nunca ninguna forma de contacto, y entonces las variaciones hablan de sus propios desarrollos particulares.
Propp nos explica cómo el viaje que realiza el héroe o la heroina es siempre una forma de viaje hacia “otro mundo”: una exterioridad legendaria, metafísica, mitológica, para con la realidad diaria, a la cuál se accede sólo mediante un viaje difícil que se narra en los cuentos folklóricos. Ese “otro mundo” es uno donde se encuentran los dones, los poderes supernaturales que permiten luego el dominio sobre diferentes fuerzas de la naturaleza. Por ejemplo, era típico encontrar en las culturas cazadoras diferentes relatos acerca de cómo se habla con los espíritus de los animales -los cuales habitan en el otro mundo-, para que estos luego revivan y así poder continuar los ciclos de caza. Comunmente las culturas cazadoras creían en diferentes objetos fetichizados, compuestos por partes de animales, que brindarían el poder para comunicarse con o controlar a el espíritu de tales animales. Y también es sumamente común que hubiera ritos de iniciación para los y las jóvenes de aquellas sociedades primitivas; ritos mediante los cuales se accedía temporalmente a ese otro mundo, para luego volver empoderades. Pero más tarde, con el desarrollo de la agricultura, es común que los cuentos sigan hablando de un viaje hacia otro mundo aunque esta vez para obtener el don de controlar la subida de los ríos, el clima, o bien directamente la siembra en sí; y es común que allí cambien los ritos también, en función de las creencias más actualizadas. En sus propias palabras:
“(…) El hombre transfiere al otro mundo no sólo las formas de su vida, sino también sus intereses y sus ideales. En la lucha contra la naturaleza él es débil y lo que no consigue aquí puede conseguirlo allá. (…) No hay, pues, ninguna uniformidad; hay multiformidad. Digamos ante todo que no existen pueblos que posean una representación perfectamente uniforme del otro mundo; tales representaciones son siempre multiformes y en parte también contradictorias. (fín de la cita)”
En líneas generales Propp toma de Engels la noción de que esas ideas presentes en los cuentos folklóricos dan cuenta de concepciones primitivas sobre los fenómenos naturales. Lo cuál se puede traducir como “ideas científicas primitivas”, o bien por supuesto “pre-científicas”. Sin embargo, en todo caso para ese pueblo constituyen un conocimiento, más allá de qué conciencia de tal conocimiento pudieran tener, o incluso de la calidad del mismo. Y ese conocimiento siempre está presente en los relatos, de manera directa o indirecta. Por ejemplo, Propp explica que las sociedades matriarcales veneraban a la mujer porque la reproducción de la especie era un misterio y las mujeres tenían ese poder mágico y sagrado. El papel del varón era mayormente irrelevante porque no se entendía su rol en la reproducción de la especie. Pero a partir de que ese rol comenzó a ser comprendido, junto con los roles del héroe en el cuento también cambiaban las formas de gobierno de las sociedades y sus organizaciones: de matriarcados a patriarcados, de clanes cazadores a castas, de roles sociales a clases. Propp explica esta relación entre las ideas primitivas y las realidades sociales de la siguiente manera, considerando un relato sobre un item mágico hecho con pelos de caballo:
“(…) La mentalidad primitiva no conoce las abstracciones; se manifiesta en los actos, en las formas de organización social, en las costumbres, en la lengua. (…) Así, por ejemplo, en la base de algunos motivos se halla un concepto de espacio, de tiempo, y de cantidad, distinto de aquel al que nosotros estamos acostumbrados. (…) El héroe, frente a algunos desafíos, ya sabe todo, porque es el héroe. Su heroismo consiste justamente en su ciencia mágica, en su fuerza. (…) No se trata en absoluto de virtud ni de pureza, sino de una forma de fuerza. (…) pero la fuerza es un concepto abstracto. Ni en el lenguaje ni en la mentalidad existen medios para expresar este concepto. A pesar de ello, tiene lugar el proceso de abstracción, pero este concepto abstracto se incorpora o, por decirlo mejor, se presenta como un ser vivo; se vé por los pelos que invocan al caballo. La fuerza es inherente a todo el animal y a todas sus partes. En los pelos reside la misma fuerza que en todo el animal, es decir, que en los pelos está el caballo, igual que está en la boca, igual que en un hueso está todo el animal. La representación de la fuerza como ser invisible es otro paso hacia la creación del concepto de fuerza, o sea, hacia la desaparición de la imagen y su sustitución por un concepto. (fín de la cita)”
Los relatos folklóricos entonces son un componente muy importante del desarrollo de los pueblos. Son un punto medio entre ciencia y poesía, conocimiento y costumbre, explicación del mundo y lazo social, sobre el que se construyen las sociedades.
Estos esbozos no le hacen justicia a la obra de Propp, que está nutrida de miles de páginas en el curso de décadas de trabajo. Aquí lo que nos interesa relatar es el enfoque que Propp le dió al folklore como reivindicación de un trabajo popular, a veces en forma de conocimiento, otras veces en términos artísticos, pero en todo caso necesariamente dando cuenta de sus realidades históricas a las que luego nosotres podemos acceder mediante un análisis respetuoso y cuidadoso. Y al caso es interesante las propias palabras de Propp donde explica este interés.
“(…) La ciencia del folklore es una disciplina ideológica. Sus métodos y su orientación están determinados por la visión del mundo de su época, y a su vez la reflejan. (…) Nosotros, ante todo, separamos las esferas de la creación material y espiritual, asignándolas a disciplinas diferentes aunque afines, esto es, en relación y dependencia recíproca. (…) Por folklore entendemos sólo la creación espiritual, es más exclusivamente la poética. (…) El folklore existía antes de la aparición de los campesinos en el ruedo de la historia. (…) Toda creación poética de los pueblos primitivos es folklore y constituye el objeto de los estudios folklóricos. (…) Se entiende por folklore las creaciones de los grupos sociales inferiores de todos los pueblos, sea cual fuere el grado de desarrollo en que se hallan. Respecto a los pueblos anteriores a la división en clases, se entiende por folklore todo el conjunto de sus creaciones. (fín de la cita).”
Y en esa cita aparece un punto importante de su trabajo, y del desarrollo de la historia de la humanidad. Propp menciona diferencias a partir de la división en clases, lo cuál se extiende por algunos siglos pero en última instancia se refiere a la emergencia del capitalismo y la modernidad. Sucede que a partir de la modernidad las reglas de los relatos populares cambian radicalmente. En primer lugar, la ciencia moderna ya no permite algunas aproximaciones ingenuas a los relatos mágicos, y básicamente tenemos en general algún grado de conciencia de la creación humana detrás de ellos. Esto es todavía más enfatizado en el hecho de que la modernidad ya tiene muy avanzada una tradición escrita de transmisión de relatos y conocimiento, la cuál está a su vez sistematizada, y eventualmente hasta industrializada y editorializada. Concretamente, una de las figuras que no existe en los relatos folklóricos de tradición oral es un autor: cosa casi siempre presente en los textos escritos, aún incluso cuando indicado como “anónimo”. Y con la presencia del autor, aparece también la intencionalidad. Pero además de esa intencionalidad presentada ya con la firma, los cuentos de autor tienen efectivamente diferentes intenciones (comerciales, políticas, etcétera) que no coinciden a nivel trabajo con las prácticas sociales de sociedades menos desarrolladas; es decir, los cuentos folklóricos no son lo mismo que las obras literarias. Y Propp esto lo deja claro, e incluso lo plantea como problema disciplinario.
“(…) Una de las principales diferencias consiste en el hecho de que las obras literarias tienen, siempre y sin falta, un autor. Las obras folklóricas en cambio pueden no tener autor, y aquí reside una particularidad específica del folklore. (…) O reconocemos la existencia de una _creación popular_ en cuanto tal, como fenómeno de la vida histórica, social y cultural de los pueblos, o no la reconocemos y sostenemos que se trata de una ficción poética o científica y que sólo existen las creaciones de individuos o de grupos. Nosotros compartimos el punto de vista de que la creación popular no es una ficción, sino que existe precisamente en cuanto tal y que su estudio es justamente la tarea de los estudios folklóricos en cuanto disciplina científica. (…) Educados en la escuela de la tradición critico-literaria, a menudo no podemos aún concebir que la obra poética pueda nacer de forma muy diferente de como nace la obra literaria de un autor concreto. Nos parece que alguien debió ser el primero en componerla o escribirla. En cambio, son posibles otras modalidades de nacimiento de las obras poéticas, y el estudio de estas modalidades integra uno de los problemas más importantes y complejos de la ciencia del folklore. No tenemos aquí la posibilidad de ahondar en este aspecto. Bastará con indicar que, genéticamente, el folklore ha de ser situado, no junto a la literatura, sino al lenguaje, que no ha sido inventado por nadie y no tiene ni autor ni autores. Nace y se transforma de forma absolutamente lógica e independiente de la voluntad de los hombres, allí donde el desarrollo histórico de los pueblos haya creado las condiciones necesarias. (fín de la cita)”
Entre las caracterizaciones más novedosas del folklore de Propp como hecho popular está la dinámica detrás de la génesis de las obras folklóricas. Pretender afirmar que el folklore corresponde “al pueblo”, y no a algún autor o autora, es dar un paso más hacia el empoderamiento de los pueblos, lo cuál es la agenda de Propp en primer lugar. De modo que él emparenta los fenómenos del folklore a los fenómenos del lenguaje antes que los de las obras artísticas. Aunque eso no deja clara ninguna hipótesis de origen concreto de los cuentos folklóricos. Y al caso entonces Propp propone lo siguiente:
“(…) En el folklore las acciones son estas y no otras no porque así fueran las cosas realmente, sino porque así se las representaban las leyes del pensamiento primitivo. Por consiguiente, lo que debe ser estudiado es este pensamiento, y todo el sistema de visión del mundo de los primitivos. (…) Importantes son no solamente las representaciones religiosas, las imágenes mentales, sino que importante es la práctica mágico-religiosa, todo el conjunto de actos rituales o de otro tipo con los que el hombre primitivo cree coaccionar a la naturaleza y defenderse de ella. Aquí el folklore será parte integrante del sistema de la práctica religioso-ritual. (…) Si ahora volvemos a preguntarnos cómo podríamos imaginarnos _empíricamente_ el nacimiento de las obras folklóricas, nos bastará aquí con indicar por lo menos el hecho de que el folklore originalmente pudo ser parte del rito. Tras la decacencia o caida del rito, el folklore se separa de él y empieza a vivir con vida propia.” (Fín de la cita).
De modo que el folklore abarca un amplio abanico de componentes sociales y culturales, entre los que se destacan los ritos, los mitos, y los relatos. Ese es el entramado clave al que Propp le presta atención. Prácticas sociales rituales dan lugar a relatos mitológicos orales que luego se manifiestan en otras formas de relatos, los cuales luego habilitan otras prácticas rituales y otros mitos, dando lugar a una rueda que refleja las transformaciones de las sociedades. Un rito de iniciación puede caer en desgracia en tanto condición necesaria para el sustento de la sociedad, por ejemplo luego de determinados descubrimientos sobre el funcionamiento de las cosas que a su vez tornan obsoleto al rito para lograr cierto control de la naturaleza: pero no por ello la práctica ritual pierde presencia absoluta en la cultura popular, porque a través de los mitos y los cuentos folklóricos se sigue relatando como explicación de los orígenes del pueblo, y de esa manera forma parte de su historia.
Pero no importa tanto el orden de esos eventos: lo que importa es que allí radica el valioso conocimiento que consta en el trabajo popular del folklore. Y allí también es donde cada pueblo ha sabido darle lugar a sus propios tonos de relatos, sus propios tabúes, sus propias solemnidades y banalidades, sin que se convirtiera en el gran problema ético de ningún autor o autora profesionales ni de la redacción ni de la historia. Con esto presente, vamos a revisar entonces qué de todo esto nos es pertinente a la hora de pensar sobre los relatos de nuestra historia.
Parte 3: don’t believe in modern love
Vladimir Propp fue un visionario, un adelantado, y un comprometido con el estudio y reivindicación de los pueblos. Pero como ha sucedido con todas las personas que alguna vez hayan puesto un pié en este planeta, no todo lo que Propp dijo fue siempre correcto, y ahora vamos a comenzar esta parte poniendo la lupa sobre uno de sus errores.
Si bien hoy puede sonar a obviedad, un detalle muy importante de aquella postura revolucionaria es que por aquel entonces todavía era novedad. Propp era vanguardia porque nunca se había hecho antes lo que él hacía; del mismo modo que la revolución rusa era vanguardia en el desarrollo de un socialismo superpotencia mundial, cosa que jamás había existido antes de la Unión Soviética. Lo cuál teñía a la revolución de una impronta que hoy llamaríamos “aceleracionista”; un poco queriendo quitarse de encima el baggage de todo lo heredado cuanto antes, y otro poco intentando acelerar el desarrollo de ese proceso hasta donde se pudiera. Pero Propp y sus camaradas sólo tenían terra incógnita en el horizonte: su ideología les daba un mapa, pero el territorio todavía estaba por ser caminado.
La mención viene al caso de que parte de los principios marxistas que sostenía Propp en su análisis es una noción de “etapas del desarrollo” de las fuerzas productivas de la humanidad, básicamente coincidente con un sistema económico que a su vez determina diferentes aspectos de la cultura en la que se lleva a cabo. Y el socialismo era otra de esas etapas, la más avanzada de todas. En sus propias palabras:
“(…) Nosotros no podemos dejarnos guiar por las ideas científicas creadas por el Romanticismo, la Ilustración, o cualquier otra tendencia. Nuestra tarea consiste en la creación de una ciencia basada en la visión del mundo de nuestra época y de nuestro país. (…) Antes de la revolución, el folklore era una creación de las clases oprimidas: campesinos analfabetos, soldados, obreros y artesanos semianalfabetos. En nuestros días, el folklore es, en el verdadero sentido del término, una creación popular. Antes de la revolución, el folklore era una ciencia que operaba de arriba hacia abajo. (…) En nuestros días, el folklore se ha convertido en una ciencia autónoma. (…) Nosotros vivimos en la época del socialismo. Nuestra época ha elaborado también sus propias premisas, a partir de las cuales hay que estudiar los fenómenos de la cultura espiritual. Pero a diferencia de la cultura de otras épocas que llevaron a las ciencias humanas a un callejón sin salida, nuestra época ha creado premisas que conducen a las ciencias humanas por el único camino justo. (fín de la cita)”
Y esta nota es importante porque para los revolucionarios marxistas de la jóven Unión Soviética el socialismo no era solamente un nuevo sistema económico o social, sino directamente un nuevo paso en la evolución de la humanidad: todo sistema productivo anterior al socialismo moderno era entendido como “más primitivo”. De allí emerge el imperativo de Propp por cambiar la cosmovisión de la academia en la que realizó sus investigaciones. Y de allí también su necesidad de desarrollar una nueva ciencia que estudiara las formas de conocimiento generado por el pueblo, o “folk-lore”.
En los tiempos de Propp esa parte de las tesis marxistas todavía no estaban probadas; imaginen pues los niveles de entusiasmo con los que podían llegar a vivirse. Pero Propp murió en 1970, de modo que no vivió la caida de la Unión Soviética en 1991, y por lo tanto nunca dejó ninguna nota al respecto de esta cuestión. Es muy fácil interpretar que, si el proyecto soviético fue fallido, ciertamente ese socialismo no era una etapa más adelantada en un esquema de progreso más o menos lineal de la humanidad. Y entonces uno de los principios rectores de toda la tesis de Propp -el principio de las etapas de desarrollo, las cuales incluyen al socialismo, el cuál se manifestaba en la Unión Soviética- era equivocado. Nosotres entonces planteamos esta pregunta: ¿se invalida frente a tal incongruencia la tesis de Propp sobre el conocimiento histórico en el folklore?
Es más complicado que eso, pero ya vamos a retomar esa pregunta. De momento nos sirve para marcar un detalle importante: Propp también vivía de acuerdo sus propios mitos. Vivir en la modernidad y consciente de los aparatos mitológicos no lo hizo inmune a las mitologías. Por el contrario, él no sólo no era inmune sino que más bien hasta encarnaba una vanguardia en lo que respecta a mitología moderna. Y ese es el concepto en el que vamos a enfocar en esta parte.
Si bien es cierto que el proyecto soviético finalmente falló, también lo es que mientras en la Unión Soviética había gente como Propp empoderando a los pueblos, en occidente había mucha gente queriendo controlarlos. Así podemos revisar cómo mientras Propp trabajaba dentro del marco teórico del marxismo, por fuera de su país se trabajaba desde el liberalismo primero, y desde el fascismo luego.
Todes estamos al tanto de los aparatos de propaganda nazis antes de y durante la segunda guerra. Todas las fuerzas involucradas en la segunda guerra en rigor aplicaron diferentes estrategias y aparatos de propaganda para organizar a sus poblaciones con diferentes objetivos, y con diferente grado de éxito. Allí operaban las tecnologías de difusión de información, donde la televisión era todavía muy jóven y experimental, de modo que la centralidad la compartían la radio junto con la prensa impresa. Y entre tanta propaganda orquestada en tiempos de conflictos ideológicos, una de las cosas que viajaban en esos mensajes eran mitos: explicaciones mitológicas sobre los orígenes del pueblo en cuestión, los orígenes de sus enemigos, los principios fundamentales del bien y del mal, de los órdenes sociales, etcétera.
Tomemos el caso de la alemania nazi, para continuar con ese ejemplo. Allí proliferaban todo tipo de acusaciones al judaismo como corruptor de sociedades, y en contrapartida se articulaban un montón de estrategias para defender al pueblo ario de tanta influencia judía, así como también se ponían en práctica todo tipo de mecanismos que permitieran poner siempre en contraste explícito a la cultura aria y milenaria frente a su enemigo semita. Eso constituye una mitología, no sólo aún presente en tiempos modernos, sino que además amplificada y empoderada por las herramientas modernas de propaganda. Y aquí es importante notar algunos detalles frente a las hipótesis de Propp.
Del mismo modo que la propaganda nazi es muy conocida, también es conocido quien es universalmente tildado como responsable de la creación y articulación de la misma: Joseph Goebbels, el ministro de propaganda de Hitler. Y, como Propp, Goebbels era filólogo, con lo cuál también estudió literatura e historia. Es sabido que Goebbels fue instrumental en el desarrollo de una identidad nazi en diferentes momentos de la intensa historia alemana pasada la primera guerra mundial. Pero también es sabido que él no fué el único ideólogo, por un lado, además de que una campaña de propaganda a nivel nacional y sostenida implica grandes equipos de trabajo. Entonces, entendiendo eso, ¿se puede decir que Goebbels era “el autor” de los mitos que la propaganda nazi instalaba?
No pretendemos quitarle importancia a Goebbels, sino plantear otro problema diferente. Propp decía que al folklore lo creaba “el pueblo”, que era una cosa diferente a la literatura, y que siempre era algo creado en las clases bajas de las sociedades. Los mitos populares son una parte del folklore muy importante en el desarrollo de la identidad de un pueblo y en su relación con la realidad que le toca vivir: explican desde las mareas y el clima hasta las causas de la deuda externa. ¿Cómo queda entonces esa teoría frente a fenómenos como los de la propaganda nazi? ¿Pasa a ser importante si Goebbels era el autor de tales mitos para poder hablar de “folklore”, o es suficiente con que el pueblo finalmente los utilice como parte de su identidad y Goebbels tiene entonces poco qué ver?
Y esas preguntas no son en absoluto ociosas. En su famosa presentación “¿Qué es un autor?”, Michel Foucault dá cuenta que, entre otras cosas, el autor es el responsable, y por lo tanto el receptáculo de los castigos, por aquello que ha sido dicho o escrito. Dice Foucault:
“(…) Los textos, los libros, los discursos empezaron realmente a tener autores (diferentes de personajes míticos, de grandes figuras sacralizadas y sacralizantes) en la medida en que el autor podía ser castigado, es decir, en la medida en que los discursos podían ser transgresivos. El discurso, en nuestra cultura (y sin duda en muchas otras), no era, originalmente, un producto, una cosa, un bien; era esencialmente un acto —un acto que estaba colocado en el campo bipolar de lo sagrado y de lo profano, de lo lícito y de lo ilícito, de lo religioso y de lo blasfematorio—. Fue históricamente un gesto lleno de riesgos antes de ser un bien incluido en un circuito de propiedades.” (Fín de la cita)
Entonces, considerando lo que dice Foucault: ¿Goebbels es responsable por los efectos de la propaganda nazi, o “el pueblo” es responsable por apropiárselos y hacer de los mitos nazis un folk-lore? Y antes de contestar, recordemos que estamos hablando de los nazis en su momento de mayor brutalidad: campos de concentración, exterminio sistematizado de judíos, etcétera. ¿Goebbels es un chivo expiatorio para la responsabilidad del pueblo? ¿O acaso esos mitos antisemitas no son “folklore” de acuerdo a algún tecnicismo proppiano o algo parecido, y por lo tanto el pueblo es inocente? En definitiva, ¿el pueblo tiene poder sobre su conocimiento, o no lo tiene? Todo eso nos lleva rápidamente de paseo por algunas de las heridas más horribles de nuestra historia reciente, y por lo más oscuro de la condición humana. Les advertí que no era ninguna pregunta ociosa.
Y por supuesto este ensayo no es ni por lejos el primer lugar donde se hacen esa clase de preguntas. A principios de la década de 1960, la pensadora Hannah Arendt realizó algunas tareas de covertura periodística sobre el juicio a Adolf Eichmann, un burócrata Nazi responsable por ser parte fundamental de la organización del exterminio judío en campos de concentración. Las reflexiones de Arendt se publicarion en un libro que se llamó “Eichmann en Jerusalem: un reporte sobre la banalidad del mal”. Y de allí surge uno de los conceptos más inquietantes y polémicos que nos dejaron los nazis a todas las generaciones posteriores.
Arendt notó que Eichmann no era ninguna especie de sesudo, cínico, demoníaca encarnación mitológica del mal en el mundo, sino que por el contrario era mucho más cercano a un absoluto don nadie: un hombre nimio, trivial, carente de grandes aptitudes de ningún tipo. De hecho, específicamente se cuenta en el libro que el gobierno israelí envió muchos psicólogos a analizarlo, y todos coincidieron no sólo en que Eichmann no mostraba signos de ningún tipo de enfermedad mental, sino que por el contrario se mostraba como una persona absolutamente normal. Y esa era la parte tan reveladora como preocupante para Arendt. Las motivaciones de este villano provenían mucho más de sus propias inseguridades y falencias que de ninguna ideología maligna y corruptora; era un tipo insoportablemente banal. ¿Acaso de esa clase de gente está hecha el nazismo?
Preguntarnos por el folklore ciertamente nos puede llevar a lugares muy incómodos. Pero salgamos de preguntas tan terribles, tan difíciles de responder. ¡Los nazis perdieron la guerra! ¡Yey! Y dejaron de existir mucho antes que la Unión Soviética cayera, son cosa de un pasado ya muy lejano, ¿verdad?. Como sea, todes sabemos que el contraste con la Unión Soviética no está en la Alemania nazi sino en los Estados Unidos de América: que también tiene su propia mitología, y también tuvo su propio desarrollo en propaganda. Allí estaba Edward Bernays, un señor que no le llega ni a los talones en fama a Goebbels, pero que tal vez haya tenido un rol incluso más determinante en la historia de la propaganda. Y Bernays decía cosas como las siguientes:
“La consciente e inteligente manipulación de los hábitos organizados y opiniones de las masas es un elemento importante en una sociedad democrática. Aquellos quienes manipulan este mecanismo oculto de la sociedad constituyen un gobierno invisible que es el verdadero poder gobernante de nuestro país. Somos gobernados, nuestras mentes son moldeadas, nuestros gustos formados, nuestras ideas sugeridas, mayormente por personas de las que jamás hemos oido mención alguna (…) Las personas inteligentes deben darse cuenta que la propaganda es el instrumento moderno mediante el cuál pelear por fines productivos y ayudar a obtener orden desde el caos”. (Fín de la cita)
Con esa clase de ideas, Bernays trabajaba para grandes empresas y gobiernos instalando todo tipo de nociones en las sociedades donde intervenía: que el cigarrillo era un símbolo de liberación femenina, que sólo los vasos descartables son higiénicos, que un verdadero desayuno incluye panceta, y cosas por el estilo. Encantador el amigo Bernays, en múltiples sentidos de la palabra. Y noten que él no hablaba de “folk-lore”, sino de “opinión pública”. Aunque en este caso nadie intentaría hacerlo responsable de la propaganda norteamericana. A quien popularmente se consiera principal motor de propaganda estadounidense no es una persona sino todo un sofisticado conglomerado de producción multimedial, cuya faceta más luminosa tenía y tiene un nombre muy conocido mundialmente: “Hollywood”. No creo que este último necesite mayores introducciones.
En cualquier caso, se aprecia que en todos lados había un ímpetu por el estudio de aquello que el pueblo tenía en la cabeza, aunque cada lugar del mundo pueda tener diferentes fines, estrategias, marcos teóricos, y tecnologías al caso. Se aprecia también cómo la ideología estaba siempre presente entre las personas que estudiaban estos temas. Y se trató de una de las cuestiones claves en el desarrollo de sociedades alternativas durante un siglo XX en guerra, ya sea esta una guerra mundial activa o una guerra fría entre superpotencias. El “folk-lore”, la “opinión pública”, o como se lo quiera llamar en algún otro marco teórico, es evidentemente el campo donde se libra lo que hoy en boca de todes es llamado “batalla cultural”. Y si el folklore es el campo de batalla, los mitos son las armas.
La palabra “mito” puede ser costosa para nuestra sensibilidad moderna. A veces nos suena a “mentira”, o a alguna forma de creencia primitiva. Pero no son eso, y las personas más inteligentes y de pensamiento más lúcido y cuidado siempre tienen la cabeza llena de mitos, porque los mitos son parte de nuestra estructura cognitiva, de la manera que tenemos de relacionarnos con la realidad que nos toca vivir. Propp por ejemplo creía en el progreso de la humanidad en el desarrollo de los sistemas económicos: algo amparado en evidencia científica y en ideas racionales de idéntica calidad y rigurosidad; “mitológico” no es contrario a “verosimil”, y menos todavía cuando se trata de “conocimiento popular”. Pero ese progreso en el que creía Propp es uno de los tantos mitos con los que se inauguró la modernidad: la idea de que “los avances científicos” hacían mejor al mundo, y dejaban atrás problemas de la historia de la humanidad ya superados, y cosas por el estilo.
La cruel enseñanza del siglo XX fue, precisamente, cuánta cuota de fantasía había en esas ideas. Tan maravillosa era la tecnología que terminó dándonos matanzas inconmensurables y bombas atómicas, y con ellas vinieron las pesadillas del apocalipsis moderno; tan eficiente era la maquinaria productiva y administrativa moderna que terminó dándonos campos de exterminio para pueblos enteros, hiriéndonos de eterna vergüenza y duda ante nosotres mismes, dejándonos sin palabras a la hora de dar explicaciones; tan grandes son los avances en nuestras civilizaciones que cosas como la miseria estructural o las migraciones forzadas, los racismos y xenofobias y odios generalizados de todo tipo, el hambre en paises ricos o hasta generadores de alimento, son problemas presentes en todos los continentes, en casi todos los paises, y lo más cercano a tener eso bajo control parecen ser aparatos mercantiles que se dedican no a resolverlo sino a estimularlo y con fines político-comerciales.
La modernidad llegó con muchos mitos, algunos de ellos ya demostrados fallidos cuando no también muy peligrosos. Uno de esos mitos es la idea del progreso. Por esas cosas, quienes nos llamamos a nosotres mismes “post-modernes” nos hacemos cargo de que, si bien no tenemos mucha idea de qué es lo que hay que hacer con el mundo -ni siquiera sabemos qué nombre ponerle a nuestra época-, de lo que estamos segures es de que ya no se puede creer en las cosas que se creía durante el siglo XX con respecto a la ciencia y el desarrollo de la humanidad. Muchas cosas han sucedido, y no podemos simplemente ignorarlas.
Pero que esas ideas hayan demostrado fallas, o bien que hayan mostrado claros peligros en algunas de sus articulaciones, no quiere decir que por ello deban ser enteramente descartadas como “malas ideas”. Los mitos son lo que son: ni garantías de éxito, ni garantías de fracasos, sino partes de un rompecabezas ideológico que requiere también un análisis en su conjunto. Quizás el progreso de Propp no fracasó porque la idea de progreso en sí es una fantasía, sino por una interpretación particular de qué pueda significar ello. Quizás, por el contrario, tal vez hasta nunca fracasó: ¿quién dice que “progreso” es “siempre para adelante”, y que no puede implicar algunos retrocesos? ¿quién dice que algunos fracasos no son instrumentales luego en el desarrollo de mejores sistemas, como sucede en cualquier área de ingenierías de todo tipo? ¿Y si la generación de Propp finalmente sí termina siendo parte de una historia de “progreso” el día de mañana, y simplemente todavía no lo sabemos? Además, seamos sinceros: ¿qué le vamos a proponer a nuestras siguientes generaciones? ¿”No peleen por un mundo mejor”? ¿Esa es nuestra respuesta a las fallas del siglo XX? Ciertamente necesitamos algo mejor que eso.
Parte 4: la condición heróica
El progreso no es el único mito que nos trajeron la ciencia y la modernidad. La ciencia, además de progreso, instala una idea de poder, especialmente sobre la naturaleza. De repente el ser humano puede volar. De repente un ser humano puede hablar en su casa y lo escucha alguien en otro continente. De repente la tuberculosis se puede curar. De repente podemos controlar el flujo de un río, viajar muchos kilómetros en pocos minutos, viajar por el fondo del mar, viajar al espacio. Cada pequeño hito de la ciencia en rigor también fue siempre un límite de la humanidad siendo superado. Y al ver eso, no tardamos mucho en empezar a fantasear cuántos más límites íbamos a poder superar, y qué tan rápido lo lograríamos.
Esto, como siempre, sigue hoy presente en la cabeza de la gente más seria y racional y tantos otros adjetivos retóricos, que en este caso particular sigue fantaseando con “crecimiento económico”, y dice cosas grandilocuentes al respecto como si no fueran banalidades. Pero en el discurso popular está lleno de otros límites a superar mediante el uso de ciencia y tecnología esotéricas: viajes en el tiempo, telepatía, inmortalidad, y tantas otras cuestiones alrededor de las cuales nació el género de la ciencia ficción.
Y fué así que entre la esoteria de la ciencia y la tecnología, la modernidad nos dió un personaje mitológico muy característico de nuestro tiempo: el superhombre, un ser super-humano que no está sometido a nuestros muchos límites, y muy fácilmente se convierte en un horizonte para la humanidad. Y “superhombre” hace unos cien años atrás podría remitir a Friedrich Nietzsche, pero hoy lo vemos presente en casi cualquier pueblo del mundo en la figura del “super-héroe”.
Los superhéroes son un caso de estudio muy completo cuando hablamos de folklore. Por un lado son una modernización, una actualización, de la figura del héroe que nos interpela y acompaña desde tiempos inmemoriales donde ni siquiera escribíamos nuestros relatos. Ya trajimos alguna cita de Foucault donde mencionaba a “personajes míticos, grandes figuras sacralizadas y sacralizantes”, que en otros tiempos y culturas ocupaban el lugar que hoy ocupa “el autor”. Precisamente, los cuentos folklóricos que estudiaba Propp en todo en mundo tenían esa clase de características: personajes míticos, que explicaban los orígenes y funcionamientos de las cosas a partir de la historia de un pueblo, y en definitiva eran los “autores” de tal historia. Esos personajes son comúnmente conocidos como “héroes” de las historias, y sus características van cambiando de acuerdo a cómo cambian las propias sociedades que ellos mismos explican. Propp repasa ese fenómeno contrastando los cuentos folklóricos con las obras literarias, de la siguiente manera:
“(…) en el folklore existe la presencia de dos polos, mas dos polos diferentes de los que se hallan en la literatura. Son el narrador y el oyente, opuestos de forma inmediata, o, mejor dicho, no mediata. (…) El narrador no repite al pié de la letra lo que ha oido, sino que en todo ello introduce sus variaciones. Aunque estas variaciones puedan ser a veces completamente insignificantes (pero también pueden ser de gran importancia), aunque los cambios que sufren los textos folclóricos a veces se realizan con la misma lentitud que los procesos geológicos, es importante el hecho de la mutabilidad de las obras folclóricas en relación a la inmutabilidad de las obras literarias. (…) Cada oyente de folklore es un potencial futuro narrador, que a su vez -de modo consciente o inconsciente- introduce en la obra nuevos cambios. Cambios que no se realizan por casualidad, sino siguiendo ciertas leyes. (fín de la cita)”
Por ejemplo, Propp cuenta cómo son comunes diferentes formas de relatos donde, como parte de sus aventuras, los héroes eran tragados por algún animal: una serpiente o dragón, una ballena, etcétera. Durante el curso de centenares de páginas y detalles, Propp explica cómo eso tiene relación directa con los espíritus animales, con la tarea difícil de cumplir y la obtención de dones, con la idea de aquel “otro mundo” al que acceden los héroes mitológicos, y tantos otros conceptos frecuentes en los cuentos folklóricos. Hubo un tiempo donde ser tragado por el animal era un acceso ritualístico y mitológico a un “otro mundo” de poder animal, y por lo tanto algo que empoderó al héroe del mito. Pero Propp también revisa que los relatos a su vez van cambiando con el paso de los tiempos, y esos cambios afectan al rol del héroe, a sus logros y peripecias, y de hecho hasta al qué constituye heroismo en sí. La dinámica de la tradición oral aplica allí sus mutaciones.
Hubo épocas donde los héroes eran más bien contingencias, eventos, incluso hasta accesorios, y el desarrollo de las historias no sucedía por características del héroe o la heroína sino por las de la magia en sí. Era común, por ejemplo, encontrar héroes que ni siquiera superaban las pruebas, sino que lo hacían sus acompañantes: a veces un animal mágico, otras veces un muerto revivido, otras veces algún item mágico animado, pero en definitiva el héroe no era quien superaba algún obstáculo sino apenas quién finalmente volvía del otro mundo y contaba la historia. Pero con el paso del tiempo y el desarrollo de las sociedades, en la medida que la magia comenzó a estar más y más relegada cobró importancia la figura de los talentos personales, haciendo de las características de los héroes algo más central en los relatos: aquí los héroes encarnaban la magia misma, sea por sus habilidades supernaturales o bien por los dones que obtenían, pero en cualquier caso gracias a estos lograban superar las tareas difíciles que el relato les imponía y así se salvaban para contar la historia. O incluso desarrollos todavía más posteriores daban lugar a héroes que no se salvaban a sí sino a terceros: la tarea difícil pasaba a ser salvar a les demás. En palabras del propio Propp:
“(…) La comparación de estos dos casos demuestra que el enroscamiento de la serpiente en el cuello del héroe es una forma más tardía del engullimiento, de los tiempos en que ya no se aceptaba que [ser tragado por una serpiente] se tratase de un beneficio. (…) El desplazamiento del centro de gravedad del heroismo preludia una innovación enormemente importante en la historia de estos mitos. (…) El heroísmo mágico es sustituido por el coraje y el valor individual. En el hecho de ser tragados ya no hay ahora nada de heróico. (…) El héroe ya no será el engullido sino quien libera al engullido. (fín de la cita)”
A partir de la modernidad y el desarrollo de las mas diversas ciencias, se hace más y más complicado creer en poderes mágicos provenientes de la naturaleza. No quiere decir que esas creencias hayan desaparecido de nuestras sociedades: en absoluto, son un espacio de consumo sumamente popular que vá desde items fetichizados hasta peregrinaciones a lugares de empoderamiento, y de hecho estas prácticas son frecuentes entre gente de alto poder adquisitivo y formación académica avanzada; como dijimos en varias oportunidades, no estamos aquí hablando de “tonterías obsoletas” ni de “mentiras”, sino de “componentes de nuestro aparato cognitivo”, de cómo funciona nuestra relación con la realidad, que es un pilar sobre el que construimos nuestras sociedades. Todes creemos en algo.
Aunque también es cierto que todos estos fenómenos suelen adecuarse a racionalizaciones modernidazas: de repente hablan de “energías” en lugar de “magia”, intentan explicar su funcionamiento en cuestiones naturales estudiadas -intentando darles cualidad científica-, hablan de “misterios” para fundar espacios de conocimiento esotérico, y todo ello convive con el discurso científico más riguroso. De esa manera, el ateismo rápidamente deja de ser una condición para la práctica de las ciencias, y de hecho la ciencia misma se constituye en una forma de religión moderna a donde las personas de todo pueblo y nación pueden depositar sus esperanzas de un futuro mejor. Lo cuál no sorprendería a Propp, que escribió lo siguiente:
“(…) una nueva forma de economía no crea de golpe las formas mentales equivalentes. Hay un período en el que estas nuevas formas entran en conflicto con la antigua mentalidad. Una nueva forma de economía introduce imágenes nuevas. (…) Aunque en esta ocasión no haya una relación de dependencia directa entre el cuento y la realidad, este caso demuestra cómo una costumbre -o un motivo- que se halla en contradicción con hechos nuevos cambia de aspecto conforme a estos hechos. (fín de la cita)”
Pero no sólo no sorprendería a Propp, sino a nadie que estudie los relatos folklóricos y los desarrollos históricos de los pueblos: cosa que durante el siglo XX se hizo cada vez más accesible, y generó herramientas cada vez más poderosas al caso. En ese contexto se formaron las personas encargadas de idear y establecer los relatos populares de nuestros tiempos. De modo que para cuando llegaron los superhéroes a nuestras culturas, todo esto que contamos en este ensayo ya era algo bastante dominado. Tanto es así que son precisamente esas las categorías con las que la gente del mundo de los superhéroes describe a su trabajo. Observemos por ejemplo este trabajo del año 2010: cuando se cumplían 75 años de publicaciones de DC comics, Paul Levitz titulaba a su trabajo “el arte de la creación de mitología moderna”. Y precisamente ilustraba tal concepto con dos obreros pintando una gigantografía de Súperman. Bastante elocuente para nuestro argumento.
Arte, mitología, y modernidad, parecen los componentes genéticos de los superhombres y supermujeres. Así logramos un folklore donde Thor y Zeus no tienen problema en convivir con naves espaciales y física cuántica, y es el mismo mundo donde el hombre araña tiene problemas de clase obrera como mantener su trabajo o pagar el alquiler mientras para los Lex Luthors de la vida nunca es suficiente poder no importa cuánto tengan. Allí los complots paranóicos entre aliens y seres transdimensionales tienen explicación y pleno sentido; no sólo no son tonterías, sino que hasta dan cuenta de cosas para las personas más cultas y educadas de nuestras sociedades que saben analizar subtextos en relatos, al mismo tiempo que esos mismos relatos constituyen consumo mercantil del más banal y orientado a grandes mayorías populares. Y allí es donde encontramos a nuestros héroes populares contemporáneos.
Por supuesto que no son los únicos héroes en nuestras sociedades: seguimos teniendo nuestras figuras históricas, nuestros próceres, nuestros referentes, y por qué no también todo tipo de campeones y campeonas desde deportistas hasta ganadores de premios internacionales de todo tipo. Pero los superhéroes son curiosamente los más sofisticados de todos, mezclando todo tipo de indiosincracias y lineamientos políticos y conflictos de las más diversas naturalezas. En el curso de casi cien años ya, publicaciones semanales prácticamente ininterrumpidas han dado lugar a un “lore” en los universos editoriales de los superhéroes tan vasto como complejo, y del que también se pueden hacer muchas lecturas acerca de lo popular en nuestra era. Aunque esta vez este lore no viene al caso de explicar nuestra historia precisamente, o al menos no de la misma manera que los mitos lo hacían en sociedades más primitivas; no, en nuestro caso, nuestra mitología moderna explica de la misma manera que nuestras sociedades viven a la política: por las vías de la representación.
Y aquí es donde podemos comenzar el camino de vuelta hacia la película que mencionamos al principio. Sucede que, si bien los superhéroes pueden pensarse como los héroes más sofisticados de la modernidad, en realidad las historietas no son el medio moderno por excelencia, sino que desde el siglo XX ese lugar lo ocupa el cine. Y, de hecho, tan sofisticados podían ser los superhéroes, que tuvieron un tortuoso camino hasta que pudieron llegar al cine de manera felíz y aclamada; apenas 20 años atrás las películas de superhéroes todavía generaban vergüenza ajena y no las querían ni los entendidos del tema, mientras que hoy los estudios pelean por hacer universos cinematográficos que repliquen aquellos ya presentes hace casi un siglo en las historietas. En ese cambio hubo mucho de técnica involucrada, donde usualmente se analizan “efectos especiales” o “animaciones por computadora”, pero también la técnica pasa por los pormenores de los relatos, que en el caso del cine exige cierta coherencia entre múltiples dimensiones de la experiencia humana: visual, sonora, actitudinal, lógica…
Ciertamente, si hablamos hoy de superhéroes y cine, el estandar de referencia es el universo Marvel, y concretamente la llamada “Saga del infinito”: una colección de largometrajes y cortos compartiendo todos el mismo universo ficcional, comenzando con “Iron-Man” en 2008 y finalizando con “Avengers: Endgame” en 2019. Eso son 11 años de desarrollo, con 23 películas, nueve cortos independientes, y muchos otros trabajos referenciales como historietas o citas en series de televisión. Y allí se desarrolla en cine la historia de diferentes personajes de Marvel Comics: una de las dos empresas dedicadas a las historietas de superhéroes más grandes del mundo.
La saga del infinito es extrañamente pertinente para analizar “Argentina 1985”, aunque sea tan sólo por un felíz accidente. Al principio de este ensayo mencioné que a los villanos de aquella película sobre el juicio a las juntas había que “relatarlos como se relata a un Thanos”. Y precisamente la saga del infinito cuenta la historia de Thanos, en su aventura por “arreglar” al universo, de acuerdo a su retorcido criterio. Thanos buscaba por todo el universo unos artefactos de extraordinario poder, que si llegara a unirlos lo convertirían en un ser cuasi-omnipotente. Pero no pretendía eso por el poder en sí, sino para lograr corregir lo que él consideraba una desviación en el universo, que era el exceso de vida. De modo que el plan de Thanos era, básicamente y para resumirlo, exterminar al 50% de la vida en todo el universo para que el otro 50% tuviera los recursos suficientes. Genocidio, como bien se lo aclaran en cámara. Y Thanos defiende la idea de este genocidio, porque en su caso sería uno indoloro, arbitrario en la selección de individuos, sin mala fé alguna: según él sería una forma de piedad frente a la inminente catástrofe de la vida fuera de control.
Las cuestionables razones de Thanos se encuentran en nuestra filosofía moderna, y de hecho la catástrofe que menciona tiene hasta un nombre técnico: “catástrofe malthusiana”. Eso refiere a las hipótesis de Thomas Malthus: un economista del siglo XVIII. Lamentablemente ahondar sobre la relación entre Thanos y Malthus nos desviaría mucho del argumento de este ensayo, así que les dejamos a ustedes curiosear similitudes y distancias entre los argumentos de ambos. Pero al caso de este ensayo, lo que nos interesa mencionar es que finalmente Thanos logra su objetivo, y ejecuta su genocidio de la mitad de la vida en todo el universo. Los seres vivos exterminados simplemente se esfumaron en el aire, como cenizas, y ya no estuvieron más.
“Avengers: Endgame” cuenta las consecuencias de ese genocidio. El relato de esta película transcurre pasados 5 años del genocidio, en un planeta tierra todavía en shock. Las calles e infraestructuras están desatendidas, se ven a lo lejos puertos con embarcaciones desordenadas, ya no se aprecia la vida intensa de las grandes ciudades por ningún lado. Y la gente continúa absolutamente conmovida: vive silenciosa, frecuentemente quiebra en llanto de la nada y sin explicación, y nadie parece tener en claro cómo continuar viviendo con normalidad, incluso años después del evento. Allí el Capitán América forma parte de grupos de terapia, mientras con la Viuda Negra se preguntan si acaso tenía algún sentido continuar haciendo lo que hacían, que era buscar alguna forma de solución; otros, como Thor, ya se habían dado por vencidos hacía rato.
Y en ese contexto sucede que un superhéroe particular, al que se había dado por muerto durante el genocidio, vuelve a un mundo que le resulta irreconocible. Él no estaba consciente de cómo habían transcurrido los eventos, y para él esos 5 años fueron apenas algunas horas. De modo que, a través de sus ojos, se exponen detalles del planeta tierra luego del genocidio.
Yo ví esta película en el cine, y hasta este punto era apenas un entretenimiento: seguía la trama, era interesante, pero no tenía mayor observación. Sin embargo, durante esa exposición del mundo con ese superhéroe retornado, me sucedió algo tan inesperado como conmovedor. Este superhéroe, en su exploración de la situación, eventualmente llega hasta una plaza pública donde se exponen placas con nombres como monumentos. Son placas con los nombres de todas las personas asesinadas en aquel genocidio, aquel día en el que se hicieron cenizas y se desvanecieron en el aire. Y lo que sucedió fué que, de manera absolutamente accidental, los monumentos se referían a todas esas personas como “the vanished”, lo cuál en la traducción subtitulada se expresó como “los desaparecidos”. Y al ver eso, de repente me encontré a mí mismo conteniendo las lágrimas.
Ese era el último lugar en el que podía esperar encontrar referencias a los desaparecidos. De ninguna manera estaba ni esperando ni buscando nada como eso: era una película de superhéroes, se supone que sean livianas y banales, no pesadas y solemnes como la cuestión de los desaparecidos. ¿A quién se le podía llegar a ocurrir mezclar algo como el Plan Cóndor con las aventuras del Capitán América y sus amigos? La idea parece insoportable. Pero sin embargo estaba todo ahí, en la pantalla, de una manera tan respetuosa y honorable que todavía me cuesta creerlo cada vez que lo recuerdo. De eso ya pasaron años, y sin embargo la experiencia sigue siendo contundente y reveladora: esa fué una de las mejores representaciones que he visto del trauma que la experiencia del Plan Cóndor dejó en mi país, y estoy seguro que otras personas con otros genocidios en su historia probablemente sintieron algo parecido. En el caso de esta ficción, hasta las personas más fuertes y poderosas de todas de repente eran la encarnación del misma del trauma, y cada detalle era significativo: el silencio, la falta de palabras, el cuestionamiento de la vida propia por ser sobreviviente, o hasta el cuestionamiento de la vida misma en sí, sin que el paso de los años resuelva nada. El mundo entero compartía frente a mis ojos lo que mi pueblo ha padecido. Y estaba todo en una película holliwoodense de superhéroes.
Después de eso, ya no pude volver a leer la relación entre genocidio y Thanos de manera inocente, y de hecho más y más tenía sentido poner al genocidio en escena por las vías del supervillano: la obsesión, la necesidad desubicada de poder, lo desconectado que está de las sociedades con las que interactúa. Y muy especialmente me quedó en claro algo que ya mencioné en otros videos, pero de manera implícita: que las víctimas del genocidio no son solamente las personas asesinadas, porque las heridas de su ausencia y de ese acto traumático las seguimos padeciendo todes de maneras indecibles durante décadas.
Thanos, en la historia original de las historietas, no era malthusiano y sus motivaciones eran radicalmente diferentes. Él en sí era un personaje muy diferente, creado en una época también diferente, décadas antes de las películas. El punto es que la adaptación cinematográfica de Thanos, así como la de la historia en general, fue una muy cuidada, adecuada a las realidades y sensibilidades de una audiencia contemporánea y global. Por esa vía, “Avengers: Endgame” fué aclamada, del mismo modo que rompió toda clase de records de audiencias.
“Argentina: 1985”, por su parte, activa y explícitamente tomó al genocidio de la dictadura. Aunque a nuestro juicio mostró mucho más cuidado para adecuarse a las condiciones cinematográficas del género que eligió, antes que para el relato en sí y el público al que se suponía que interpele. Atención que con esto no quiero insinuar nada malo sobre la película: también fué mayormente aclamada, aunque sus métricas hayan sido comprensiblemente más humildes que las de Thanos, y no podemos dejar de decir también que fue muy respetuosa. Hemos mencionado antes la banalidad y tonos livianos, por ejemplo, en las situaciones familieras de Strassera y les miembres de su equipo; pero, ¿con qué cara podríamos decir eso como marcándole algún pecado, para luego comparar la cuestión del genocidio de la dictadura con una película de superhéroes? Sería de una profunda hipocresía, y no es ese el razonamiento que pretendemos articular.
Lo que nos parece que sucede, respondiendo a nuestras propias preguntas iniciales acerca de por qué esta película era tan insistentemente recomendada, es que ese reconocimiento a la película tiene más de intención de “hacer algo” que de marcar grandes logros en ella. De este lado de la historia se está viviendo con muchísimas ansiedades, o hasta directamente desesperación. A nuestro juicio, los y las comunicadoras enuncian una necesidad de reivindicar cualquier forma de “hacer algo al respecto”: contra el negacionismo, contra la ultraderecha, contra el olvido de lo que ya sabemos que puede volver a suceder y se muestra prácticamente inminente. Ese es el contexto donde “Argentina: 1985” se vuelve tan importante, y donde nosotres ponemos la lupa sobre detalles que acaso puedan abrir alguna puerta.
Uno de esos detalles importantes es la interpelación al pueblo, los pormenores de cómo los pueblos arman sus propias historias, los modos actuales de los relatos populares. Otro de esos detalles son los mitos, donde aquí vamos a ser contundentes: advertimos que las olas de ultraderecha se sostienen en mitos muy bien instalados en sociedades de todo el planeta. Lo cuál a su vez se traduce en la certeza de que nuestros enemigos tienen conciencia y herramientas al caso de una misión como esa. Y por todo ello ofrecemos este humilde ensayo.
Para hablar de esas cosas, frente a los mitos llamamos a la figura de los héroes modernos, en este caso encarnada en los superhéroes. Y desde los superhéroes llamamos la atención a los recursos cinematográficos disponibles. Comparen la enorme calidad técnica que “Argentina: 1985” demuestra para adecuar una ambientación absolutamente impecable de aquellos años, pero para escenificar un evento histórico que casi hasta queda en segundo plano por momentos y sin que nos quede claro a quién se supone que interpele, mientras que “Avengers: Endgame” escenifica cosas que no existen con igual nivel de calidad cinematográfica aunque esta vez logrando interpelar a grandes masas alrededor de todo el mundo.
Pero eso apenas es la puerta de entrada a lo que pueden dar los superhéroes, y por supuesto aquí no es el primer lugar donde eso se aprecia. Desde hace décadas las historietas encaran todo tipo de cuestión solemne y dramática. Los X-Men, por ejemplo, desde el minuto cero encarnan problemas raciales, y los dos polos entre conflicto versus conciliación o guerra versus convivencia. Mencionamos al Hombre Araña teniendo problemas para pagar el alquiler, por dar un ejemplo de los muchos problemas de clase obrera que suele representar en sus historias, donde la representación de la clase obrera es un problema crucial en política desde el siglo XIX. No tiene nada de novedoso que los superhéroes representen cuestiones profundas y sofisticadas; la novedad en las últimas décadas es que lo hagan multimedialmente en cine y series. Y, de hecho, hablando de genocidios, la serie “The Boys” actualmente en curso precisamente narra las desventuras de superhumanos absolutamente perversos siendo literalmente nazis y representando todo tipo de problemas de la actualidad política: desde el uso de las redes sociales, pasando por la toma del capitolio en Estados Unidos, los gobiernos corporativos, los grupos de tareas norteamericanos en otros paises, y tantas otras cuestiones. Casi que más bien es la norma a esta altura usar a los superhéroes en relatos de estas características.
Aunque los superhéroes son también muy útiles para contrastar, precisamente, contra quienes no somos ni super ni héroes: nosotres la gente común y corriente. En “Argentina: 1985” uno de los argumentos más delicadamente planteados está en la frase entre frustrada y resignada de Strassera: “la historia no la hace gente como nosotros”. Eso se traduce sin muchos problemas en “nosotros no somos héroes”: ni “super”, ni “mitológicos”, ni “históricos”, ni de ningún tipo. No somos los personajes de ningún gran relato; apenas tal vez uno muy chiquitito, operando tan sólo adentro de nuestras cabezas, y no mucho más que eso. Por el contrario, nuestras vidas están llenas de infinitas banalidades, una tras otra, todas inconsecuentes para el gran curso de la historia. ¿Qué podría hacer un abogaducho gris y su improvisado equipo de jovencites contra el monstruo histórico e inconmensurablemente terrible que representa la junta militar de la dictadura?
Pero si bien todo eso puede ser cierto, o al menos racional, al mismo tiempo somos también extraña y paradójicamente tan banales como los superhéroes mismos. Esos personajes podrán ser muy poderosos en sus mundos ficcionales, pero en nuestro mundo real son consumo popular y trivial, liviano casi hasta directamente lo infantil. Lo cuál es una reflexión realmente muy extraña. Ciertamente no somos superhéroes pero, ¿cambia algo entonces esa banalidad en nuestras vidas? ¿nos hace valer menos? ¿en qué contextos, exactamente? Es raro de pensar. Al final en aquella película Strassera termina ganando una batalla histórica, y banal o no su vida terminó siendo importante. ¿Entonces cuál es el rol de lo banal en todo esto? ¿Qué cambia si algo es banal o no?
Arendt puso la lupa sobre eso cuando el nazismo la llevó a la banalidad del mal. Entre rangos importantes de las filas nazis había hombres de los más banales pensables. Esto por supuesto fue polémico y muy discutido, incluso cuidadosamente refutado, y no se le debe conceder de manera acrítica el argumento a Arendt. Pero las lecturas de Arendt no son el único argumento disponible, y al caso vamos a introducir a otro pensador íntimamente relacionado con la cuestión nazi.
Paul Feyerabend fue un temido polemista y epistemólogo, que discutió contra todos los grandes epistemólogos del siglo XX acerca del rol de la ciencia en las sociedades, y lo hizo en términos que nuestra cultura popular actual hoy llamaría “domándolos”. Por esa vía desarrolló su propia corriente de pensamiento. No vamos a poder hablar mucho sobre él, porque haría demasiado largo al ensayo; pero es pertinente para la cuestión actual, fundamentalmente en el contexto de los nazis y la banalidad del mal. Sucede que Feyerabend no sólo vivió en la Alemania nazi, sino que él mismo fue parte de la juventud hitleriana, y hasta terminó siendo un soldado nazi condecorado durante la segunda guerra mundial. Con lo cuál muy rápidamente se encienden alarmas acerca de qué clase de persona estamos hablando: yo no creo que los nazis le dieran premios a gente que se portara bien, ¿verdad?. Allí se vuelve interesante un breve recorte, apenas dos párrafos, que traemos de su autobiografía, donde entre otras cosas relata un poco cómo era la vida durante aquellos años. Y dice así:
“(…) Mirando hacia atrás observo una combinación un tanto inestable de espíritu de contradicción y tendencia al conformismo. Un juicio crítico o un sentimiento de incomodidad podían ser silenciados o transformados en su contrario por una fuerza de sentido contrario apenas perceptible. Era como una frágil nube dispersada por el calor. En otras ocasiones no escuchaba la razón, ni los lugares comunes de los nazis, y me aferraba a ideas impopulares. Parece ser que esta ambivalencia (que perduró muchos años y que se ha debilitado sólo en tiempos recientes) estaba relacionada con mi ambivalencia hacia la gente: deseaba estar cerca de ella, pero también deseaba que me dejaran en paz.
Al cambio de gobierno le siguieron cambios en la escuela. Algunos profesores desaparecieron, otros fueron trasladados. «Es judío» o «Su mujer es judía», decíamos sin prestar mucha atención; así es, al menos, como me parece hoy, retrospectivamente. Después, los alumnos judíos de nuestra clase fueron relegados a un banco especial al fondo del aula. Había tres, Weinberg, Altendorf y Neuem. Neuem tenía los ojos de color verde azulado y el cabello ensortijado; se sentaba en la primera fila, en la parte derecha, al lado de Hlavka, a quien yo admiraba; Altendorf era gordo y hablaba con voz quejumbrosa; Weinberg tenía los ojos castaños, era apuesto y bien vestido. Puedo verlos delante de mí, como si se hubieran ido ayer mismo. Nos dieron instrucciones de mantener las distancias, y la mayoría las cumplimos, aunque sin mucha convicción. Me acuerdo de andar alrededor de Weinberg en el patio, durante un recreo, y de alejarme de nuevo. Después, también ellos desaparecieron. Gente con estrellas amarillas apareció en los autobuses, los tranvías y las calles; colegas judíos visitaban a mi padre y le pedían consejo; nuestro antiguo médico de familia, el doctor Kronfeld, un señor cordial y jocoso, no pudo ejercer más y fue sustituido por el doctor Fischer, otro señor cordial y jocoso; un vecino nuestro, Herr Kopstein, abandonó el bloque con su hijo, empujando un carrito con sus pertenencias: «Se marchan», dijo papá. Aquéllos hechos eran tan extraños y distantes como antes lo habían sido los malabaristas y los cantantes callejeros, como el bombardeo de los barrios obreros en 1934, los cadáveres y las aceras ensangrentadas por las que volvía corriendo de la escuela, la agresión sexual que sufrí cuando tenía 13 años; e igualmente opacos. Nunca se me ocurrió preguntar más; la idea de que el destino de cada ser humano estaba relacionado en cierto sentido con mi propia existencia se hallaba por completo fuera de mi campo de visión. (fín de la cita)”
Eso cuenta Feyerabend que era su vida en la Alemania nazi. El relato es por supuesto mucho más largo, pero ese fragmento nos parece muy elocuente. Cantantes callejeros romaníes podían convivir con bombardeos, las desapariciones forzadas no era más que la más trivial consecuencia de un cambio de gobierno, las violaciones convivían con los juegos en el patio de la escuela, en un paisaje que se parece más a una película de Kusturica que a cualquier relato sobre grandes encarnaciones del mal. Convivir con el nazismo o hasta incluso ser nazi era, simplemente, vivir ahí, seguir el curso de la vida, ser una persona normal. Era banal.
Alguien podría decir que Feyerabend quizás puede salirse con la suya porque era muy jóven. ¿Pero no se había metido después en el ejército? El cuento sobre eso es básicamente el mismo: el servicio militar era un destino básicamente forzado salvo algunas excepciones, y Feyerabend ahí adentro era un revoltoso que nunca creyó en la causa nazi. Finalmente la cruz de hierro que le dieron no fué por formar parte del genocidio sino por una acción de retirada, y más tarde todavía recibió disparos del Ejército Rojo pero eso no sucedió durante ningún enfrentamiento épico sino mientras Feyerabend dirigía el tránsito. Simplemente nació ahí y vivió ahí, no hay mucho más que eso. Hablar de nazis y la segunda guerra ciertamente abre las puertas del infierno: pero cuando entramos en el infierno también nos encontramos que está lleno de escenas de las más triviales. Eso desorienta, llama la atención, preocupa: definitivamente le tocó un nervio a Hannah Arendt.
Reflexionando sobre el caso de Eichmann, ella responsabilizó a las burocracias. Concluyó que en el corazón de todo totalitarismo se encuentra una burocracia que convierte a los hombres en engranajes de una máquina deshumanizante. Aunque sus ideas fueron cuestionadas por otras personas que sí veían fuertes influencias ideológicas en Eichmann, y entonces ni él ni esa ideología particular podían ser tratados de manera tan generalizada, además de que también se criticaron diversos sesgos cuestionables de la misma Arendt presentes en algunas cartas escritas por ella. Nuevamente, toda la cuestión de la banalidad del mal poniendo foco en Eichmann fue polémica desde el primer momento. Pero lo fué fundamentalmente porque rehumanizar o hasta victimizar a Eichmann era una idea insoportable prácticamente para todes.
Pero la experiencia de Feyerabend, que a todas luces también está atravezada por la banalidad del mismo mal, fue muy diferente a la de Eichmann. Después de la segunda guerra, Feyerabend se dedicó al trabajo académico. Varios grandes pensadores del siglo XX pretendieron tenerlo como discípulo, pero él siguió su propio camino, en el que terminó ganando mucha fama por su perfil rebelde y sus ideas polémicas. Se dedicó a estudiar tanto la ciencia como su historia, y desde allí discutió contra todos los epistemólogos de su tiempo, atacando todos los cánones establecidos por todas las escuelas presentes, hasta finalmente desarrollar su propia escuela. Precisamente, su trabajo más reconocido fué un libro titulado “contra el método”, donde se opone rotundamente a la idea de cualquier forma de “método científico universal”, y contra ello sostiene la noción de “anarquismo epistemológico”. Y no sólo eso: para sostener su argumento, lo que hace es analizar la historia de los descubrimientos de Galileo, y argumentar que este no fué exitoso por “tener razón”, sino por ser un hábil político.
Feyerabend escarbó en la historia Galileo, y sus debates y tesis acerca de la rotación de la tierra sobre su propio eje, hipótesis más tarde aceptada universalmente como correcta. Pero las conclusiones de Feyerabend fueron que, en los tiempos de Galileo, amparados en las herramientas técnicas y datos de los que disponían, no podía probarse tal cosa con contundencia, y de hecho había mucha más evidencia y argumentos sólidos en contra de esa hipótesis. Por el contrario, Feyerabend afirma que Galileo no utilizó técnicas canónicamente científicas para ganar su argumento, sino técnicas de propaganda. Galileo finalmente tenía mucho de charlatán profesional, y por eso supo influir en la academia de su tiempo.
Por supuesto que el argumento de Feyerabend fue un absoluto escándalo, y él lo sabía. Pero eventualmente se le concedió el caso, y hoy “contra el método” es de lectura obligatoria para quienes estudian la historia y la filosofía de la ciencia. Y es muy importante entender la íntima relación entre la existencia de ese libro y el hecho de que Feyerabend haya vivido el nazismo desde adentro, con todo su extraordinario horror y toda su banalidad. Porque Feyerabend sobrevivió para contar la historia, y la historia que tenía para contar no era la de señores estudiosos y sesudos sentados en una mesa pulclra con un servicio de té o copas de brandy. Una de las experiencias de Feyerabend dentro del nazismo fué la que después terminamos viendo todes también cuando revisamos la segunda guerra desde lejos: el uso inhumano de la ciencia al servicio de aparatos ideológicos desatados. Y otra de las experiencias que vivió fue precisamente la de cómo eso se sometía a la propaganda.
Feyerabend no es un héroe: es un personaje oscuro que salió de una cloaca creada por charlatanes con demasiado poder. Pero que habiendo estado allí, sabe detectar muy bien cuando otros charlatanes proponen meterse en otras cloacas. Por eso terminó debatiéndoles sus cánones sobre la ciencia a todos los grandes de su tiempo, notando en cada caso no sólo sus inconsistencias para con la historia de la ciencia, sino también para con el comportamiento de les científiques en tanto que seres humanos. Esto lo hizo de una manera “punk”, subvirtiendo los buenos modales, afirmando cosas que atentaban contra toda autoridad, encarnando algo así como un Diógenes moderno que les mostraba burlón una gallina desplumada a los Aristóteles de su tiempo, los héroes de su tiempo. Fué activamente contrario a esos héroes, aunque no haya sido tampoco un villano. Fué un anti-héroe.
Y Feyerabend no se metió solamente con “el pensamiento” o “la autoridad”, sino directamente con La Ciencia: la más sublime y positiva de las prácticas humanas, la más avanzada, la que mezcla conocimiento con sabiduría, la piedra basal de cualquier futuro de la humanidad, aquella en la que debemos depositar nuestra fé si es que acaso somos seres racionales. Analizando la ciencia fué que creó su anarquismo epistemológico. Él concluyó que la ciencia no puede ser ninguna burocracia metodológica, ningún constructo tecnocrático universal, ninguna ley sagrada: cada pueblo en cada tiempo tiene sus propios modos de relacionarse con la realidad, y cada modo sus consecuencias. Feyerabend no permitía ninguna forma irresponsable ni romántica de la ciencia, sino que clamaba que se trataba de una práctica eminentemente política, totalmente mediada por todo tipo de ideologías, y realizada por seres humanos comunes y corrientes, tan elevados como banales.
Con esa nota, pensando un poco los constrastes entre Arendt y Feyerabend, nosotros planteamos esta otra pregunta. ¿Y si acaso el bien también es banal? ¿Y si con altruismo también terminamos apoyando ideas equivocadas o hasta desastrosas, haciendo daño como consecuencia? En este ensayo revisamos el nazismo, pero también la Unión Soviética y los Estados Unidos. ¿Cuál es más banal? ¿Cuál más inocente, de cara a sus prontuarios? ¿Y si nuestro camino al infierno finalmente estaba lleno de buenas intenciones? Lo cuál nos lleva de nuevo a la agridulce reflexión de Strassera en la película, y preguntamos: ¿quiénes son los héroes de nuestra historia?
Parte 5: Conclusiones
Vimos un montón de temas en este trabajo, todos mezclados. Pero de esa mezcolanza obtuvimos varias preguntas, sobre nosotros y sobre nuestras responsabilidades en la historia: sea como sujetos, sea como pueblo. El Strassera de la película le ofrece al Moreno Ocampo de la película una reflexión resignada, que nosotros convertimos en pregunta. Y esa pregunta resuena inmediatamente con la convicción militante de Propp, cuando dice que el folklore es una “creación popular”. Propp dice que el folklore no tiene otro autor que “el pueblo”, pero Foucault dice que el autor es el responsable del relato, de lo que allí se dice, del daño que eso hace a la sociedad. En el medio de todo eso estamos nosotres, meros mortales, entre hombrecitos grises como Strassera sin fé alguna en nuestra capacidad para cambiar la historia, y los horizontes de heroismos superhumanos donde una sola persona puede cambiarlo todo.
Por supuesto Propp tuvo muchas observaciones al respecto de esto, y no planteó la cuestión del pueblo de manera ingenua. Convencida, sí, militante también, pero no por eso carente de apropiadas justificaciones. Propp honra las premisas clasistas del marxismo para hablar de pueblo en sociedades divididas en clases como las nuestras. Desde allí distingue literatura de folklore, y marca con claridad que la literatura sí tiene autores: pero que es otra cosa, diferente, que no habla acerca del pueblo del mismo modo que lo hace el folklore.
Y aquí estamos dispuestes a aceptar esas premisas que nos parecen correctas. Pero también nos parece que quizás algo más está sucediendo con la cuestión del folklore si acaso pueblos enteros pueden abrazar conocimientos absolutamente inhumanos y convertirse en monstruos apenas pasados pocos años, todo eso sucediendo de las maneras más trivializadas y banales. Y para pensar eso, revisamos lo que encontramos en los relatos mitológicos populares actuales, donde nos encontramos con muchas cosas pertinentes a las teorías de Propp aunque tal vez él no considere a esas cosas folklore.
Por ejemplo, los mitos modernos están llenos de instancias de ese “otro mundo” que Propp marca como clave para los relatos folklóricos. Él los describe como “una exterioridad legendaria, metafísica, mitológica, para con la realidad diaria, a la cuál se accede sólo mediante un viaje difícil”. Y los superhéroes tienen muchas formas de eso. Frecuentemente es literalmente “otro mundo” en el sentido de “otro planeta”. Pero a veces también puede ser “otra dimensión”, otras veces el espacio en sí, a veces hacerse muy pequeñes o correr muy rápido permite acceder a un “otro mundo” de otra manera inaccesible, a veces sencillamente otros universos paralelos. La esoteria científica misma se puede entender como “otro mundo”: el conocimiento extraño y difícil de acceder que se termina convirtiendo en la llave para cambiarlo todo, para que nuestro mundo se vuelva otro.
Y Propp pretende distinguir la literatura del folklore, porque el folklore es una creación popular y en una sociedad de clases eso sólo puede emerger de las clases bajas. Pero mientras tanto a los superhéroes los crea la clase obrera. La metáfora del Súperman siendo pintado por dos obreros haciendo trabajos en altura es muy representativa de esto. Más allá de lo que después el pueblo haga con eso, ¿por qué no podríamos decirle a eso “popular”?
Cuando Propp habla de esa diferencia entre literatura y folklore, él pone atención en la intencionalidad del autor literario, la cuál es planificada, consciente, muy diferente a los fenómenos de la tradición oral. Pero también al mismo tiempo nos cuenta que la tradición oral efectivamente aplica cambios en las historias en función de relatarlas mejor adecuadas a cada tiempo histórico, como mencionáramos en este trabajo el caso del héroe engullido: en un momento ser tragado por un animal era una forma de acceso a un otro mundo donde se obtenían poderes, pero con el desarrollo de las sociedades esa idea pasó a ser inaceptable y entonces los cuentos se adecuaban a nuevas idiosincracias donde el héroe en realidad salvaba a la persona engullida. No te enojes Propp, pero eso a nosotres nos suena bastante consciente y planificado también; no será una planificación editorial, pero ciertamente tampoco es alguna forma de accidente felíz de la tradición oral sino gente calibrando relatos de manera bastante más consciente que algo así como “las fuerzas naturales del conocimiento popular”. Ahí hay gente siendo gente, y haciendo cosas con esas historias.
¿Y por qué esa tradición oral sería tan diferente de los fenómenos que encontramos hoy en fanfictions? Hoy “el pueblo” o “la clase obrera” toma textos de todo tipo y los reinterpreta, los re-relata con sus propias palabras, los une como collages haciendo que personajes de diferentes historias se encuentren, o bien explota el concepto de “multiverso” para contar otra historia posible diferente aunque con los mismos participantes. Ciertamente no es la tradición oral de antaño: en aquel entonces la humanidad no sabía ni escribir, y hoy hace animaciones 3D para distribuir por internet. Pero también ciertamente el pueblo interviene en el devenir de todas esas historias: siquiera incluso como consumidores, determinando si la historia es un éxito o un fracaso comercial, y por lo tanto determinando si va a continuar relatándose.
Y allí es donde nos acercamos a un punto neurálgico de los problemas de la actualidad: el consumo. La gigantografía del Súperman pintado por la clase obrera nos llegaba desde DC Comics, y nos decía que efectivamente no sólo existen los mitos modernos, sino que construirlos es efectivamente un arte. Pero desde Marvel Comics nos llegan otras cosas igualmente pertinentes. Anteriormente contamos que el universo cinematográfico de Marvel era la vanguardia de relatos en este género multimedial y que rompía todo tipo de records de audiencias. Pero también dijimos que no fué siempre el caso, y que muy poco tiempo antes de eso todavía las películas de superhéroes más bien eran objeto de burla y consideradas poca cosa. Dijimos que ese viaje cinematográfico virtuoso de Marvel Comics sólo sucedió luego de lanzada la película de Iron-Man, en 2008. Y lo que sucedió fue que Iron-Man tuvo algunas virtudes, tales como el casting o la calidad técnica visual, que la posicionaron como éxito relativo de taquilla, especialmente para un proyecto que en tanto negocio todavía era considerado de alto riesgo. Pero en el año 2009 las cosas cambiaron radicalmente para Marvel, cuando la empresa fué comprada por otra mucho más grande y significativa para la historia del folk-lore moderno: Disney.
Si DC Comics nos hablaba de mitología moderna, ahora Marvel directamente es propiedad de Disney, que es uno de los más reconocidos aparatos de propaganda, no sólo de Estados Unidos o de Occidente sino de la historia de la humanidad. Disney probablemente sea a los relatos populares lo que Ford a las fábricas. Con lo cuál lógicamente ha sido muy estudiado. Tomemos por ejemplo el libro “Walt’s Utopia”, de Priscilla Hobbs. Como a esta altura deberíamos estar acostumbrades, el subtítulo en la tapa ya nos aclara hasta qué punto tiene qué ver con nuestro trabajo: “Disneylandia y la creación de mitos americanos”. ¿A qué clase de mitos americanos se refiere? Cosas como el destino de personajes o pueblos, el espíritu de aventura, los finales felices, el progreso, y tantos otros “lugares comunes” de la modernidad que se convierten en requisitos de géneros, y entonces demandas populares, y por esa vía retroalimentan nuevas iteraciones de las mismas historias, en un ciclo de producción y consumo que para empresas como Disney se pretende de nunca acabar.
“Progreso”, “destino”, “finales felices”… son prácticamente las mismas cosas que le marcamos a Propp como parte de los mitos en los que él mismo creía: todo aquello de “un nuevo estado de la evolución humana en el socialismo” y demás optimismos vinculados a la clase obrera. Y es doblemente irónico siendo justo Disney quien articula todo eso, utilizando como plataforma a Hollywood. Oriente y Occidente compartieron mitos modernos durante todo el siglo XX, aún cuando cada uno haya tenido sus propias interpretaciones y objetivos para esos mitos.
En otro trabajo mencionamos como Disney formaba parte del aparato de propaganda vinculado a la carrera espacial durante la guerra fría. Pero en este trabajo no le asignamos tanto la propaganda a Disney en particular como a Hollywood en general, y de hecho cuando buscamos teóricos de la propaganda no fuimos ni siquiera allí sino más atrás todavía, más abajo, hacia lugares mucho menos populares, donde enfocamos la figura de Edward Bernays. Lo que no dijimos antes sobre Bernays es que su trabajo fué profundamente influencial en el que posteriormente realizara Joseph Goebbels en la Alemania nazi. Es decir que el padre de la propaganda norteamericana finalmente fue también tío del monstruo totalitario de la segunda guerra.
Monstruo del que luego emergieron figuras como Arendt o Feyerabend con cosas para decir sobre lo que allí estuvo sucediendo y lo que de allí deberíamos estar aprendiendo. Arendt, viendo desde afuera al nazismo, llamó la atención sobre cómo deshumanizan los aparatos burocráticos organizados, al mismo tiempo que se mitologizan algunas características de las figuras de autoridad en esos mismos aparatos. Mientras que Feyerabend, habiendo vivido al nazismo desde adentro, precisamente puso luego el foco en esa mitologización tanto de las figuras de autoridad como de las supuestas virtudes de los aparatos burocráticos, pero ya no del fracasado proyecto totalitario nazi sino del todavía entonces totalitario proyecto científico.
Aunque, si bien el foco pudo ser similar, ambos llegaron a conclusiones diferentes. Arendt parecía renegar de que la sociedad pudiera ser tan banal que diera lugar al nazismo, casi como sospechando que allí estuviera la semilla del mismo, y alertándonos al caso, diciéndonos que esa clase de personas eran manipulables por sus condiciones subjetivas y que por ello la propaganda podía hacer tantos desastres. Feyerabend, casi por el contrario, al mostrar con el caso de Galileo que las autoridades científicas de aquella época fueron derrotadas por un hábil charlatán, no sólo dijo que esas autoridades cultas y sabias de ese aparato burocrático podían tener las mismas “debilidades” frente a las técnicas de propaganda, sino que más bien dijo que hasta las personas más extraordinarias y significativas de nuestras historias, nuestros héroes, utilizan y muy probablemente requieren de competencias en prácticas propagandísticas para lograr sus objetivos, marcando por esa vía que la aventura científica es una aventura ante todo política.
El bueno de Propp murió en 1970, antes incluso del Plan Cóndor, y finalmente su Unión Soviética dejó de existir en 1991, clausurando históricamente la tesis de que allí estaba el futuro de la humanidad. Pero “Argentina: 1985” llega a nuestros cines ya con todo ese camino recorrido. Quien estudia o hace cine en el año 2022, ya pudo tener acceso a todas estas cosas de las que aquí estamos hablando. Y por ello somos tan quisquillosos de criticarle a la película su relación con la audiencia, que pareciera menos importante que su relación con la ambientación de época y las reglas de género. Al caso marcamos que además también en 2022 ya se había visto “Avengers: Endgame”, un muy extraño contraste pero ante todo popular, donde nosotres pusimos el foco en otra forma diferente de representar los eventos de la dictadura, con otros resultados muy diferentes también a nivel audiencia.
En el medio de todo eso estamos nosotres, el pueblo. Y a nosotres aquí preguntamos qué responsabilidad tendremos en esas historias de desastres y genocidios y grandes catástrofes mundiales, a veces mitológicas, a veces reales. Y si bien dejamos alguna que otra pregunta, para poder responder cualquiera de ellas primero deberíamos poder entender esa cuestión no resuelta sobre el folklore, la mitología, la opinión pública, y el autor. ¿Al final es o no es la clase obrera la que articula la mitología moderna? Encaremos esa cuestión.
Propp ciertamente se equivocó en eso del futuro del socialismo soviético como nueva etapa de la evolución humana, pero el resto de lo que propuso es muy lúcido, muy cuidadosa y laboriosamente elaborado, y en comparación a sus colegas occidentales ciertamente le prestó más atención a los fenómenos populares que a los subjetivos individuales: a él le importábamos como pueblo a ser empoderado, no como sujetos a ser controlados. Así que de Propp vamos a obtener algunas nociones que nos permitan alguna respuestas a nuestras preguntas. Pero el primer paso, antes que Propp en sí, está en Marx.
Lo que sucede con la mitología moderna en el contexto del capitalismo es lo mismo que sucede con prácticamente todo lo demás: se convierte en mercancía. Thanos o Strassera podrán representar mejor o peor los temas de la dictadura, pero ambos aparecen en el cine, al que accedemos mediante una módica suma de dinero. Por supuesto que es la clase obrera la que crea esos mitos, pero del mismo modo que crea todo lo demás: bajo condiciones de explotación de su fuerza de trabajo por parte del capital. Si, son obreres les que hacen a Súperman: pero eso no hace menos cierto que sucede mientras DC Comics se apropia de ese trabajo, para que luego Súperman se convierta en folk-lore mediado por los fenónemos de la mercancía.
Arendt llamó la atención sobre la deshumanización en los aparatos burocráticos, donde cada une hace su pequeña parte y nunca es responsable de un todo finalmente terrible y monstruoso. Pero Marx mucho antes de eso llamó la atención sobre los fenómenos de alienación en la división del trabajo, con exactamente las mismas consecuencias. Su insistencia en las condiciones materiales y la propiedad de los medios de producción no son una especie de fijación ideológica obsesiva, sino casi exactamente la misma alarma que Arendt más tarde levanta sobre la experiencia del nazismo: una necesidad imperativa de desalienar a los pueblos.
De modo que a nadie que haya leido marxismo le puede sorprender que el trabajo de Bernays sea solidario con el de Goebbels. Y del mismo modo, quien haya leido marxismo sabe muy bien que la pregunta no es qué estaba haciendo el pueblo, sino qué estaba haciendo el capital. Ya que lo mencionamos a Ford antes, vayan a leer las ideas de Henry Ford sobre los judíos para tener una noción de cuánto podía haber de ideología en esa parte de la sociedad, que siempre dice estar “sólo aprovechando la oportunidad” o que ese “es su rol”. Y estamos hablando del mismo Ford que formara parte de una vanguardia liberal de primer cuarto de siglo, la cuál para los tiempos de la segunda guerra ya estaba en absoluta vergüenza y en crisis terminal. Reaccionar: eso es lo que estaba haciendo el capital durante el nazismo, con el cual colaboraba a plena conciencia. Entonces, todes sabemos muy bien en la sociedad capitalista qué es lo que está haciendo el pueblo: vendiendo su fuerza de trabajo al capital, el cual se apropia de ese trabajo y lo dirige de acuerdo a sus intereses, los cuales ya están a la luz también de todes.
Entonces, junto con todas esas preguntas por su reponsabilidad, ¿también se le va a pedir al pueblo que haga una revolución para que esa relación de sometimiento cambie, y así poder ser responsable de la historia? ¿O el capital va a pagar alguna vez el precio de sus infinitos crímenes? La demonización de los funcionarios nazis, que Arendt supo notar que venía con un tufillo muy extraño, fué en coincidencia muy conveniente para el capital, que durante el resto del siglo XX se llenó la boca con lo malo que era el totalitarismo y lo necesaria que era la libertad. No por casualidad fué idéntico el caso con la dictadura argentina de los setentas, esa a la que se enfrentó Strassera en tribunales: esos personajes grises e ignotos que eran en la película la cúpula de la junta militar, tan banales y lastimosos como lo fuera también Eichmann, quedaron finalmente como responsables históricos de todos los crímenes de la dictadura mientas los empresarios que financiaron sus operaciones y entregaron gente de sus empresas no pagaron nunca el costo de esa historia: la dictadura no fué sólo militar, sino también y fundamentalmente del capital.
Pero mientras los nazis se convertían en el demonio mitológico que opera como medida de lo más bajo de la humanidad, en la Unión Soviética de Propp leyeron un montón de marxismo, efectivamente le pedían todo aquello de la revolución al pueblo, el pueblo lo hizo, y el capitalismo fue superado. Allí ya no regía la lógica de la mercancía, y todo era folk-lore. Sin embargo parece que eso no erradicó las hambrunas, las matanzas, ni las deshumanizaciones de todo tipo. Cuando cualquiera pregunta, el canon de “qué pasó en la Unión Soviética” es que “implosionó”, “se derrumbó”, y no se cuántas otras metáforas para el hecho que dejó de existir por sus propias causas internas. Y en el medio de esas explicaciones aparece siempre el mismo fantasma: “la burocracia”.
Aparentemente, que la culpa de todo la tenga el capital y que todo se explique por la lucha de clases no sería suficiente conocimiento para lograr una sociedad sostenible. Y también aparentemente las advertencias de Arendt sobre los aparatos burocráticos eran pertinentes aún cuando ya supiéramos qué era lo que estaba haciendo el pueblo en un mundo capitalista. Pero en la Unión Soviética el problema no era tanto lo que estaban haciendo en el mundo capitalista como qué tenían en común con él. Ahí es donde entran los mitos de la modernidad, no ya los creados por DC ni Marvel sino los que daban lugar al capitalismo y al socialismo en primer lugar, siglos antes. Decíamos que Disney usaba mitos como el progreso o el destino de los pueblos, pero como buen capitalista lo que Disney hace en realidad es apropiarse de esos mitos que ya estaban dando vueltas por el mundo mucho antes de que las películas existieran. Esas ideas, sobre las que se construyeron ideologías, vienen desde las revoluciones tanto sociales como intelectuales que dieron lugar a ese momento bisagra de la historia de la humanidad que es la modernidad. Y el emergente histórico de ese momento no es ni el capitalismo ni el socialismo: es la ciencia, que ambos pretenden luego utilizar como fundamento para todo tipo de cuestiones ideológicas.
Ahí se vuelve pertinente Feyerabend. Porque sucede que la ciencia tiene sus propias burocracias. Y donde Arendt prestó atención a las cuestiones más mundanas de las burocracias, Feyerabend se ocupó de las más sagradas. Él se dió cuenta cuánto de mito había en todo el relato científico, y cómo sobre esos mitos se podía construir toda clase de idea antihumana. El progreso de la humanidad podía no sólo justificar matanzas, sino también los mecanismos ingenieriles y sistemáticos más eficientes al caso de acelerar tal cuestión, yendo desde armas químicas o nucleares hasta verdaderas operaciones logísticas de exterminio que nada debían envidiarle a la más avanzada industria ganadera. Y, por supuesto, la propaganda, de la que el mito es materia prima escencial. En cualquier caso, Feyerabend tenía claro que la ciencia no fué solamente instrumental, sino tan cómplice y llena de responsabilidades como las que se le pueden atribuir al pueblo o al capital.
Sucede que no hay separación entre ciencia e ideología. Todas las ideologías modernas se justifican a sí mismas en cuestiones indiscutibles e irrenunciables que finalmente pretenden validar con el atributo “científico”: a veces por la biología, otras por la historia, otras veces por la economía, pero en realidad lo que sea que tengan a mano en cada momento. Y no sólo convive la ciencia con la ideología, sino también con todo tipo de mitos asociados a ambas. Lo cuál para muches puede sonar como un planteo equivocado o hasta la descripcón de prácticas deshonestas, dependiendo de cada sensibilidad, pero se trata de la elucidación de algo muy elemental: la ciencia, cuando generalizada por fuera del método burocrático de turno, es sencillamente la institución social de los conocimientos de un pueblo en un momento dado. Conocimiento popular, Folk Lore, al que se accede de manera ritualística y laboriosa desde que la humanidad existe. Por eso cuando Feyerabend atacó a la burocracia de la ciencia, en su tiempo materializada en la discusión por el método científico, en el mismo movimiento creó el “anarquismo metodológico”: abriendo la puerta a que cada pueblo desarrollara su propia ciencia con sus propios mitos, ideologías, y lore.
Todo nos lleva entonces de vuelta a Propp, que nunca dejó de marcar la identidad inseparable entre folklore e ideología. Folklore que es también conocimiento, y conocimiento a cuya institución hoy llamamos ciencia pero que siempre existió con todo tipo de nombres, y formas, y ritos, y mitos. De modo que aún cuando la burocracia soviética pudiera mirar hacia otro lado, el optimismo de Propp para con el pueblo estaba muy bien fundado: porque lo que él veía era a una humanidad que comenzara temerosa de los espíritus del bosque y terminara viajando al espacio. Propp no estaba leyendo cuentos, sino viendo cómo la humanidad fue refinando su conocimiento y con ello transformándose a sí misma. Él sabe muy bien que los pueblos pueden transformarse en versiones mejores de sí mismos. Y que para ello, lo que hacen es entender de otras maneras diferentes aquello que en su conjunto hoy llamamos “naturaleza”, cambiando así nuestra relación con la realidad que nos rodea.
Pero la realidad que nos rodea, justamente, hoy es más bien deprimente. La historia reciente nos dejó una lista importante de amargas experiencias que supieron licuar nuestro optimismo: eso fué el caso con todo el siglo XX, y el XXI no se está mostrando muy luminoso tampoco. Como explicamos en otros videos, y particularmente en el anterior, hoy vivimos bajo una decadente hegemonía neoliberal. La reacción del capital con su liberalismo en crisis -esperemos que esta vez terminal- no se quedó en aquellas experiencias de exterminio, sino que siguió trabajando durante décadas en estrategias de propaganda e influencia social, al punto tal que llegados los años setentas ya tenía un corpus teórico actualizado con qué trabajar. La reacción del capital impuso su propio lore, sus propios ritos, sus propios mitos. Hoy “el mercado” es el “otro mundo” esotérico y de difícil acceso donde se encuentran los dones y los poderes supernaturales, al que debemos entrar si acaso queremos iniciarnos como seres con algún valor, tal y como lo hicieron esos grandes héroes de las leyendas neoliberales que son por supuesto los capitalistas exitosos.
Aunque por contradictorio que parezca, nosotres quisimos mostrar toda esa perspectiva tan desmoralizante para plantearles lo que en realidad es una lectura optimista. Porque entre todos esos nefastos detalles se esconde una verdad que abre la puerta hacia un futuro que todavía no sabemos ver del todo. Y la llave de esa puerta la tiene Propp.
Ya hablamos en nuestro video anterior sobre las consecuencias de la crueldad en la sociedad. Dijimos una serie de cosas mediante las cuales poníamos a la crueldad en el centro de los problemas de la actualidad argentina, del mismo modo que proyectamos eso al contexto neoliberal generalizado. Pero hay más cosas para decir sobre la crueldad y ese contexto.
Uno de los mitos del capitalismo tardío, casi enteramente neoliberal, es la noción que Mark Fisher llamara “realismo capitalista”, y de la que también hablamos en otro video. Es básicamente la idea de que, por las razones que sea, hoy en día pareciera que no se puede pensar por fuera del capitalismo, más allá del capitalismo, otra cosa diferente y mejor que el capitalismo. Y cuando hablamos sobre eso aquella vez, mencionamos que allí coinciden tanto marxistas como liberales en una especie de sesgo inter-ideológico: podrán diferir en los pormenores y en los próximos pasos, pero desde ambas veredas de la historia hablan de que esto es el progreso de los modos de producción, y por lo tanto de la humanidad. Propp mismo sostenía eso, y en este trabajo nosotres ya mencionamos cómo la Unión Soviética compartía mitos con Occidente.
Pero Propp también dice otras cosas. Él explica, basado en Marx y Engels, que ese progreso en los modos de producción sucede cuando cambia nuestro conocimiento sobre los fenómenos naturales. Lo cuál lógicamente es una referencia a la figura de la ciencia, aún cuando esta pueda ser una institución tan sólo moderna: ya dijimos que, si le quitamos los pormenores burocráticos de época, la práctica es siempre la articulación de cómo hacemos y sostenemos nuestro conocimiento. Pero el punto particular de Propp iba hacia marcar cómo, cuando suceden esos cambios en el conocimiento de un pueblo, el valor de las nuevas prácticas sociales articuladas alrededor de ese nuevo conocimiento es mucho más poderoso que el conservadurismo que puedan sostener generaciones anteriores. Y él dice que eso es así, porque lo que hace el nuevo conocimiento es darnos un mundo menos cruel.
Para plantear esto, lo mejor es ir a sus propias palabras. Y comenzamos con apenas este renglón, que cito: “el cuento, en general, no conoce el sentimiento de la compasión” (fín de la cita). Los miles de cuentos folklóricos que estudió rara vez pasan por ese sentimiento, sino que se concentran en diferentes aspectos del acceso al otro mundo, la tarea difícil a cumplir para lograrlo, los dones que se obtienen, y qué sucede cuando se vuelve de ese otro mundo. Él nota que los cuentos folklóricos tenían mucha más relación con explicar, representar, enseñar, justificar, los ritos y los mitos. Era común que estos cuentos formaran parte misma de los ritos de iniciación, como una forma de conocimiento que se transmitía sólo a los iniciados, o incluso que se contaran explicando la necesidad de tales ritos de iniciación: pero que en todo caso tenían mucha más relación con esos ritos que con ningún sentimiento planteado en el cuento.
Sin embargo, esos ritos sí generaban todo tipo de sentimientos, y para nada felices. Tengan en cuenta que, si bien muchos de esos ritos de iniciación podían ser performances rituales bastante inocentes -como lo que hoy es el bautismo en la religión católica, apenas mojar la cabeza con agua bendita durante un ritual que consiste en palabras y cantos-, también usualmente podían exponer a las personas a dolores espantosos, mutilaciones, o directamente la muerte. Piensen que “el otro mundo” al que se accede frecuentemente era “el mundo de los muertos”, y entonces todo tipo de experiencias cercanas a la muerte podían ser ritualmente necesarias para poder acceder a la adultez o membresía de la sociedad plenas. Y allí aparecían expediciones al bosque profundo o al desierto, ablaciones rituales de diferentes partes del cuerpo, o diferentes relaciones con el fuego. En palabras de Propp:
“(…) Es sabido que en los ritos de la iniciación los neófitos eran sometidos de las más variadas formas, a la acción del fuego. Podríamos seguir aquí estas formas, compararlas, averiguar si son interdependientes o independientes, examinar su desarrollo, la aparición de formas sustitutivas, atenuadas y simbólicas. Paralelamente a ello, sería preciso examinar todo el riquísimo y casi inagotable material de los mitos y de las representaciones religiosas, seguir la correspondencia entre las formas de abrasamiento míticas y las formas del rito y establecer por qué motivo, de qué modo y dónde [eventualmente] se transforma el fenómeno en su opuesto, es decir, dónde hallamos la transposición del objeto: a los niños quemados les sustituyen los mismos que les querían quemar.” (fín de la cita)
Propp notó que con el paso del tiempo los cuentos folklóricos, aún siendo todavía folklore de tradición oral, aún en sociedades previas a la división en clases, iban cambiando partes de la trama de una forma muy particular: quienes en tiempos anteriores eran víctimas de los rituales, más tarde eran reemplazados por sus victimarios. Si antes la bruja quería cocinar a los niños -y frecuentemente lo hacía-, más tarde era la bruja la que terminaba cocinada; donde antes el héroe quedaba ciego como parte de las tareas difíciles a superar, más tarde eran sus oponentes quienes quedaban ciegos como consecuencia de enfrentarse al héroe; si antes era necesario ser engullido por un animal para acceder al otro mundo, más tarde de repente era necesario salvar a quienes eran engullidos por un animal. Y era común que los ritos involucraran literales sacrificios: a los espíritus, a los dioses, a las fuerzas de la naturaleza. Frente a lo cuál continúa explicando Propp:
“(…) [Con el paso del tiempo] El amor de los padres se consolida y aumenta y ya no admite el sacrificio de un hijo. Las simpatías que en otra época se dirigían al espíritu poderoso que regía a los hombres y las cosechas, se transfieren a la desdichada víctima. Pero, aún con todo esto, ocurre a veces que durante mucho tiempo no es posible destruir el rito desde su interior. Y entonces aparece un forastero que libera a la doncella.” (fín de la cita)
Nótese cómo allí Propp menciona una imposibilidad política para con el rito, que aunque esté en crisis sigue teniendo un rigor ideológico muy importante para la estructura de esa sociedad, y por lo tanto se vuelve más bien inevitable. Pero también cuenta que, incluso cuando eso es así, los pueblos se las rebuscan para encontrar nuevas figuras que vengan precisamente de afuera de esas sociedades, y se conviertan en los nuevos héroes de nuevos mitos. Con eso considerado, esta última cita de Propp nos va a servir para entender la importancia que tiene en nuestra actualidad lo que plantea:
“(…) El rito infundía temor y espanto a los hijos y a las madres, pero se le consideraba necesario, ya que a quien había sido sometido a él se le creía en posesión de algo que podríamos llamar un poder mágico sobre los animales; es decir, que el rito correspondía a los métodos de la caza primitiva. Pero cuando, al perfeccionarse los instrumentos, al pasar a la agricultura, al surgir un nuevo orden social, los viejos ritos crueles aparecieron como inútiles y fueron maldecidos, su rudeza se volvió contra quienes los realizaban. Mientras que en el rito el jóven es cegado en el bosque por un ser que le atormenta y le amenaza con devorarle, el mito, apartado ya del rito, se convierte en un medio de protesta.” (fín de la cita)
Allí radica la profunda convicción humanista de Vladimir Propp, que nosotres quisimos compartir con ustedes. En sus estudios, él logró notar que todos los pueblos que progresan en sus modos de producción, en rigor también tomaban distancia de modos de vida no sólo más primitivos sino también más crueles. Esa crueldad es parte constitutiva del por qué cambió la sociedad en primer lugar, y no precisamente para sostener la crueldad. Por el contrario, lo que Propp nos dice es que, cuando los ritos en las sociedades dejan de entenderse como necesarios y se vuelven a los ojos de todes simplemente crueles, allí es donde emergen los nuevos mitos que operen como modo de protesta y clamando por una sociedad mejor, que efectiva y eventualmente llega.
Propp habla de “medios de producción” cuando se refiere a los desarrollos de las sociedades, en estricta sintonía marxista y soviética. Pero nosotres en este trabajo más bien hablamos de ciencia, porque se trata del estudio de eso que comúnmente se conoce como “la naturaleza”. Y si lo piensan un poco, no hay estado de mayor crueldad que la naturaleza. Piensen lo que es vivir en una sociedad muy primitiva: soportar las inclemencias del clima, exponer a nuestres hijes recién nacides al ataque de animales depredadores, la absoluta impotencia frente a incontables enfermedades, las lesiones que nos perjudican de por vida, la mala caza o la temporada infertil para la recolección que llevan al hambre… la comprensión, predicción, y control, de todos esos fenómenos naturales, siempre estuvieron directamente vinculados a los niveles de crueldad con los que debíamos aceptar vivir. Siempre fué así: la ciencia siempre fué la herramienta para enfrentar una naturaleza cruel. Propp se habrá equivocado en otras cosas, pero en eso estaba en lo correcto.
Toda la historia de la humanidad estuvo mediada por a qué debímos adaptarnos, y en una importante medida a qué tanta crueldad estuvimos dispuestes a aceptar. Es una parte constitutiva de nuestra especie. Cada pequeño descubrimiento, cada cambio en la sociedad a partir de un conocimiento más refinado, fué siempre un ataque a los dioses y a todo lo sagrado de su momento, todas cosas que rápidamente pasaban a ser vistas como inútiles y crueles. Y cabe notar que esa actitud tan desafiante para contra la divinidad es algo mucho más de anti-héroe que de héroe. En cualquier caso, el conocimiento siempre abrió las puertas de sociedades diferentes. Lo cuál es el mismo fenómeno que se aprecia en la historia de la ciencia, que literalmente se enfrentó a la religión y dió lugar a una nueva era. En esa nueva era que fué la modernidad, a ese cambio social se lo rotuló de diferentes maneras, todas basadas en los nuevos mitos modernos: por un lado se lo llamó “progreso”, y se empezó a decir que lo anterior era “más atrasado”; por otro lado se empezó a decir que la nueva sociedad era “más libre”, que se “liberaban nuevas fuerzas”, que el nuevo valor era “la libertad”; y entre tantos otros adjetivos muy importantes para entender nuestra historia, allí se empezó también a hablar de modos de producción, por momentos casi refiriéndose a las mismas cosas.
Hoy el neoliberalismo se plantea como una necesidad, como una naturaleza, y nos trae sus ritos. Pero luego de la caida de la Unión Soviética, el neoliberalismo actual es poco más que el estertor agónico de una modernidad absolutamente en decadencia, en una etapa donde el descontento social es generalizado y la crueldad desborda la tolerancia de los pueblos en todo el mundo. Allí es donde se nos habla de hacer sacrificios, se nos relatan las historias de super-héroes a los que debemos admirar, y de super-villanos en los que debemos cuidar de no convertirnos. Pero frente a eso la realidad es que nosotres no somos otra cosa más que super-víctimas: las víctimas de la decadencia del proyecto moderno, y de sus mitos que hoy sólo se usan para justificar una ritualidad tan inútil como cruel. Va siendo hora de que empecemos a entenderlo, a entendernos como víctimas, tanto para poder liberarnos de las preguntas incontestables sobre nuestras supuestas responsabilidades, como también para poder dar ese primer paso hacia nuevas sociedades menos crueles: nos referimos a la creación de nuestros propios mitos, como acto de protesta.
La esfera de la circulación o del intercambio de mercancías, dentro de cuyos límites se efectúa la compra y la venta de la fuerza de trabajo, era, en realidad, un verdadero Edén de los derechos humanos innatos. Lo que allí imperaba era la libertad, la igualdad, la propiedad y Bentham. ¡Libertad!, porque el comprador y el vendedor de una mercancía, por ejemplo de la fuerza de trabajo, sólo están determinados por su libre voluntad. Celebran su contrato como personas libres, jurídicamente iguales. El contrato es el resultado final en el que sus voluntades con fluyen en una expresión jurídica común. ¡Igualdad!, porque sólo se relacionan entre sí en cuanto poseedores de mercancías, e intercambian equivalente por equivalente. ¡Propiedad!, porque cada uno dispone sólo de lo suyo. ¡Bentham!, porque cada uno de los dos se ocupa sólo de sí mismo. El único poder que los reúne y los pone en relación es el de su egoísmo, el de su ventaja personal, el de sus intereses privados. Y precisamente porque cada uno sólo se procupa por sí mismo y ninguno por el otro, ejecutan todos, en virtud de una armonía preestablecida de las cosas o bajo los auspicios de una providencia omniastuta, solamente la obra de su provecho recíproco, de su altruismo, de su interés colectivo.
Al dejar atrás esa esfera de la circulación simple o del intercambio de mercancías, en la cual el librecambista vulgaris abreva las ideas, los conceptos y la medida con que juzga la sociedad del capital y del trabajo asalariado, se transforma en cierta medida, según parece, la fisonomía de nuestras dramatis personae [personajes]. El otrora poseedor de dinero abre la marcha como capitalista; el poseedor de fuerza de trabajo lo sigue como su obrero; el uno, significativamente, sonríe con ínfulas y avanza impetuoso; el otro lo hace con recelo, reluctante, como el que ha llevado al mercado su propio pellejo y no puede esperar sino una cosa: que se lo curtan.
Karl Marx, El capital – Tomo 1, volumen 1, año 1867.
I’m a daily Techrights reader since 16 years now, it’s my web browser’s home page, and with the course of years I even had the pleasure of exchanging messages with doctor Roy Schestowitz several times. I love the Techrights. However, my comments are frequently critical, and this time is no exception. For this reason I prefer to begin with clarifying my admiration for Dr. Schestowitz’s work, which I found exemplary, and that my dissents are not personal against him or his work but the product of contrasting his publications and my own experiences as part of the collective we share: the free software global community. Techright’s work is invaluable, and I recommend it every time I have the chance.
In the same spirit, I’m aware that Alexandre Oliva has years of dedicated work on free software, by which he has earned the love and respect of the community. I’m going to be critical here about some aspects of his latest article, even going to the point of using harsh language, and I don’t wish such criticism to be understood as a direct appreciation about him or his work: I also believe what he does is neccessary, to criticize is much easier than standing up in front of an auditory full of people to defend your ideas, and there’s not even a comparisson point between criticism through internet and to dedicate decades on protecting and divulging an eminently social project as is the case with free software or even the very GNU. Trying to lower in any way the value of Mr. Oliva’s work could not be more far from my intentions.
The point of this article is focusing on what I consider a very serious vocabulary deficiency, and thus also comunicational, philosophical, and political, of free software movement, around the word “freedom”. Which is something I’ve already talked about before, and been doing for years.
I also must note that I speak spanish: english is not my first language, so this article may have some weird expressions and most likely lots of syntax errors. I expect it to be understantable for english readers nonetheless.
Context matters
With all that considered, today is a very special day here in Argentina: it’s the second general nation-wide strike against the policies of the goverment that started barely 5 months ago. In that context I did not work today, by what I had some free time for my own interests, and I was thinking on using it to fix some of the several problems I have with my mobile phone using PostmarketOS. It was then that I accessed Mr. Oliva’s text through Techrights, during my morning coffee. And the first thing I felt reading it was a deep disconfort.
Mr. Oliva tells us that, between enshittified software and free software, the choice is not hard. It’s the very article’s title, and it alone should scandalize anyone with minimal knowledge in the matter between its implicit lack of touch with objective reality and its close distance with hypocrisy, all that in a very light tone that even had the intention of being somehow funny. And this discourse wasn’t even in a divulgation context, with an auditorium strange to free software: it was for LibrePlanet, where most people use free software and knows its history and details. Considering that Mr. Oliva is a public and important figure inside the community, a referent, and also considering that I can very rarely participate in this kind of community events -because I have very little free time-, I immediately asked myself: is this the kind of stuff the community is talking about? Are this the discursive lines our references tell us to follow?
No, Mr. Oliva, I’m afraid you’re deeply mistaken: choosing free software is hard. VERY hard. TOO hard, I dare say. And I have my serious suspicions that our leaders/references and the course of our communities has a lot to do with that. But let’s take a look at this argument by contrasting my context with your article.
The tip of the iceberg
Mr. Oliva tells us about different types of software enshittification in different contexts, both historical and operational. Stuff we all know and hate like forced updates, software stores, remote policying, inability to go back to previous versions, and so on and so on. Please go read the full article, as in this regards is actually fruitful if you don’t know what we’re talking about here. I believe all of Mr. Oliva’s remarks are true: enshittification is a real phenomenon, he’s not the first one to mention it (as he adequately clarifies), and it’s an actual and important issue that we all need to pay attention to. That’s all fine, and the problem with his article of course is not there. The problem is how he talks about it, specially to force his interpretations as if it where some kind of “common sense”. So it’s important to take a look at his arguments.
Let’s begin by this quote:
(…) It seems to me that it would be more advantageous to break that cycle, by choosing something that is not enshittifiable. When it comes to software, that means software that serves you, instead of being controlled by a third party, statically or dynamically, or that could lock you in. It means Software Freedom. (…)
Really? “Software Freedom” protects us from enshittification? Just like that? That’s your argument?
You see Mr. Oliva, that’s some tricky wording there. What “Software Freedom” are you talking about? Are you refering to the four freedoms, the GPL licence, and so on? This, basically? Because, let me tell you Mr. Oliva, that didn’t saved us from SystemD, PulseAudio, Gnome, Wayland, Snap/Flatpak/whatever, and lots and lots of other painful examples of people doing free software and aggressively pushing it into our lives as different kinds of “common sense” that rather sooner than later becomes de-facto standards: some of them based in the power their origin organization had over the GNU/Linux community, others using tactics like the ones Microsoft took from the illegal drugs market -a fake “it’s free, try it” first step, with later monetization in mind, while infecting the culture in the meantime-, others talking about the burdens of maintainance of previous software, others talking about the future in mobile devices… all “common sense”, even the drug-dealing stuff when you consider a profit point of view. All of that enshittified to the point of creating wars inside our own communities: from forks of forks of forks of Gnome since about 15 years ago all of them justified in “Gnome being enshittified”, to entire distros trying to avoid SystemD -emphasys on trying, not always succeding, which speaks volumes-. And what exactly did you mean by “[not] being controlled by a third party” in this context where RedHat or Debian or Canonical or whoever decide something and then we all need to adapt to it even against our will? Perhaps you weren’t talking about that kind of “Software Freedom”? If there is a way to be free from the problems of Free/Libre Software enshittification, please let us know Mr. Oliva, because we FLOSS people could really take a break from all of that crap we’ve been force-feeding on since more than a decade by now.
The first problem with the article is that supposed “common sense” implied in its non-argumentation about FLOSS being unenshittificable, which is not “common sense” at all but rather an agenda. Telling people “FLOSS is unenshittificable” is an agenda related to some organization. SystemD, Wayland, those horrible container formats, and so on, were and are all agendas related to some organizations. This are all organizations with different interests in mind: economical, social, political, technical. The problem is not having agendas, which is something I encourage: the problem is telling bullshit to support such agendas. And half truths, without a proper context, are bullshit.
This by itself alone seems nitpicking, so I’ll expand by giving proper context to such half truths, by constrasting such bullshit with my own story and experience, including my entrance by choice into the FLOSS world. However, as it’s most likely a long and boring text, you can skip all that personal context just jumping here.
The web
I’m a programmer since the late 90’s, and back then we all knew there was this “linux” thing around but that was for some specialists and shit: real life day-to-day computing here in LATAM was done in DOS and Windows, so we all programmed MS stuff. Also, MS tools were cool: Visual Studio 5 and 6 were light years away from any other programming tool I ever had contact at that moment. It was easy, it was actually a pleasure to use such tools, and we were very productive with them. I made lots of amazing software in Visual Basic, from document managing stuff to online games automation by speech recognition or even full system remote control backdoors. It was fun, engaging, and it gave me a future in the work market that the rest of my family didn’t had -all of them without ever stepping into a campus in their life-. And I could have all of that by sheer force of will: all of it was self-taught using MSDN CDs and free time.
It was also the time internet went online, and I was really into HTML and JavaScript. You see, it was the future: I’m talking about the time where you could buy homepages. With ActiveX I could do amazing web stuff, but I wasn’t so sure about it given that it didn’t worked the same in Netscape, and for cross-browser stuff had to deal with Java plugins, which in turn required better software training and using less productive tools… so I stick to JavaScript. DHTML promised so much! But I was smart, so instead of popular tools like some version of DreamWeaver for web, I used Visual Interdev to learn about the internals of every DOM available object by its fantastic “intellisense”. After a year or so using that, ActiveX and MS web stuff wasn’t that bad at all.
If you take a look at what was the situation in Argentina at the turn of the millenium -when I was 18 years old-, you’d know that we were all really looking for a job here, and I was not the exception. Lots of stories comes to mind about that, but let’s focus on the one that matters here and now: I actually went to get my first non-gag job in the IT industry, as a web programmer. And let me tell you: I felt I knew my shit. I did some web works that were advanced even by today standards. Stuff like an entire desktop alternative to the one Windows offered by the time, using its IE+ActiveX integration to run custom software while rendering a web page as a desktop background taking designs from futuristic videogames with animations and interactions, adding speech synthesis and recognition to it, and some updatable database with stuff I frankly can’t remember anymore but DAMN it was cool and I was so proud of myself: my whole ambition was to make an entire 3D desktop that could load Doom or Quake maps, transforming the concept of “the desktop” into a virtual world with the “windows” being just another thing to interact to, but of course never got that far.
I was so into the web possibilities, that I even had an epiphany once about the web. I realized the way the web was maturing, so fast and so powerful, there would be a time not long into the future when any UI would be possible to be done with only web pages. Basically, just replace your shell with a browser, and that’s it. If that turns out to be possible, then there would be no need for computers to be that powerful anymore as videogames were already demanding, as everything would be processed on remote servers: that would mean very cheaps computers for everyone, everywhere. So I had this plan: I was going to make a new operating system that would directly boot into internet, and a web browser would be its shell. And even pick a name for it: “Internet Operating System”, or “IOS”. So I convinced my family that buy me an assembler book in order to learn how to make an operating system. Didn’t past much longer from a “hello world”, and that was that.
Whatever, eventually the web job interview came, and I was SO confident. And then they gave me a computer to complete an exam, but inside of it had no Visual Interdev or anything Visual Studio related but notepad, and at its side a very fat book instead of MSDN CDs. None of it was a big problem: I really knew my stuff. I was already in the “made with notepad” movement, so not having an editor was normal for me, and the interview tasks were all stuff I already knew how to do: some onclicks, some forms, some styling magic, all the basics. Yet, it had to be cross-browser. And my stuff wasn’t working well in Netscape. I loved Netscape, it was my browser of choice, and usually did my stuff cross-browser, so I was also familiar with it. But from some time to that point I switched to MS stuff in order to do weird dynamic webs like the one I told before, so I was kinda rusty on crossbrowseriness. And so my stuff kept working badly in Netscape. For those who weren’t there: there wasn’t a “javacript console” like the ones we have now. Netscape had a “console” of sorts, but I didn’t understand the messages it told me, and didn’t had much interaction to offer either; and IE didn’t even had anything close to a console without some added plugin not yet invented by that time. No, we debugged web pages by adding lots of alert clauses back then. And I had trouble even with my alerts.
So time passed, minutes turned to hours, and I could not make it work on Netscape. I wasn’t familiar with the usage of the big fat book for documentation, had no proper training in programming so lots of concepts were out of my reach, and so the book made things worse. I even began to panic at some time, which obviously didn’t help. There was extra stuff going on that added stress to the situation, because the Argentina’s economical situation wasn’t the only thing pressing my head and soul to get that job: I needed to get away from my bad family environment so needed the job to pay a rent, I was in love with some girl that also happened to live near that place I was about to get a job, and other details of different nature going on in my life. It was a dream job. At the end of the afternoon I didn’t fully finished the exam, Netscape never worked well with my code, and went home with a broken heart knowing I wasn’t going to get that job.
When I got back home, I took a look at what the actual hell happened. And quickly I was reminded of some nasty detail I forgot during the exam. As part of the browser wars, MS implemented its own broken version of JavaScript, named JScript. It looked the same, but had some “upgrades” and “improvements” that made it “easier to use” and “easier to read” and stuff like that. One of those marvels of software engineering was direct DOM access by naming convention: in JScript, instead of something like “document.getElementById(‘thing1’).property”, I could just do “document.thing1.property”. So much better! So intuitive! And so non-standard at all, by which it silently failed in Netscape or gave hard to understand messages in its console, given that it was syntactically proper JavaScript but pointing to nowhere. I’m not sure if JScript also was case-insensitive, by which I believe was also bitten that time. Whatever the case, had I just stick to proper JavaScript it would have worked out great, and maybe I would have gotten that job.
That was the first time I was angry at Microsoft. It was the first time I felt it was not my friend. Before that, I LOVED Microsoft products. But after that experience, I never EVER again deviated from proper/native/actual/vanilla JavaScript, and actually used Netscape as my testing ground, which in turn got me away from ActiveX and Visual Studio and everything else MS had to offer for the web.
First important note: take a look at how the browser wars impacted on real people’s lives. Not getting a job in times of crisis is no joke, and we’re talking about really serious crisis here: we had 6 presidents in a week, we had riots, looting, people killed in the streets, we had 20%+ unemployment, we had a totally destroyed industry, we had several different currencies in different regions… the country was about to dissolve. Imagine the kind of stuff families were talking about in everybody’s homes: crying and screaming was usual, nobody knew what to do, parents couldn’t guarantee a plate of food for tomorrow or even tonight to their children… I was dealing with a total absence of future and my programming skills were the salvation, then my salvation failed me. Have you any idea of how that feels? The levels of distress, of anguish it involves? The powerlessness? I was 18, and so dealing with lots of emotional stuff just by my age, but no matter if you were 40 or 50 let me tell you: suicide was always on the table. In my case I survived of course, and got away from the 90’s with only alcoholism. But that kind of stuff is absent from the usual browser wars tale: they talk about Microsoft vs Netscape, about who won and who lost and why, about business or even technical stuff, but almost never about what it did to people.
So life went on, and at least on the web I learned my lesson and took a step away from Microsoft embracing standards. I was one of those people loudly fighting against Internet Explorer with nails and teeth: not because of any clear ideology, but because of experience. It can happen again I said, it can happen to you I told other people. Yet that other people didn’t care, and truth is we all kept using Windows. Funny thing: I stayed in Windows 2000, and then used Server 2003, but never XP. XP looked like a fraud to me, as it had little to no difference to w2k (if you disabled its new UI styling), it used more resources, and with no benefit whatsoever. It was already a known issue that version changing for the version changing (since w95) but using more resources: “fatware” was called back in the day. Whatever, IE6 stayed there for a long time, and with everybody using Windows it was a de-facto standard. Also, I knew very well the w2k internals, so was comfortable with it: knew how to tune up to my liking, had my “portable software” in a booteable CD (back then it was just “software”), and felt safe against an already out of control malware scene by not using IE and not installing crap.
I tried a “linux” back in 2001. As the country collapsed, computer sellers couldn’t afford to legally include Windows in the computers, and so computers started to be sold with “linux”. Can’t remember which distros. Tried a redhat CD that came with a magazine. It was kinda cool, having multiple environments to choose from, and having a package manager: I was all about tuning the system and changing the visual environment in Windows. But didn’t had any games nor MS Office, and even if it had Netscape truth is most web required IE already, so the appeal faded fast. Also, it was cool to make work my 14400 bauds modem with “linux”, but I also broke it somehow by triggering some background connect/disconnect infinite loop that didn’t even faded away after a reboot, so went back to w2k.
I kept doing gigs and small -but amazing- programming stuff until I could finally get a formal IT job in 2006. I was so happy! I was already in my first year studying Linguistics, and could pay for a room with my salary, so finally lived my own. And went to linguistics because A) I still was in that “self-taught is enough” mindset regarding programming, B) I wanted to mix programming with narrative -science + arts- to explore my own theories about artificial intelligence -I was the only one I knew with fantasies about that-, and C) I wanted to be with people with a kin mindset, looking for having both friends and sex adventures. So I was a strange guy talking about technology and programming in a place where people was mostly thinking about books and social science, or even a strange guy talking about books and social science where people was talking about technology and programming.
Whatever the case, I was fighting every fight I had the chance to make the web browser-agnostic, and to make it more and more powerful as I knew it could be done. It was the “web 2.0” age, before HTML5. By that time there was Firefox in web, Google already was dominant in search engines and avant-garde in web tech -Google wasn’t a variable during the browser war-, and it explicitly supported Firefox against IE6, so there was some momentum. Yet nothing Google made at the time was as revolutionary for web development as was something else that happened in Firefox’s ecosystem: Firebug. And for those who doesn’t know what I’m talking about: it’s the birth of what we know now as “developer tools” in any current browser. The pressure against IE6 was strong enough that MS had to do something, and that’s how IE7 saw the light. But no matter, we the “web 2.0” fighters did a good fight in order to make the web interoperable -thank you jquery! we still love you!-, big players also had their grudge with Microsoft, and by 2007 the mobile phones were changing dramatically, so stuff like home bankings and goverment agencies started to had their websites compatible with Firefox. Google eventually created Chrome by 2008 IIRC, and it took a while but by that time most of our common stuff could be made through websites somehow. The web, finally, was no longer the future.
The desktop
2006 was also the year I saw another glimpse of “the future”. Some partner at my job tried a live version of some linux distro as his work computer, but it had something very important to show us all: this guy installed Compiz, and we could all testify the dark and unspeakable power of the cube desktop. People was all “OH!” and “WOW!” and “INCREDIBLE!”, but I was just like “meh”: I was already thinking about a 3D desktop many years before that, and my idea was much better. Yet, I confess it had its appeal though.
And as much as I loved the web and worked with it and for it, the desktop status-quo was solid as stone. So we all kept using Visual Studio, given that programming in any non-Microsoft language had absolute no benefit over MS tools for MS desktops. Maybe Java, just for doing some web applet? Nah… Java was very ugly compared to flash on that front. However, there was a struggle with Java in the desktop too.
By 2001 or 2002, can’t remember well, Microsoft stopped its support for “Visual J++” -their JScript-esque approach to Java-, and actually also to the whole Visual Studio 6, which by its next version changed dramatically: it was the birth of .NET. I was a self-taught Visual Basic programmer, so I had some trouble gasping the rigorous OOP guidelines both Java first and .NET later pretended us to understand and to implement. It felt overbureucratic and dogmatic, forcing us to do lots of extra work without any clear benefit. Also, it all reeked like fatware, like change for the sake of change again -remember the tiresome jump between W98, ME, 2K, and XP-, and that was a shared feeling between both workers and bosses around here. Add to that the economic crisis, where we couldn’t afford to be changing computers just like that, and you have a perfect ecosystem for technological conservatism: we all kept using VB6 for as long as we could, forever even if we could get away with it.
But of course we didn’t had a very strong voice in the course of that from Argentina in the grand stage of things, and other stuff also kept changing versions: from players and their codecs to database engines, also going through the never stable MS Office, and lots of other stuff. The pressure to consider .NET was intense year after year. And by 2008 I had enough: it was about the third or fourth time Microsoft pretended to change the way we should connect to a database -from ADO to DAO to then something else I really don’t have intention to remember-, and this time I had to change computer in order to just install the newer Visual Studio. By that time the web made already normal to also use ssh -putty, of course- against some hosting server where you had php and mysql, so tired of Microsoft forcing me to change the way I was supposed to work I finally took another look at that “linux” thing.
Truth is, my main problem was with my ability to keep my custom libraries working on newer use cases. I was productive using the code that I was keeping and improving since the 90s, and by that time even other people depended on it. And this is something that needs to be carefully considered, as it’s a two-sided coin. On one side, I had to keep my job to pay the bills and sustain my life, so I couldn’t suddenly just not-know how to do my job, while my software had to also work on newer operating systems and/or using different newer technologies. And on the other side, other people also depended from that in some way: my coworkers, my family, and so on.
For example, I remember a coworker of mine was pregnant, and she had to take a license, and I can’t remember if this was also during an avian flu epidemic here, but the thing is I made the job’s systems accesible remotely and so we could do our job from our homes by just installing our custom software tools that I myself was developing. It was very rare back in the day to work from home, but it was possible thanks to my work and my ideas, so good stuff could happen to me and to others thanks to that.
So, second important note: checking out “linux” wasn’t about “linux” at all. The thing was that Microsoft made me face job insecurity. It wasn’t about liking or not liking their newer tech: it was about sustaining my life, and even the life of others, and Microsoft constantly trying to get his newer stuff in the way. This is, again, as it happened before with that first job interview during the browsers war, nothing trivial at all. And so choosing to take a look at “linux” was a BIG DEAL. I was feeling SO BAD by that time that actually took a look at the alternatives to Microsoft instead of keep being conservative about it. I actually COULD NOT change to “linux”, as I was not productive using it: that change was a project more than a simple change, trying to eventually stop depending on Microsoft to live, and a project I was doing with more desperation rather than passion or knowledge.
The big deal about “linux” back then was that it suppossedly worked better in older hardware -no need to change my pc-, it had more stable jobs -and better paid-, and had some tech still in use kinda older than myself -which is actually a selling point when you’re tired of dealing with constant forced changes-.
So I had a CD writter, and downloaded some LIVE ISOs to try out. The best one was Dyne:Bolic. It was my distro of choice. It was beautiful, had great software installed, and worked fantastic. Except that out of the live cd, the network didn’t worked, for reasons I wasn’t able to diagnose. Today I would fix that myself for sure, but back in the day it was a huge problem. So eventually also tried Ubuntu, it was kinda uglier but close enough, and this time the network worked fine. So I started to do my web stuff in my home with Ubuntu, and that way was able to get familiar with the lots of details about changing from Windows to “linux”. Never found on any Dyne:Bolic community how to fix that network problem, but Ubuntu communities were massive in comparison, and had full of tutorials and people available to make the path to “linux” quite pleasant.
It took a while though. Job’s was one thing, but there was also videogames. Wine was actually working quite well back then, but didn’t had the community muscle it has today, and so making stuff work could take some weeks or months. Then you had the drivers issue: linux gpu drivers sucked at the time. So had dual boot for a few years.
So tried to implement “linux” in my job’s office. It would had the benefit of being free (as in gratis), and I believed that could make non-linux-available stuff with wine as I already made with a game or two. Also, tunning stuff with wine require some windows knowledge, which I actually had, so I even helped some people online. I felt pretty secure about being handling this “linux” thing. And what happened was that my boss hated it. He had this own business where I worked, but he also had some IT director position in some big argentinian enterprise, where they where “Microsoft Partners”. That guy was the first person anti-linux I ever met. That and other stuff going on eventually led me to change jobs to another one where I could work with linux.
By 2010 I did that change. The interviews for the new job were about web techs, and I knew what I was talking about. They asked me if I had any trouble working with “linux”, and I said it was exactly what I was looking for. So I got the job, and it immediately got harder than I expected: It wasn’t just “linux”, it was entirely working over ssh. We had some dumb and minimal terminals where we could not install anything, and had to connect to an ssh environment where we would all use vi to work with perl. I was using “linux” for a year or two, but nothing like this: I was using “desktop linux”, and expected to work the same. But here I didn’t even had the ability to install some GUI text editor or browse files: it was natural for me to use console as I grew up with DOS, but I just didn’t knew the software this time; I didn’t even knew how to search a file in this systems without using some GUI. Had Firefox to test some web stuff, and a micro pc to connect to a windows server remote desktop if I ever had to test something in IE. I also had to be very disciplined in my programming: proper code guidelines, commit guidelines for a subversion server, had to write tests -a thing never did before-, had peer reviews… I knew web alright, but that was something else for me entirely. I even barely knew Perl at all outside of some tutorials.
It was horrible. I lasted six excruciating months where my self-steem was completely demolished and had to desperately change jobs again, this time using windows and all the old tech I was really productive with. It was about both economic and spiritual survival.
I kept using Ubuntu in my home, getting better and better at its inner details and learning all I could, hoping someday I would be able to have “a linux job”. Had a netbook by that time, and Ubuntu Netbook Remix was quite cool in it, so by the time Canonical launched its “convergence” initiative with Unity DE and Ubuntu Touch, I was fully engaged in the idea.
The mobile
From 2007 to 2010 my job was helping make multimedia stuff for mobile phones: I was the programmer, making both administrative and operative software tools, while the rest of the people in the office were mostly multimedia fellas. But that’s LATAM mobile phones we’re talking about: we get a zoo of all kinds of little monster devices here, all incompatible with one another, all of them unwanted in the rest of the world. And we’re talking about pre-smartphone era. So you have NO IDEA the kind of mess it was.
Here’s an example. We had to produce some files for some device I’m glad I can’t remember its particulars. But this was an audio file format exclusive for that device -and no other device-, and we had this typical windows GUI converter software from an input format to that particular output format. It was the only program in the entire world that allowed us to do that. We had it legally: it was bought instead of “just downloaded”, it wasn’t “freeware” or “shareware” either, and we had support for it. So one day can’t remember what happened but for some reason had to change something in that output format: we couldn’t get it to work in some situation, and needed to solve it ASAP. That software was working great for years, so it wasn’t the problem -I think it was a very specific version of the supposedly-same device-. Whatever, we wrote about it to the guy that made the software. He was in Australia or something: pretty far away from us. And the guy told us that he was unable to help us, because he had left programming and was now doing a life dedicated to surfing. We wrote him again about if, in that case, he could just send us the program’s code so I could patch it. We never had another reply from him.
It was so bizarre that actually ended up being funny even when we were about to lose our customer for that -and you know what that means for a small business in a niche area-. But it’s very representative of the chaos it was dealing with all those infernal devices. And that was just software: hardware cables and drivers and spare parts were another dimension of daily suffering.
In that job I did almost nothing web related. I was doing mostly automation: forcing operative rules to ensure our output’s quality, centralizing administrative data, dealing with all kinds of metadata and multimedia formats, and trying to make all of that work together and easy to use for non-IT people. This were mostly musicians and audio technicians, and what we were dealing the most was with ringtones: music companies sent us their original files, and we had to make different cuts of their tracks for ringtones -sometimes the chorus, sometimes some other part of the song like the intro-, as well as converting them to a lot of formats for different platforms. Selling music online wasn’t what we know today, and listening to it was a problem in itself. But working some years with it introduced me not only to the nasty details behind the multimedia formats -beyond what windows codec packs already did-, but also the music industry’s: we had to deal with “intellectual property” regulation too.
You see, there were different legally mandated unique ids for every combination of cuts from a song and their respective formats. So it wasn’t just about discerning “chorus” from “intro”: a midi file for the song’s chorus had an ID, and the same chorus in MOD format had another ID, and so the 8 and 16 bit versions of the same audio formats, and so on and so on for every format, all of that for the other cuts too. We didn’t make the IDs: they came in a spreadsheet along with other fields. Those IDs were used to later pay “the artist”. But then you had “creator” and “performer”, whose names may not be always available, they may be written very different from file to file, they may be a band’s song but later played by some solist from that band, it usually was a cover song, it wasn’t strange at all that the actual creator was already dead, the spreadsheet’s fields usually didn’t match between IDs for the same song, and so on and so on and so on. Also, for midis and monophonic stuff it was usual that our musicians had to actually just make such files: not cutting and/or converting an input media file, but creating it from scratch, which added an strange gray area between “performer” and “creator”, and of course this fellas ever saw a single penny from that. The thing is, this system was extremely imprecise by default, and we had to do our best to even make sense of it. It was a chaos all in itself without the need of the incompatible mobile phones in the middle.
And this was the era when “the smartphone” was born. I remember the whole iphone thing happening, and we were supposed to pay attention to it because it was our thing. I hated Apple for being the same crap we all know but refurbished for rich-ish people and adding extra problems for workers like myself when it was about software compatibility and multimedia formats, so I wished for it to die in a dumpster fire. Yet, it was finally a quasi-formal pocket computer -even when it wasn’t sold like that-, with proper web browser -instead of WAP browsers or tiny unusable screens-. So, my vision of about a decade before was becoming a reality: with the web mature enough, computers no longer needed that much power as everything can be remotely processed, so no need for big beefy computers anymore. Apple wasn’t particularly in sync with my approach to the idea -as I expected “no longer need beefy computers” to be translated as “cheaper devices”, not fetichized and expensive ones-, but the idea was there, working its way to reality. It was deeply ironic when I found out that they even named “iOS” their operating system -which, by the time, didn’t even had the ability to copy and paste-. Whatever the case, that same year Android was announced, and it also came with the word “linux” attached to it, so it added mass to the pile of reasons to try out that “linux” thing again.
Android ended up being quite crappy when compared to “desktop linux”, and to be frank I didn’t had the money to buy smartphones as if they were something either mandatory nor particulary useful, so I kept my old non-smart mobile phone which ran fine by me. I kept an eye in Ubuntu phone, but it wasn’t reaching Argentina any time soon, and didn’t had any spare phone (even less a compatible one) to try installing Ubuntu Touch in it, so I stayed away from mobile phone ecosystems. That was until Firefox OS came out in ~2014. That REALLY was the proper way of doing mobile phones: it was basically a standards-honoring web browser as a shell, interfacing with the kernel and some other OS APIs for permissions and hardware access, but every “program” was a zip file with html+js+css inside. That’s the way cheap, accessible, interoperable computing should have been done since years ago from that time already, and it was none other than Mozilla taking that front. Not even that, but their phones were low end: exactly what places like my country needed, and exactly what I needed to get into mobile phones; I was expecting this since the 90’s, when Microsoft integrated IE4 to their Windows desktop.
Politics
By the 2001 riots, my generation was screaming “que se vayan todos” in the streets. It means something like “everyone must leave”, and it’s refering to the politicians. All politicians from all parties were seen as corrupt incompetents, and politics itself was suffering a deep devaluation and total lack of credibility. “Que se vayan todos” felt like revolutionary, but it was actually synergic with the now decrepit neoliberal ethos -back then worldwide hegemony after the fall of the USSR-.
Of course being 18 myself, having no education at all in politics -or anything else whatsoever-, coming from a poor uneducated family, and growing up in poor neighbourhoods where all families were like mine, I could not care less for politics: media said all politicians were corrupt mindless useless pieces of garbage, except for some very serious people -all right-wingers- that said again and again we had to get a job to fix all of our problems and had to suffer one way or another with or without a job, so politics was kinda predictable and boring. What I had in mind was having a happy life -sex, love, parties, and adventures with my friends-, and fantasizing possible futures like all the stuff I was writting before about software and hardware and stuff. Being rich was some kind of social mandate, but I confess I would have been satisfied with just being right, specially when it came to discussing stuff with grown-ups that never seemed to understand what was important in life from my point of view, and that always seemed to repeat whatever stupid crap media already said first. So I guess I was already an intellectual somehow.
But 2001 was special. We were all furious: scared for sure, not knowing what to do, close to panic even, but unanimously furious. Being 18 helps in that regard. And when the total system crash came, grown-ups told us lots of bullshit as explanations. They talked a lot about corruption, yet again and again it was never their fault to put that corrupt people in charge; some of them talked about better times, all of those quickly turning into all kinds of negationism trying to explain how everything went from close to heaven to an absolute FUBAR situation -note we had things on our recent history like a genocide just about 20 years before that time-; most of them had to do some retorical contortionism in order to try to get away from the blame, and there even were the ones trying to blame “the youth” -being “lost” by rock music and violent videogames and stuff like that-. All utter unsustainable bullshit. My mind was a mess back then, but let me tell you: the most objetive, unobjectionable thing I felt, and that I defend up until today without flinching, is that I was innocent. 2001 was not my fault. I was a victim there.
So, being the grown-ups a bunch of idiots, and having to deal with a messed up reality by myself, having a drink was pretty much the best way to pass the day. Thank god for my friends or life would have been a total hell. And that was Tuesday here in the 2001 era. That, and a 20%+ unemployment rate -and when you had a job you didn’t preciselly had a life sustaining income-, was the context when I was trying to learn stuff in order to get economic autonomy first, and any kind of a future later. That was the context where all the previous tale about web, and desktop, and mobile stuff, started.
By 2003 we had Nestor Kirchner as president. He lost the presidential election to Carlos Menem, the 90’s neoliberal president and primary culprit of the 2001 crisis. But this time the election was fragmented, Menem had about 25% IIRC while Kirchner had about 22%, and so for the first time Argentina had a ballotage, wich Kirchner won because Menem deflected. But lets take a note about grown-ups being idiots, voting Menem again after having the guy 10 years in charge led the country to the trash bin. Whatever the case, good news was everyone else but that 25% was totally against the guy, and so he ran away from the ballottage.
And this Kirchner guy had a keynesian mindset. That means forcing redistribution and employement rates from the State, against the previous free trade and deregulation neoliberal ethos. It doesn’t give you any proper life, but it’s certainly light-years better than neoliberalism for everybody except the 0.1% richer -and maybe also those 25% lunatics living their right-wing ideological virtual reality-. Yet, it was more complicated than just “keynesianism”.
For starters, Argentina may had a rough turn of century, but the rest of South America wasn’t precisely disneyland either. We had Operation Condor in the 70’s, installing neoliberalism all around us by fire and blood. Our societies were demolished by the time the cold war ended, and Chile coup against Allende was actually instrumental in spreading the neoliberal ideology all around the world: Chile was the first neoliberal country -in direct and violent opposition to also having the first democratically ellected socialist goverment-, and for decades was shown on TV as an example of progress because of their macroeconomical numbers disregarding its inequality levels. But by 1998 there was Hugo Chavez in Venezuela fighting that “end of history” claimed after the USSR collapse, and then other players came all around South America with all sorts of explicit anti-neoliberal and anti-colonial agendas. So the 2000s was suddenly a Patria Grande oriented decade.
And in such a context, beyond keynesianism and internal market, Kirchner’s agenda was to revalorize politics. He did lots of gestures to distance himself from previous neoliberal spaces, including bold moves like removing a totally rotten Supreme Court with only a 22% aproval rate, continuing the trials against the 70’s military junta, and even refused the FTAA in the face of Bush.
As I said before, I couldn’t care less, and had my reasons. I grew in a neoliberal world, so “if I got a job it was all because of my own skills, that I made all by myself and nothing but myself”, and everything else was the same: Thatcher was right, society was all about individuals. Not that I knew shit about Thatcher, but if I did I would have agreed with her. What Thatcher and her friends didn’t tell you is that, when you realize you’re not some kind of super-hero nor a world champion at anything, and you begin to suspect that maybe the good stuff happening to you wasn’t all about yourself being neither special nor right at all, then you feel like a useless piece of crap while trying to keep believing “your own ideas”.
Yep… realizing our own idiocy doesn’t feel good at all. It’s very painful actually. And as I started to suspect that Microsoft maybe wasn’t my friend back in the browser wars, when I saw my family had stuff like better food and better health and several of them actually got a job, and stuff was actually more stable and riots went away and life was kind of livable, maybe politics could have had something to do with that. But even with all the empirical evidence of the world, it was difficult to turn away from “my own ideas”. Nope, empiricism wasn’t enough: I needed something else.
What I was lacking after being raised in a neoliberal world was some basic human empathy: a thing I luckily depeloped after years of therapy, having some good friends that actually cared about me, loving some people without knowing how to deal with that, and realizing how hard could life become as one tries to just live it. The less alone you are, the more important politics become; you could call that “the inverse Thatcher equation”. So being mostly alone in my ways of life didn’t helped to get a better contact with the social reality around me.
Around 2005 I got a job attending a friend’s brother business, with that money I was able to rent a room close to my university of choice, and so I was also able to begin my lingüistics studies, all the same year. And I was SO HAPPY!. It was all very precarious, but… what wasn’t, really? We had 2001 four years before that, and all kinds of trouble everywhere, so having a job and renting a room near the faculty was an absolute triumph. That feeling lasted some time, until I realized university was much more difficult than my previous schools, and what I previously considered as being smart there it felt more like being close to a neanderthal: around the other people studying with me my behaviour felt unsophisticated and primitive, my aspirations about technology and artificial intelligence felt totally disaligned with my peers, and they were so much smarter than me! University was full of people coming from a lot of other places, many of them not just not-poor but even actually rich, and their cultural baggage was so big compared to mine… I felt a big cultural shock.
It took me years to adapt to that. I struggled between not being culturally up to the task, as well as trying to keep my jobs: by 2006 I was already working for a big enterprise as a programmer, eventually went from that room to a proper appartment, as years passed I began to have more responsabilities to handle, and studying lingüistics was always a steep demand. But I kept trying. Being working all day and then studying for being up-to-date with my jobs techs and problems and just then being able to begin studying for my very complex and disconnected from day-to-day basis lingüistics courses was, at the end of the day, very alienating. I had to see my friends less and less, had some love interests and it was also frustrating when not painful, job ridden stress was common, and I dealt with all that mostly by drinking alcohol.
But it was in the university I finally had a proper contact with politics. There was all kinds of activisms there, and eventually found my way into a group I felt I could be useful. You see, we had to deal with lots of texts there. Many of them were expensive, many didn’t have available editions in any market and had to find used volumes by luck, and so we studied by photocopies of photocopies of photocopies coming from the 80’s to our time. It was a mess. But there was a small group of young people trying to build a digital library, for the students and by the students, by digitalizing -and OCRing if possible- and uploading all of our courses texts and have a proper index and search engine, so we could download all. It was a mix of Intellectual Property, access to knowledge, and R+D into library tech, all in the same activism. This people were really something, but they weren’t programmers, and I was. I was actually in the same page as them: I believed in the same principles they were trying to push into society, and also had some ideas about it all. But it was really energizing that my own experiences in the software, multimedia, and IP fields were actually really valuable for them, even fascinating. For the first time, me being rare was actually a happy thing. But also I think that was the first time I felt “a valued member of a community”.
By that time I was already a web expert, but I was also using Ubuntu, and knew my way into all kinds of problems with computers. They were so surprised I was actually able to made ad-hoc software! Just like that, in front of them! And I was surprised of all the amazing work they already had been doing without knowing mostly anything about computers but using some software. They already had thousands of digitalizations, most of them made by hand by several students and recopilated by using tech like web forums and free storage websites. We quickly became some kind of elite group everybody heard of and loved: we gave free texts to anyone.
By being part of that group I had my firsts contacts with Free Software as a political organization. There was the Via Libre foundation with Beatriz Busaniche doing lots of activities, as well as all kind of weird groups of all sizes dealing with all kinds of problems: from communal radios to people fighting to save pumpking seeds passing through medications legislations or international women organizations. And there was also us, all talking as equals. This people also loved us for doing the right thing with books. It was very strange for me, but even then it was actually a happy thing.
Between “linux” and getting away from Microsoft was that I found Techrights online. First searching for this or that about Microsoft sucking at something, during my first steps back in 2007 or 2008, but then it started to show up every day in my newer searches about “gnu” or the FSF, and suddenly I was recommending it to everybody: “the people making this website are really well versed and organized”, I remember saying, “they must have a pretty big organization behind”.
And it was in those contexts I met RMS for the first time. I believe it was 2010 already. He came to Argentina and gave some talks, and given that we were somehow close to the organizers we ended up having dinner after the talk: everybody orderer pizza, but RMS prefered some pasta. And, man… it was a weird talk. He said stuff like that it’s wrong for us in Argentina to have a unique ID per every argentinian, because that’s a database that gives too much power to the State and to any rogue agent stealing the DB. And that was with a right-winger senator sit and smiling at his side. Bizarre. I get it, I already knew about databases and what to do with them -unlike the politicians listening to the talk-, but dismantling our public ID system was… good for what, exactly? It was clear RMS was all around freedom up to any tiny remote corner he could mine it in order to raise awareness. Weird guy. But he was one of the good guys, so it was fine.
Whatever, that matched the same time I struggled to survive in my “all linux” job, the one that didn’t end well. And at the same time, politics quickly became quite toxic when it wasn’t about just being nice with people and doing nice things. That year came out Conectar Igualdad (“connecting equality”, a goverment plan to give every kid in the country a netbook for free) for example, and RMS called it “Conectar a Maldad” (“connecting to evil”) because the netbooks had dual boot with Windows and Ubuntu, and then we suddenly had to defend Free Software and RMS against all the progressives in this country as well as the right-wingers calling us communists and pirates.
Oh, but that wasn’t even the beginning. Then RMS began to talk against SIBIOS, telling everybody that he will not come back again to Argentina until that evil system was shut down. Then again he actually came back, and when somebody asked him about the SIBIOS argument he just said that found a way in a frontier where he didn’t needed to check in so then he could come. So, it wasn’t about SIBIOS but about he being tracked himself? Some years already passed by that time, and in the meantime RMS and others were again and again and again talking shit about Canonical because Ubuntu didn’t had all the freedom it should, and it seemed that if I wasn’t using some obscure distro running in some even more obscure and inaccesible hardware then I was a fool giving away my freedom.
That kind of stuff was no accident: it was totally normal in the Free Software ecosystem, from the top at RMS’s chair down to the bottomless pit of places like “linux gaming”. Gnome was great according to RMS: no matter somehow it had a dozen forks and holy wars were ravaging communities while their devs behave like assholes, it was fine because it’s free software. Systemd? No problem: it’s free software, and so it’s ethical. While everybody was discussing -jockingly or not- about the future of desktop linux, computers were less and less in use and suddenly everybody had a “smartphone”: devilish devices aparently only useful for tracking people and nothing else, specially if you asked RMS. And in the same decade news went from trash to septic giving us from literal terraplanism to people like Trump as presidents: but just ignore all that internet media stuff and those mobile devices because it’s bad for your privacy, go get some absolutely-total-free hardware with holy freedom respecting software, and that’s basically all you need to consider about technology in society. Freedom, Privacy, that’s it. Even when our champions of old like Mozilla took the fight and made interoperability possible between mobile and desktop and old computers with newer computers, and at the same time all of it being easy to program and using langages that already had millions of programmers all around the world with also millons of libraries already existing and working (not putting workers in a situation of brutal change, but on the contrary caring about them), and all of it with third world countries in mind, and simplyfying distribution by just putting some files inside a zip and that’s all you need, no sir, that was also bad: because Mozilla was receiving money from Google, and mobile phones are a distraction and an evil, and the web is also evil because is “javascript encumbered” and “has DRM”, there was evil javascript because it was obfuscated by minification, and so on and so on and so on.
By the end of the decade, about 2017 or so, I had the chance to ask RMS about it all. He came to Argentina again, gave another talk, and I asked him in public why the FSF waited for projects like Ubuntu Touch or Firefox OS to die before putting “mobile OS” as a top priority in the FSF’s list (which they finally did). He kinda accepted the timeline I was describing, but in the end just told me that don’t use mobile phones if I could, and if I must just use Replicant as OS. Of course didn’t said a word about where to get any Replicant compatible device, let alone talked about any Replicant software. In the same night he told the audience about how he uses their friends and close people’s mobile phones from time to time, because that way “the system could not know it was him using it”, and so in such case it was fine. Didn’t took long after that to get cancelled in the US.
I did my best that decade to spread awareness about free software, to actually make free software, and to try to keep on the right side of history by avoiding non-free options every single time I had the chance. Eventually left lingüistics and went for robotics: I got into all kinds of trouble trying to defend Free Software there. I didn’t used crap like Uber, avoided having sex by not using Tinder, up to this day didn’t ever sign up to any software that demanded a mobile phone number as ID (which includes whatsapp, the only way to contact some people and even institutions this days around here), all of that while trying to keep my job and my health and my family’s well being… And I’m still fighting for Free Software ideals and against all its enemies to this day. But FUCKING HELL, it is SO ALIENATING sometimes…
On bullshit
Mr. Oliva, please take a good look at the next picture. That’s the face of “freedom” around here this days.
That’s what you get by saying bullshit again and again about freedom.
Which kind of bullshit? Mostly half truths, like saying that some politicians being corrupt and/or useless morons means that ALL politicians are the same, or even that politics itself is bad: “you need to break free from all of that”. Or doing the same operation with the figure of the State, then telling that all problems are fixed by private business mindsets and operations: taxes, rules, regulations… “free yourself” from all of that shit. Or saying that, because here and there are problems with some freedoms, then you have no freedoms at all and then you need to fight with nail and teeth against dictatorships, whatever that may be: sometimes it’s the goverment, other times is the leftist agenda, suddenly is the pope or some celebrity, etcetera. I feel confortable we all know about this by now: we had the seventies all around the world so every adult knows about it, and now we have Trumps and Bolsonaros and Orbans and Boris Jhonsons and so on and so on everywhere in the world, so Milei shouldn’t surprise anybody with a minimum contact with reality and more than 20 years old. Yet I can’t but facepalm every time I see another half-truths-based article inside the FLOSS community. Take a look at this for example:
Banking institutions have sought to automate customer service through websites and, more recently, through TRApps.
https://www.fsfla.org/anuncio/2023-03-TRApps
What these banks are saving in offices and staff, we customers are paying for with security and freedom. They are morally bankrupt.(…)
Is this some kind of joke? This looks like some cynical brainwash attempt rather than any ethics argument. What the hell does “morally bankrupt” even means?
Mr. Oliva: my family is dying because of poverty and diseases, and I need to send them money for food and medicines. This is not rethorics: it’s a fact I have to deal with. I have my mother and a sister with Lupus, a grandmother with Parkinson’s disease, an uncle with prostate cancer and cardiac problems, and my sister’s husband had a stroke about 3 weeks ago and he can’t work anymore, all while they also have two young children struggling to end the school instead of dropping it for some informal job. It’s a disaster situation, all while we have a neoliberal goverment with no interest in fixing any problem for any poor people anywhere but literally hoping they just die. So I have to step up. And I was using web-based home bankings since about 18 years, up until every idiot in the world began using “apps” that are not web based but native to some different operating systems than the ones I use and so since months ago I was forced to use an Android device in order to be able to do online banking transactions; can’t remember why I wasn’t able to use the Android emulator for this. During those 18 years long of using the web fully interoperable thanks to Mozilla and others, from the FLOSS community I’ve been told again and again that that’s bloated and unethical and “javascript encumbered” and that I’m a fool for giving my freedom away using obfuscated (minimized) javascript and that Mozilla was corrupt and/or idiotic, without ever take a single fucking look to what are my real choices or my real needs. Again and again insisting in some fantastic ideal situations that supposedly I’m going to be able to achieve by myself by just having the right mindset and doing some efforts and sacrifices: exactly the same bullshit neo-liberalism offers to the world since decades ago.
Banking is actually a really good example, and that article is quite eloquent. Mr. Oliva quite lightly says that banks lays off people and closes offices, yet his argument implies it’s a moral problem regarding some technical detail in the FLOSS corporate agenda: “Banks are behaving evil by attempting against our software freedom”. Oh, you don’t say! We didn’t knew about it Mr. Oliva, thank you very much for telling us! Everybody spread the word, banks are not ethical entities! Yet, “morally bankrupt” or not, banks are obscenelly filling their pockets while entire countries like mine fall into a total FUBAR poverty scenario, and FLOSS people like me have no power at all to change anything and are forced to adapt to such unethical practices or literally face death: from ourselves, or from our loved ones. Let’s not even say a word about the people that lost their jobs by being replaced by software, as if we programmers had nothing to say about that, or as we didn’t also have an “ethical capital lost” by turning the blind side to the liiiiiiiitle fact that we’re part of the problem. No matter at all: all we need to think is “privacy” and “freedom”, exactly as the neo-liberal ethos mandates.
I see you had your deal with banks and consummer protection, Mr. Oliva. I had mine too. And do you know where TRApps are widely used other than banking? Health services. During the pandemic, I actually did a legal claim against both, my private health service provider and my bank, in both cases because they were forcing me to use “apps” instead of a web site. They both had websites, but suddenly stopped working in favor of “apps”. Of course such “apps” are only for Android or iOS, and I have a PosmarketOS mobile phone, so it doesn’t even matter if I even want to use the apps: I had to change my device’s operating system to begin with. And in both cases, the bank and the health business, the “app” turn was justified by this word: “security”. There’s this thing called 2FA, and this other thing called OTP, and it involves some remotely generated token, and they don’t do that web so you need an app. Security is another whole deal of technocracy inside our field, as if somehow they knew better than ourselves how to be secure in our lives no matter the context. But let’s not lose focus and come back to the TRApps debacle. So I had this conciliation sessions with both “private business” representatives in the context of “consumer protection”, and I told them I demanded to be able to use web sites instead of “apps”. I said lots of things: “I never agreed to be forced to use Android or iOS”, “we have a national ID system which works fine and that’s more than enough for 2FA as it has been since its very existance”, “this was working fine before the pandemic began and you’re now forcing me to do extra stuff while we’re all in quarintine”, etc. Of course at the end any argument matter little and they can do whatever they want because I’m powerless in my “privacy” and my “freedom” and neither interoperability nor the web were part of the goverment agenda at all. So, the legal system failed me, and even if it didn’t I would be most likely still legally fighting for this stuff while not being able to use my operating system of choice in my devices of choice, all of them very “freedom respecting” and very useless in real life. So, I finally throwed the towel and for the first time installed an app for personal usage in my job’s providen mobile phone, which has Android, in order to be able to go visit a medic. And we’re talking about the time when you could die or kill some family member by just going to the streets.
So, this organizations may be “morally bankrupt”, but they’re winning every single fight they fight while we have to use big chunks of our lives to just make things work even for them to be broken again the next week by another arbitrary system change. I understand the resistance rethoric and ethics, but that quickly turns into lunacy when others depend on us, when we’re not alone in life and we can’t just “fight for ourselves”. I never stepped into the FLOSS bandwagon “just for myself”: it was always about a better society, about “others too”. The “myself” part was about “what to do with what I know how to do”, “how to do my part”, but everything else was social, with others in mind. So I’m very tired of trying to turn my experiences into some kind of epic tale and tell people that making some software or hardware work in a marginal situation is the way to go, as it’s clearly unsustainable for the real people (like me) doing such efforts: I can’t tell anybody “FLOSS is great” if FLOSS involves dealing with all this crap. A different thing would be telling people “FLOSS needs help”, “FLOSS has things to say about tech problems”, “FLOSS people knows about what’s going on with your devices”, “we want FLOSS to be the way to go, join us”. That’s cool. But any of that can never, EVER, come with the word “easy” attached, or otherwise is utter bullshit.
Now let’s look at your guidelines, Mr. Oliva:
Don’t overlook programs that are nominally freedom-respecting, but that are deployed in settings in which someone else controls them, such as WWWRApps, SaaSS, and even Tivoized or remotely-controlled CRApps and TRApps.
Bear in mind that these programs are disrespectful of your freedom to begin with, so it would be naïve to expect them to be nice and not engage in enshittification. It’s an irresistible strategy for profit- or power-seeking suppliers, so when you device what you’re going to use to avoid enshittification, you have to think no so much of how attractive its honey looks like now, but how stinky it’s going to get later if you don’t stick to your freedom.
See what I mean? Such unbearable bullshit…
First of all, you speak of future stink yet you say nothing about the reality that every user already know all around the world: “in the future I’ll just switch to the next honey-looking stuff, and that’s it, I’ll adapt as I always do”. They know pretty well they’re mostly powerless the day they want to keep something but they have no idea how to do it, because they’re not fools but mentally sane people that knows their limits: “life goes on, no big deal”. It’s just some of us that get salty about this, and ever fewer of us wanting to do something about it. But is not about “us smart and them fools”, specially when we consider all the sacrifices we do in our path of FLOSS martyrdom.
Secondly, you speak of FLOSS here as implying that it lasts forever, when clearly it doesn’t: FLOSS is also full of stinky rotten carcasses of “the next big next thing” and “the great standard” from decades ago. FLOSS dies because big business controls not “privacy” but “publicy”. FLOSS dies because most of us do it for ethical reasons, and every real-life economical turn we do gets bashed by idealists and purists: Canonical and Mozilla are fine examples, as the FSF let them die in a fire before recognizing their death signature projects (Firefox OS and Ubuntu Touch) as top 1 in importance. FLOSS dies when we keep telling each other half-truths as if they were context-free final words of wisdom. FLOSS dies with no FLOSS society.
And thirdly, is not “an irresistible strategy for profit- or power-seeking”: it’s most likely a necesity for survival. It’s all nice and happy for us programmers to fantasize about all the free stuff we can do, all the systems and software we can design, all the ways we can change society or even do fun stuff with our skills, until money gets in the way and we need to pay the bills. We’re real people living in the XXI century, not some imaginary monks in a happy green field or snowy mountain with some idealistic computers that somehow we make work all by ourselves: we need infraestructure, we need a spare time we don’t have, we need to deal with real life non-computing problems too, all of that immediately breaking the idealistic bubble and facing us with survival problems.
Yet, here are the closing words for that very LibrePlannet talk:
After you flush and get rid of all the crap, deshittifying or disenshittifying your life, you may aim for the royal straight flush through eternal vigilance, to block future threats to your freedom.
Keeping control of your computing is a choice of pushing enshittification away, and embracing freedom, by avoiding enshittifiable crap. Interestingly enough, that’s exactly what this man, shown in the picture modded by my daughter for a speech of her own when she was 13, has been recommending since some 4 decades before enshittification was coined. Maybe it’s time people start listening. As usual, Stallman was right.
Now, even if all software we use is free, sometimes programs are abandoned and we can’t find a way to maintain them ourselves, sometimes hardware dies and we can’t find a replacement or port programs to run elsewhere. It’s also good to have backup plans, so cultivating programs and communities that can offer alternatives for features we rely on can help avoid making regrettable choices and getting back in the enshittification cycle.
Unlike disenshittifying, that amounts to cleaning up after a (sewer) flooding, unshittifying to me is preventing the flood. If you succeed at that, and manage to live an upright ethical life, you can even become a saint like Saint IGNUcius.
Oh, for the love of god… I don’t fucking want to fucking control fucking everyting I touch just because I have tech skills: I want to trust some organization (not “person“) that shows an acceptable-enough degree of skill and good faith to my liking, so I can be part of them and recommend their work to others. I don’t want to fucking have to do everything myself: it’s not epic, it’s demanding and tiresome and a titanic waste of my very little spare time; I began writting this in May and it’s August already because I have spare minutes daily.
My family with some GNU/Linux distro in the computer I’ve sent them doesn’t control shit: they just trust me, and because of that they keep using GNU, period. They don’t have the technical knowledge to control anything about their computing, and that’s absolutely fine considering their context. Eventually they get and realize the benefits of software freedom as years pass and every else’s computers turn into crap while my family’s keep working as fine as day one, and as they have zero security problems, and as they see how business try to change that from them by pushing TRApps and they don’t like it. It’s a matter of time and experience, and not about instantaneus undestanding nor agreement of some ethical guidelines that somehow should be “the smart way to go”. That control bullshit is for a very little kind of users, and for some of us programmers, and that’s it: the rest of the world is thankfully different from us.
But that’s me and my family, which is a very simple organization. Organizations tend to be very complex beasts, and to also change a lot over time: they will never be silver ethical bullets in an always changing context. And the four freedoms cannot be about “me being smart”, but about how we relate to technology. I want a healthy relationship with technology, both between myself and tech and between tech and society, and for that interoperability standards are the first step. Like the web, for example. Or like POSIX. Yeah, Stallman was right, of course, in lots of stuff: he’s truly visionary. Yet he also was very, very wrong, about a lot of other stuff, and keep trying to idealize him (or anyone else for that matter) just hurts the impression we give to any rational being paying attention to us: he’s a man with an agenda, and there are lots of figures like that. If you end up mixing our inability to choose software alternatives with the power big business have over us, and close that tale telling us that we can be some kind of saints by the magic of context-free ethics, then I’m sorry but I don’t want to have anything to do with FLOSS at all: it’s deeply discouraging. I don’t want you to tell bullshit to my family and other loved ones about ridiculous ethics that if they somehow listen to you would most likely end up in somebody dying a very stupid death. I’m not that kind of FLOSS champion you seem to try to describe Mr. Oliva, and certainly I never told anybody that I aspire to be any kind of saint: I’m ok with being good enough.
All of which leads us to the general FLOSS agenda problem I wanted to talk. First of all: we need money to live, Mr. Oliva. Money is in the “morally bankrupt” banks, Mr. Oliva. The question is not about banks being ethical or not, but what the hell are we supposed to do about them: the financial system, top 1 worldwide problem since the seventies. And secondly but no less important, that other thing about people being laid off by being replaced by software, all while we actually make software. There’s nothing wrong about preaching ethics. But it’s absolutely unacceptable to try to even imply that context-free ethics is enough.
I believe that quoted paragraph before about guidelines should have said something in the lines of “don’t decide yourself which software to use just by its functionalities, its easyness of use, its practicality: there are other serious things going on with software, talk to FLOSS people about how the software work and what are its inner and social problems; try to not feed a community of software that gives too much power to bad agents because consequences are a big deal”. Something like that let us talk to people without telling them they’re smart by using funny acronyms or asking them to repeat like parrots bullshit stuff about freedoms.
And speaking about money and banks, can anybody please explain to me when are we going to discuss openly the obviously unsustainable relationship between FLOSS and capitalism? I dare say context-free ethics are always bullshit when speaking about real life, and I very rarely see capitalism mentioned in such preachings even when such ethical guidelines usually imply big things about our relationship with money. Or forget the so controversial and divissive money: let’s just begin with the current political institutions and all the phenomena they involve. I’m so fucking tired of FLOSS referents talking shit about the State, yet they always end up going to the legal system to sort stuff out: from the very GPL existance, to Mr. Oliva’s tale about consumer protection. Yeah, in case somebody has any doubt about it: the legal system, as well as many other currently irreplaceable parts of our societies, are the State itself. Yet, FLOSS referents keep taking distance from the State again and again, as if it were somehow our enemy as well as the big business (or even worst), and no matter rather sooner than later we’re gona need it involved in the problems we fight and on our side of the battle. The State is the modern (as in “modernity”) social institution that representative democracies and republics all around the world articulate in order to sustain the concept of rights. Did you see how little FLOSS referents use that word, and instead of it keep using the word “freedoms”?
Mix the idealistic ethical hypocrisy with the forced distance from “rights” by using “freedoms”, and what you have is called liberalism: the people that all around the world seem to hate the State, glorify privacy and personal choices over almost anything else, and can keep talking for days about personal ethics but very rarely consider nor question current real-life capitalism as a context. Thankfully liberalism is old and diverse, so there are many ways of living it: I love Rorty’s take on it for example. Yet, today liberalism is a horrible problem thanks to neo-liberalism.
Is it so hard to think about national states funding FLOSS projects as part of rights-granting initiatives? It’s only hard for people who abhor the figure of the State, or people so far away from real life politics that shouldn’t be listened to when talking about society. Is it so hard to think about inter-national governance institutions funding and standardizing software, and by that vector also enforcing compatible hardware? I see lots of folks talking shit about organizations like Mozilla becuse they “sold out”, yet rarely see anybody talking about how to solve that problem: they talk about money going to CEOs, and pointing the obvious that such money should be used somewhere else, but that other place is never equally obvious; it’s easier to drop the web and talk about gemini than thinking how to protect the web against the current corporate forces aproppiating it (as they do with everything else since the early days of capitalism): as if gemini woulnd’t be also appropiated the same way in the future should it become popular; and in case it never become popular, what was the point of it anyways, other than fetichizing niche tech and/or trying to save oneself from being part of some other decadent environment by alienating from society. Of course it will be hard to think about saving the web with a mindset focused on private freedoms, avoiding javascript, and/or trying to get away from bloated media, instead of thinking about sustainable interoperability without breaking existing and working social links (like having a fully productive workforce and considering its needs, instead of forcing them to also adapt to yet another tech): any standarized subset of HTML beats gemini any day in any fight, and we just need to focus on standards enforcement instead of technocratic ethical principles. And what about other institutions? Why is it that FLOSS leaders always talk about “privacy” and “freedoms”, but almost never about public software infrastructure? Where are the workers unions, almost never mentioned by FLOSS people, in all of this mess? Why can’t we have some social network, some hosting, some identity providers, some communication infrastructure, some homologated software, all granted by our unions? Why not even political parties? Why is it always about individuals and never about unions or parties when it comes to software? What is this “apoliticalness”? I say all of this is a clear liberal bias towards individuals and against political organizations in general, as well as the state regulations in particular: when not explicit, at least implicit.
Did you ever consider that some of us actually want to be tracked from time to time? Ask any woman calling a car by night: they always turn tracking on in case they become victims of all kinds of abuse, including kidnapping. They share a link so others can track them in real time, and that’s actually a good thing. Did you ever consider that some of us prefer that the one tracking us is the State instead of some “private business”?. And, yes, I already know how dangerous it is when some bad actor gets elected, when data gets stolen, and about the impact of corrupt elements inside goverments: we’re already being hunted down here with Milei’s terror tactics, and we know very well about state terrorism. Now, did you know there’s something called “right to identity”? Yes, a right, those enforced by the National States and international governance institutions. In my country in particular we have desaparecidos: people abducted, their bodies never found, its children appropiated by the kidnappers; it’s a very big deal, where our national identity and biometric systems have a huge humanitarian role: yet RMS says in public talks “it’s evil, but if I can just tell the system I’m somebody else then it’s ok to use it”, like some bigmouth antisystem teenager, while people gives its biometric data to “private business” willingly anyways and the State gets weaker every day in terms of enforcing rights by giving people’s power to “the market”. I’m ok with the ability to turn tracking off when I decide: something that can only be enforced, by the rule of law and never by “honesty” nor any kind of ideal ethical “purity”. Yet, I believe that makes me a fool that knows nothing about “freedom” if I speak about it with any common FLOSS folk.
In the same sense: do you want me to tell my friends “don’t have quick access to sex using Tinder and such apps, because if you do you lose freedom”? I do tell them, by the way, that the reason I don’t use any “app” is because my ideological principles regarding technology, and so I don’t use Tinder and, yes, that way I actively drop the chance of having quick access to sex and other human relations through that way: yet I would never tell them “you’re a fool” for it, because I don’t suffer from any mental illnes and so I can clearly realize I’m the one against the current here and they’re no fools at all: they’re human beings enjoying the fulfillment of basic human needs thanks to popular technology, which is actually a wonderful thing. The problem here is not them being fools, but us tackling the issues with the wrong lenses (if at all).
Every basic human connection is being replaced/interfered/augmented/refactored by technological means, and so the one controlling such technologies is a big deal. That’s why I use e-mail for communications, which give me the ability to control myself my own server, and reject almost every other way of internet contact with me. Yet today I find that common folks don’t know how to send an email: they never fill the “subject” field (I suppose because of the mobile UI they use), they don’t even understand such concept as it’s not part of their lives, they seem to feel that writting an e-mail message is a different congnitive operation than writting a chat line in whatsapp or instagram, and they don’t even know the concept of “e-mail”: they belive that by that I mean “g-mail”. I’m talking about people already in their 30s, not just kids. During the pandemic, I had to fight in order to receive my COVID tests results through e-mail instead of through whatsapp: they didn’t understand the possibility of someone not using whatsapp, and that was already years ago. So I started to push for Delta Chat: it’s basically an e-mail client, but using whatsapp-and-the-likes UI. My family and friends talk to me through Delta. Yet, when I see my FLOSS referents talking about this kind of issues, the most common comment is “mobile phones are not neccesary, they’re evil because they’re tracking machines, don’t be a fool and stop using it”. It’s like talking with someone still living in the late XX century.
“TRAPps are bad”, oh you don’t say… The problem is TRAPps are mandatory, thanks to “the market” and the “private business” leading everything in technology, and us political activists and intellectuals who think and care about technology keep thinking in terms of “privacy” and “private freedoms”: we’re like neo-liberal market zealots, encouraging the problem, empowering big business, telling dissidents to go live like an ascetic monk while fighting all of this with “hard work and happy thoughts”. “The others are the fools”, we seem to tell again and again to ourselves. In the meantime big business are stronger than ever, to the point even national states can’t seem to be able do shit about them.
I refuse to be an accomplice of neoliberalism. I refuse to talk about freedoms instead of talking about rights. I refuse to preach that the State should have less power to enforce rights. I refuse to give away the concept of rights. I refuse to give away the power granted to me by democracy to be a part of the State and thus try to decide its direction on society: I AM the State. I refuse to fantasize that the problems in this text are all about personal ideas or all about personal sacrifices: I care about others too, I don’t want them to suffer, and I want a different society for them as well as for me, where technology is a force for good. We’re talking about social systems here, with complex agents and forces intertwined, and we need sophisticated organizations in order to tackle its problems. And I want RIGHTS, so I want the State there to grant them.
FLOSS people needs to check its liberal bias ASAP. Because today we are a political frontier in the absolutely critical field of software in particular and technology in general, and the second we became irresponsible by being acritical or dogmatic (“too critical”) we become a big part of the problem of technology in society. This days, being responsible is not done with context-free ethics but with social/human sciences knowledge that let us speak to our peers without talking bullshit, and with explicit political agendas that allow us to build activist communities, unions, parties. We can’t empower only very selected individuals: we need to empower social classes, etnicities, genders, minorities, majorities, nations. We need FLOSS as part of a bigger newer humanist movement that, in its complexity, could be able to actually tackle the financial system and capitalism as a whole. We need FLOSS integrated with our production systems and into our superstructures. We need to stop talking so much about the private and start talking about the public, specially publicity. We need FLOSS targeting global governance systems to enforce interoperability instead of fighting against working standars because “they’re encumbered” by promoting niche tech that will never solve all the problems the previous tech already do; we need FLOSS to solve real-life problems and not try to sell some self-righteous bullshit by telling everyone else that they’re fools because they don’t think or behave like us.
FLOSS is already successful at technical level, and it’s already on the proper side of history: FLOSS is right. It’s up to us that its political potential don’t get wasted, or worst: appropiated by big business. So please guys, I beg you: cut the bullshit about freedoms, and start talking about rights already.
Un indicio sobre los devenires históricos de las prácticas crueles.
Pero entre el rito y el cuento maravilloso existe una diferencia radical: en el rito se tapan los ojos al jóven, en el cuento se tapan a la bruja o al personaje que corresponda a ella. En otras palabras, el mito o el cuento maravilloso constituyen una exacta inversión del rito. ¿Cómo se ha verificado esta inversión?
El rito infundía temor y espanto a los hijos y a las madres, pero se le consideraba necesario, ya que a quien había sido sometido a él se le creía en posesión de algo que podríamos llamar un poder mágico sobre los animales; es decir, que el rito correspondía a los métodos de la caza primitiva. Pero cuando, al perfeccionarse los instrumentos, al pasar a la agricultura, al surgir un nuevo orden social, los viejos ritos crueles aparecieron como inútiles y fueron maldecidos, su rudeza se volvió contra quienes los realizaban. Mientras que en el rito el jóven es cegado en el bosque por un ser que le atormenta y le amenaza con devorarle, el mito, apartado ya del rito, se convierte en un medio de protesta.
Vladimir Propp, Las Raices Históricas del Cuento, 1946 (páginas 102 y 103 de la versión en español).
Esta peste se está apropiando de nuestra región cada vez con más fuerza, y en esta oportunidad ya nadie le puede echar la culpa ni a las guerrillas comunistas ni a la corrupción populista: gobiernos de derecha dan lugar a democracias cada vez más débiles, y cada vez más permeables por las organizaciones narco.
En simultaneo, de los pueblos oprimidos brota una reacción tan entendible como desesperada, que es votar a las opciones más agresivas y rupturistas disponibles: como cachetazo y grito de protesta hacia las estructuras de la política históricamente establecida, que no vienen logrando hacer nada al respecto de los problemas populares. Pero para sorpresa de muches, ese rupturiusmo casi inevitablemente se propone por derecha, aún con el vasto registro de instancias fallidas de lo mismo, y con el historial intachable de las derecha ejerciendo poder político en contra de los intereses populares.
Nosotres tenemos algunas cosas para reflexionar al respecto, como siempre mezclando temas de la cultura popular con algunas ideas científicas y nuestras propias teorías agregadas a los análisis. De modo que sin más preámbulos arrancamos con este nuevo trabajo, titulado: “la virtud de los desalmados”.
Introducción
En el año 2019, el canal de youtube “Just Write”, que se dedica mayormente al análisis literario y mediático, publicó un video hablando sobre una ola de videojuegos donde los personajes principales eran padres, y la paternidad era un tema central en esas historias.
A ese fenómeno se lo llamó “the daddening”, y entre otras razones se especulaba que estuviera determinado por la edad de tanto creadores de videojuegos como jugadores. Esa ola arrancó mayormente en la década pasada, cuando mi generación, la primer generación canónicamente “gamer”, ya tenía cumplidos unos 30 años.
Antes de eso, los juegos que escenificaban varones solían mostrar personajes hiperviolentos, hipermasculinizados, e hiperpoderosos, operando como lo que llamaron “power fantasies”, o “fantasía de poder” en español. En líneas generales, la histórica cuestión de “la violencia en los videojuegos” estaba más notoria e iconónicamente en esas power fantasies.
Pero si bien siempre hubo variedad en los videojuegos, en la década pasada aparecieron un montón donde los personajes pasaban a ser mucho más maduros emocionalmente, así como también las historias más complejas y humanas.
Les recomendamos ese video, que de alguna manera es precursor del actual, y de hecho puede ser muy interesante; pueden encontrar el link en la descripción.
Just Write mencionó muchos juegos, pero tomó por aquel entonces dos ejemplos característicos para analizar y contrastar. Nosotres aquí hacemos una operación similar, con dos de los juegos que formaron parte del “daddening”, aunque nosotres lo haremos con lecturas y objetivos muy diferentes a los de aquel canal.
Pero además, ambos van a ser a su vez interpelados por otra obra, esta última ya no de ficción, que utilizaremos como nexo con nuestra realidad histórica para hablar sobre la realidad actual.
De modo que ya mismo les advertimos: este video está lleno de spoilers sobre la saga God of War y The Last of Us. Y en las lecturas que hagamos sobre ambos trabajos va a tener algún lugar la paternidad, pero nosotros nos vamos a concentrar más bien en las cosas que dicen sobre la violencia.
Y corresponde también una advertencia mucho más importante. Atención que en este video vemos temas muy intensos, incluyendo diferentes situaciones extremadamente traumáticas. No ahondamos en pormenores morbosos, pero tampoco esquivamos mostrar escenas violentas o hablar de temas sensibles relacionados a ellas, como pueden serlo homicidios o suicidios. De modo que deben tener cuidado con este video si acaso son personas a las que temas violentos puedan generarles algún daño emocional.
Por lo demás, este trabajo es un sólo video largo, pero está separado en partes a las que pueden saltar directamente desde la descripción, de modo tal que no necesiten verlo de corrido. Las primeras dos partes van a ser una presentación de God of War y The Last of Us. En la tercer parte presentamos el trabajo de no-ficción con el que también vamos a trabajar, y contamos su historia. Luego en la cuarta parte exploramos vínculos entre los tres trabajos, y recién en la quinta parte planteamos nuestra tesis ya con todo lo anterior previamente considerado. Recién en la sexta parte dejamos nuestras conclusiones sobre cómo esto se relaciona con cuestiones de actualidad.
Parte 1: por dios
El primer trabajo a presentar es una franquicia de video juegos. God of War relata la vida de Kratos, un espartano de la era de los mitos, con una historia de desesperación, resentimiento, y violencia, a niveles que sólo dioses pueden llegar a experimentar.
Esta franquicia data de la época de la Playstation 2, allá por el 2005, y desde sus orígenes era muy celebrada por su dinámica de juego y su avanzada tecnología visual.
Francamente yo nunca tuve un contacto felíz con esta franquicia: me parecía muy poco más que otra manera de explotar violencia en videojuegos. Era básicamente lo que Just Write llamó “power fantasy”. En esta oportunidad une encarnaba a un guerrero superpoderoso y superhábil, poco menos que una máquina de matar, que a los hachazos y espadazos se abría camino por campos de batalla y derrotaba a criaturas legendarias con igual pericia.
Y es que la saga también tenía desde el principio cierto encanto de estar paseando por la mitología griega, la cual ya de por sí abundaba en todo tipo de violencias, aunque esta vez relatado casi en clave “noir”, con un cinismo y acumulación de desgracias que le daban mucha identidad.
Y así, Kratos, el antihéroe de este relato, resultaba tener una capacidad inusitada para la violencia, la cuál estaba siempre justificada contra un universo maltratador e injusto que sólo le ofrecía sometimiento y desdicha, tal vez con el único bálsamo de la gloria en la conquista militar.
Esta vida mayormente sin sentido, recién se vería aliviada y resignificada cuando, entre batalla y batalla, Kratos formara una familia con su esposa Lysandra y su hija Calliope.
La historia de Kratos es trágica desde antes de su nacimiento. Exageradamente trágica, me atrevería a decir. Cansadoramente trágica. Extendieron el concepto de “tragedia griega” hasta lo absurdo.
Su madre tuvo que escapar con él cuando era muy niño porque sino los iban a matar, fué a parar a la brutal agogé donde ya desde niño debió aprender a sobrevivir, terminó siendo soldado y haciendo de los horrores de la guerra su rutina cotidiana, y todo siempre con un característico ceño fruncido y vengativo que aparentemente mantiene desde su infancia.
Pero más allá de las muchas injusticias y padecimientos que le tocaron vivir a Kratos, se supone que hay una situación trágica peor que las demás, LA tragedia de Kratos: sucedió que, un día, peleando al servicio de Ares, sin saberlo, Kratos asesinó a su propia esposa e hija. Y ese evento, lejos de ser un accidente, fue un gravísimo error que cometieron los dioses de ese mundo ficcional, quienes prontamente lo pagarían muy caro.
Después de aquel evento, Kratos queda básicamente en un estado cuasi-psicótico de shock, y por esas cosas de las moiras se entera que la muerte de su familia en realidad fue un evento planificado por Ares, el dios de la guerra. A partir de ese momento, Kratos inicia un camino de venganza y destrucción: primero contra Ares, pero finalmente contra el panteón entero del Olimpo, con Zeus a la cabeza.
Toda esa historia se narra en tres juegos principales (God of War uno, dos, y tres), y algún que otro juego intercalado entre medio para agregar eventos al relato.
Relato que, finalmente, termina con Kratos derrotando y matando a todos los dioses de manera brutal. Lo cuál a su vez da lugar a la destrucción del mundo helénico, porque los dioses efectivamente encarnaban diferentes aspectos del mismo.
Y frente a las consecuencias de sus actos, tomando conciencia de que se había convertido en un monstruo y negándose a tomar el lugar de los dioses, decide suicidarse.
Hay un montón de detalles vinculados a las decisiones que toma en esa aventura, incluido el suicidio, pero son francamente muchos y no vienen al caso de gran cosa: lo que nos interesa saber de momento es que la historia es brutal, horrible, extremadamente violenta, y termina muy mal. Fín.
(silencio)
Excepto que no termina ahí. Como frecuentemente sucede con las franquicias, alguien invirtió en esa propiedad intelectual y entonces en el 2018 continuaron la historia de Kratos, quien lógicamente sobrevivió a su intento de suicidio.
Pero esta vez el tono del relato fue muy diferente, y dió lugar a un trabajo universalmente aclamado y hasta reconocido como obra maestra: la historia pasó a ser atrapante y conmovedora, Kratos se convirtió en un personaje sofisticado con el que se podía empatizar, los temas fueron tratados con notable madurez emocional y cuidado estético, todo eso dando lugar a una obra bellísima salida del lugar menos pensado.
La historia de Kratos continuó años pasada la destrucción del Olimpo y de la Grecia mitológica. Él ahora vive en un bosque de tundra, alejado de pueblos y ciudades, en una cabaña donde formó una nueva familia con su segunda esposa Faye y su hijo Atreus. Y el relato comienza cuando Kratos, triste y solitario, está recolectando mediante tala una serie de árboles seleccionados para una pira funeraria, porque su esposa había fallecido.
El juego comienza entonces mostrando de a poco la relación entre Kratos y su hijo, y la misión del juego es cumplir con el pedido de Faye antes de morir: liberar sus cenizas en la cima de la montaña más alta de ese mundo.
En ese viaje se descubren muchos misterios, tanto de la vida de Faye como del mundo en sí, pero fundamentalmente es un viaje de crecimiento donde se explora la paternidad de Kratos, toda la angustia y horror de su historia con la que vive aterrado de terminar transmitiéndole a su hijo, y cómo este último vá creciendo e indagando sobre sus propias inquietudes acerca de la vida. El juego termina, luego de una larga peregrinación, en una escena conmovedora donde Kratos y su hijo finalmente llegan a la cima de la montaña, liberan las cenizas al viento, y se despiden de Faye.
Pero esa es solo la mitad de la historia. Sucede que Faye y ese mundo tenían sus propias cuestiones sin terminar, de las que Kratos y Atreus ahora formaban parte. Se trataba del mundo de la mitología nórdica, con el panteón de Asgard encabezado por Odín, y Faye era una gigante.
Muy pronto luego de la muerte de Faye, Kratos y Atreus son visitados por alguien del panteón de Odín y con intenciones asesinas. Y muchos detalles mediante, en su largo viaje padre e hijo aprenden la complicada historia de Asgard, la guerra pasada entre dioses y gigantes, y la inminente profecía de Ragnarok: otro fín del mundo, en el que Kratos se veía nuevamente involucrado, esta vez ya muy contra su volutad y sin ninguna intención de tener nada qué ver con ello.
Precisamente, esta historia se relata en dos juegos, el último lanzado a finales del 2022, y se llamó “God of War: Ragnarok”. En esa segunda parte, Kratos finalmente forma parte del Ragnarok, dando lugar a otra batalla a muerte contra un panteón entero: pero esta vez como general, defensor, teórico de la guerra, y padre; peleando contra las injusticias de Odín tal y como antes lo hiciera contra Zeus, pero ahora para que las generaciones futuras de dioses y gigantes nórdicos tuvieran una oportunidad de vivir en paz. Y no sólo eso, sino que esta vez lo acompañaban les que defendía, que ya eran sus compañeres de vida, y hasta le pidieron que fuera su general: Kratos ya no estaba sólo, ni alienado de su mundo.
Toda la historia nórdica de Kratos es conmovedora, inspiradora, y brillantemente relatada.
Los paralelismos con su historia previa en Esparta y Olimpo son muchos, y parte de su viaje es aprender a resignificar todo aquello de modo tal que pueda ser vivido: aprender a vivir con ello. La cara de Kratos esta vez muestra emociones, él mismo expresa rangos emocionales mucho más amplios que en la saga griega. Y las tragedias en su vida esta vez tienen algún sentido, representan cosas, nos interpelan. Los demás personajes son igualmente delicados y significativos.
Y nada de esto actúa en detrimento de que el juego sea efectivamente “de acción”, y por lo tanto muestre su cuota evidente y necesaria de constante violencia. Kratos sigue siendo un avatar de la violencia: pero ya no es una máquina de matar, sino un ser sensible con el que se puede empatizar, y alguien experimentado de quien se puede aprender.
Parte 2: cenizas quedan
El segundo trabajo que presentamos es otra franquicia de videojuegos, aunque mucho más corta que la anterior, y mucho más cercana a nuestra realidad: ya no se trata de mundos remotos y mitológicos, sino que se ubica en el comienzo de nuestro siglo XXI. Y tanto más cercana a la realidad actual es, que prontamente fué adaptada también como serie de televisión.
El juego en principio era uno más “de zombies” en una larga lista de juegos “de zombies”, que por aquel entonces estaban de moda. Pero resultó ser uno muy especial, no sólo por su calidad tecnológica sino también artística.
The Last of Us cuenta la historia de Joel, un carpintero divorciado que vivía con su hija en Texas. De jovencito amaba tocar la guitarra y soñaba con ser cantante, pero se casó muy jóven y pronto se convirtió en padre, frente a lo cuál abandonó sus proyectos personales para dedicarse a los cuidados de su hija. Su vida era laboriosa y económicamente difícil, pero de una manera u otra lograba hacerse algo de tiempo para ser un padre presente, compañero, y amoroso.
Pero en el año 2013, padre e hija debieron vivir los traumáticos eventos del brote mundial de una extraña pandemia que volvía a la gente salvaje, agresiva, y asesina.
Se trataba de un hongo, que residía en el cerebro, y desde allí pasaba a controlar a su huesped: una mutación del cordyceps, el famoso hongo que en nuestro mundo real sabe volver zombies a algunos insectos.
Esta mutación volvía zombies a los humanos, y se esparció por todo el planeta muy rápidamente, desactivando por completo a la civilización humana moderna en cuestión de semanas.
Esa noche, Joel, su hermano Tommy, y su hija Sarah, lucharon por sobrevivir en medio de un ataque de hordas zombies y una estampida descontrolada de gente escapando por su vida. Los aviones se caian del cielo, los incendios y tumultos se apoderaban de cualquier paisaje, ningún lugar parecía seguro, y eso no mejoró exactamente cuando se involucró el ejército a poner orden, que encima en ese momento todavía no tenía ni un diagnóstico del problema ni un protocolo a seguir.
Y así fue que, durante el escape de esa situación pesadillezca, Joel carga a una Sarah herida en sus brazos, y es interpelado por un soldado que recibe órdenes de matar a cualquier sospechoso de estar infectado. El soldado dispara su rifle semiautomático, y Joel se tira al piso junto con Sarah tratando de protegerla. Tommy interviene y los salva, asesinando al soldado. Pero cuando revisan si están bien, encuentran a Sarah con problemas para respirar y hablar: había sido alcanzada por un disparo, y se ahogaba en su propia sangre. Murió sufriendo, desesperada, aterrada, y frente a los ojos de su padre que no pudo hacer nada para salvarla.
Veinte años más tarde, en el 2033, Joel vive en una zona de cuarentena militarizada, en un mundo destruido que jamás encontró ni cura ni solución para la pandemia de cordyceps. Los zombies merodean por las ruinas del viejo mundo, y no existe ningún lugar realmente seguro.
En ese mundo, Joel es un tipo frío, duro, que se identifica como sobreviviente y trabaja mayormente como contrabandista, realizando todo tipo de tareas deshumanizantes con la mayor naturalidad. Es una especie de matón independiente, que no parece tenerle miedo a nada, pero tampoco se mete en ninguna aventura idealista ni fantasiosa: un tipo con los piés en la tierra, en una tierra hostil y despiadada.
Ese mundo ya no tenía un estado nacional formal, pero de una manera u otra había algo así como un “ejército de los Estados Unidos” que hacía las veces de soberano, imponiendo su ley marcial sobre las zonas de cuarentena.
Y en respuesta a ello, surgieron diferentes grupos organizados de protesta, incluyendo grupos armados, que exigían volver a otras formas de organización más democráticas. Uno de esos grupos armados eran las Fireflies, o luciérnagas en español, que consistían básicamente en una organización guerrillera revolucionaria, libertaria, y clandestina.
Joel era impermeable a los principios idealistas de las fireflies, y veía con malos ojos a sus actividades porque además de idealistas eran siempre muy peligrosas, aunque de vez en cuando podía realizar tareas de contrabando para ellos. Y fué precisamente en uno de esos trabajos de contrabando que se inicia el nudo de esta historia.
Sucedió que las fireflies estaban apostando toda su operación, y perdiendo, a una misión importante y urgente: realizar una migración desde Boston hasta Salt Lake City, unos 3800 kilómetros, llevando con ellos una carga. Finalmente esa operación se vé seriamente comprometida, y es así que las fireflies le piden a Joel como medida desesperada que lleve adelante parte de la misión: apenas llevar la carga por un tramo corto del viaje.
Y “la carga” resultó ser una jóven adolescente, llamada Ellie.
Joel aceptó a regañadientes, en parte por favores adeudados y en parte por una oferta que valía la pena.
El plan era simplemente acompañar a Ellie hasta un sitio controlado por las fireflies fuera de la zona de cuarentena, de modo tal que no la capture el ejército. Y para ello era necesario atravesar sitios peligrosos: a veces controlados por el ejército mismo, y otras veces sencillamente zonas de nadie repletas de zombies.
Así comienzan un incómodo viaje donde el caracter de Joel y Ellie choca constantemente y deben aprender a convivir para sobrevivir. Ellie no era una prisionera, de modo que era extraño que las fireflies la consideraran tan importante: aunque a Joel no le interesaban mucho los detalles, y le mintieron diciéndole que se trataba de alguna cuestión personal de la lider firefly, con la cuál era suficiente explicación.
Pero pronto surgió a la luz la verdad, cuando Joel pudo ver que Ellie tenía una marca de infección de cordyceps en su cuerpo. Normalmente, esa marca significa la zombificación en cuestión de horas, pero de una manera u otra Ellie no se convertía nunca. Resultó que Ellie era inmune al cordyceps, y las fireflies querían llevarla hasta una instalación médica bajo su control para poder desarrollar una cura a la peste que sometía al mundo.
Para Joel, después de 20 años de supervivencia y miseria, esas cosas eran fantasías ridículas y no se les debía prestar atención. Pero por cuestiones de la historia que no es necesario detallar, luego de que llegaran al punto cercano a la zona de cuarentena al que debían llegar, se encontraron con que las fireflies habían sido emboscadas y asesinadas por el ejército. Y más detalles mediante, Joel finalmente acepta llevar a Ellie directamente hasta Salt Lake City, atravesando a pié todo el continente norteamericano casi de costa a costa.
The last of Us narra ese viaje de Joel y Ellie. Durante este viaje lleno de eventos que dura algo así como un año, ambos se vuelven una enorme influencia el uno para el otro, llegando a entablar un vínculo de profundo cariño.
Ellie encontró en Joel no sólo un protector y un amigo, sino también una figura paterna que nunca había tenido, así como también Joel tuvo oportunidad de reconciliarse con sentimientos y con una parte de su historia que para sobrevivir en ese mundo hostil sencillamente había sepultado junto con buena parte de su propia humanidad.
Tal y como sucedió con la historia de Kratos, la relación de paternidad dió lugar a una historia tan dramática como bella y conmovedora, y sin por ello negar un contexto de violencia y deshumanización generalizados.
Encontrar esa calibración entre mundo distópico, historia trágica, pero al mismo tiempo relato movilizador, humanizante, y respetuoso de las audiencias, no es un trabajo sencillo, y este fué uno particularmente aclamado.
Pero también como sucedió con Kratos, la historia no termina de manera tan sencilla.
Al final de The Last of Us, Joel finalmente logra llevar a Ellie hasta el hospital de las fireflies.
Ellie llega inconsciente luego de casi ahogarse, y a Joel lo noquean cuando pide ayuda para reanimarla. Pero al despertarse Joel, se encuentra sano y salvo en una camilla, custodiado por algún firefly, y con la lider firefly a su lado.
Ella le explica que Ellie está bien, y que ya le hicieron algunos análisis, los cuales dieron como conclusión que efectivamente podían hacer una vacuna que protegiera a la gente de la infección de cordyceps. Básicamente, le explicaban a Joel que con su esfuerzo había logrado salvar a la humanidad.
Pero el precio de ello sería matar a Ellie: debían extraerle del cerebro una variante nuevamente mutada de cordyceps, que era lo que la hacía inmune, y no había manera de que sobreviviera a la operación.
Y aquí es donde The Last of Us se puso polémico. En una decisión que una década después continúa siendo controversial, Joel se niega a permitir que maten a Ellie, inclusive poniendo en la balanza al resto de la humanidad, y entonces decide salvarla. Para ello, asesina a todo firefly que se cruza en su camino, incluyendo al cirujano que estaba a punto de operar a Ellie, luego de lo cual la toma en brazos y se la lleva del hospital.
Ellie despierta más tarde en la parte trasera de un automovil conducido por Joel, desorientada, sin entender qué había sucedido: ella nunca estuvo consciente durante los eventos del hospital. Y frente a eso, Joel le cuenta una mentira: le dice que las fireflies finalmente le hicieron estudios, y determinaron que no era posible hacer una cura; que intentaron, que de hecho no era tan especial Ellie porque había otra gente también inmune, pero que los estudios no llevaban a nada y al final las fireflies se dieron por vencidas en su búsqueda de una cura. Ellie, incrédula y triste, no tiene más opción que aceptar la historia como cierta. Y así concluye el juego.
The Last of Us, a diferencia de God of War, tiene una historia más bien agridulce, sino directamente amarga. Ese final no dejó satisfecho a nadie, y dividió aguas en los debates por internet acerca de la calidad ética de los actos de Joel y sus justificaciones.
Pero toda esa polémica iba a ser apenas el preámbulo de lo que se vendría. Años más tarde, el mismo estudio lanzó The Last of Us parte 2, continuando la historia. Y si antes fué polémico, esta vez fué un escándalo.
La continuación de la historia se dá unos años más tarde, donde Joel y Ellie se instalaron en un pueblo que encontraron en su viaje original, junto con otros sobrevivientes saludables. Ellie ya es una jóven adulta, y Joel ya está cerca de los 60 años. El mundo sigue siendo un lugar hostil, pero la vida en el pueblo es amena, y la comunidad se mantiene estable y sólida; casi como un final felíz para la aventura original.
Pero eso rápidamente se vé quebrado cuando aparece un nuevo personaje: una jóven musculosa llamada Abby, que junto con un grupo de amigos exploran la zona cercana al pueblo, en busca de algo. Finalmente, eventos problemáticos mediante, se revela que Abby está buscando a Joel para matarlo, en venganza por los eventos sucedidos años atrás en aquel hospital.
Y por detalles de la historia, muy temprano en el juego y para sorpresa de todes les jugadores, Abby finalmente cumple con su objetivo y asesina brutalmente a Joel a palazos en la cabeza, todo frente a los ojos de una Ellie sometida y gritando desesperada frente a la impotencia de no poder hacer más que verlo morir, casi reescenificando la escena en la que Joel perdió a su hija Sarah.
The Last of Us parte 2 mata al “héroe” de la parte anterior, y de una manera tan espantosa como impresionante. Pueden curiosear por internet las reacciones a ese evento, y van a ver que fue profundamente controversial y shockeante: no solamente porque Joel ya tenía un vínculo afectuoso con la audiencia, sino también por la brutalidad con la que fue asesinado. Y eso era apenas el principio del juego, que termina siendo una especie de descenso en algunos de los rincones más oscuros de la condición humana.
La mitad del juego pasa a contar la historia de Ellie yendo a cazar a Abby para vengar a Joel, aventura en la que comete todo tipo de actos cuestionables. Pero en la otra mitad del juego se encarna la historia de Abby, que a su vez buscaba venganza contra Joel.
Sucedió que Abby era la hija de aquel cirujano firefly, de modo tal que este personaje tan odiado en realidad era un reflejo de lo que ahora pasaba a ser Ellie misma. Y no sólo eso: la historia cuenta cómo las fireflies quedaron terminalmente desmoralizadas después de los eventos del hospital, al punto tal que literalmente dejaron de buscar una cura y desarmaron la organización.
Buena parte de esa decisión pasó por el hecho de que aquel cirujano era la última persona realmente capacitada para realizar las investigaciones adecuadas: ya no había universidades en ese mundo, ni abundaba mano de obra calificada, así que perderlo a él fue perderlo todo.
Joel efectivamente había hecho un daño muy profundo, no solamente a Abby sino también al mundo. Y Ellie, en principio, desconocía todo esto y sólo buscaba vengar a su amigo, protector, y padre adoptivo.
El relato es absoluta y extraordinariamente desgarrador. Durante toda la aventura, ambos bandos generan tanta empatía como rechazo, y ambos a su vez viven sus propias experiencias que los llevan a desarrollarse en diferentes sentidos.
Por un lado, ambos van conociendo sus propias historias, y tienen múltiples oportunidades de evaluar lo que estaban haciendo, mientras que por otro lado el mundo rara vez les dejó otra oportunidad más que reaccionar con violencia y desesperación e ira.
Esta vez estamos hablando de gente mucho más jóven: aún cuando sus experiencias hayan sido muchas e intensas, no tuvieron las décadas de maseración que pudieron tener un Joel o un Kratos.
Y así se puede ver cómo a medida que el juego avanza, el aspecto físico de tanto Abby como Ellie comienza a volverse más demacrado, lastimado, frágil.
Son muchas las escenas conflictivas donde une quisiera simplemente poder elegir otra cosa pero el juego no lo permite, y al mismo tiempo está tan bien relatado que une no puede más que sentir una profunda empatía por los personajes y no puede dejar la historia sin terminar.
Entonces las acciones que une realiza se vuelven dolorosas para el jugador, difíciles de vivir, y por momentos preferiría tirar el joystick y apagar el juego para no continuar por ese camino de sensaciones tan insoportables: pero la sensación de que esa historia necesita una resolución hace que tampoco pueda dejarse así sin más. Esa historia exige a gritos una resolución.
Todo esto lleva hasta una pelea final entre Ellie y Abby, ya muy demacradas después de un viaje infernal, a una altura del relato donde ya nadie quiere pelear ni que esas dos sigan peleando. Ya no pasaba por Joel ni por las fireflies ni por el cirujano, sino que ahora todo era una sincera y profunda empatía con ambas, y la sensación de que no deberían estar peleándose porque sencillamente eran víctimas de cosas que las excedían. Pero sin embargo el juego obliga a que esa pelea tenga lugar cuando Ellie recuerda la imagen de la muerte de Joel, e implícitamente se propone que no va a haber ninguna otra resolución que una de ellas matando a la otra.
Es desgarrador presenciar esa pelea, y es más desgarrador todavía formar parte de ella presionando los botones para que suceda. Pero finalmente, en el último instante antes de asesinarla, Ellie tiene otro recuerdo de Joel, y esta vez el efecto es que suelte a Abby y la deje ir sin seguir peleando. Luego de eso Abby se vá, y Ellie queda arrodillada conteniendo sus emociones. No debe haber nadie que haya llegado a esa escena y no haya entrado en llanto por el extraordinario nivel de catarsis al que dá lugar. Y esta, que pudo ser la escena final, es continuada por una exploración breve del recuerdo que Ellie tuvo antes de dejar ir a Abby.
Era un recuerdo donde Ellie confrontaba a Joel, por diferentes cuestiones de la convivencia en el pueblo, que los tenía a ellos dos distanciados. Pero durante ese diálogo mencionan otra cuestión: Ellie se había enterado de su propia historia, de aquellos eventos en el hospital, y no lo perdonaba a Joel por sus acciones; eso era lo que los mantenía distanciados.
Joel, por su parte, mirándola a los ojos y sin duda alguna en su rostro, le dijo que si estuviera en la misma situación otra vez haría exactamente lo mismo. Entonces Ellie le dice las siguientes palabras: “no creo poder perdonarte nunca por lo que hiciste… pero me gustaría intentarlo”. Y fué uno de los pocos momentos de toda la historia donde se lo pudo ver a Joel con las palabras atragantadas. Ese fué el recuerdo que tuvo Ellie, y por el que decidió romper el ciclo de venganza contra Abby.
Finalmente, el juego termina con Ellie volviendo al pueblo, donde tendrá que afrontar las consecuencias de sus propias decisiones.
Después del Last of Us 2, fuí a ver comunidades de internet hablando sobre el juego, y parecían más bien grupos de terapia donde todes se acompañaban unes a otres. La intensidad emocional que genera es tan sorprendente como devastadora, y realmente es necesario un descanso luego de una experiencia como esa.
El juego fue universalmente aclamado, y también considerado obra maestra como el God of War. Pero su exploración de las emociones y relaciones humanas es profundamente enriquecedora, en especial por la experiencia empática de ponerte en los zapatos del enemigo de una manera tan íntima que termina doliendo.
“The last of us” es un nombre ambiguo ya en su inglés original.
Puede ser “el último de nosotres”, o “la última de nosotres”, señalando a alguien en particular, como pueden serlo Joel o Ellie.
Pero también puede ser “lo último de nosotres”, apuntando con ese neutro a alguna característica más abstracta: ¿el último grupo? ¿la última cualidad? ¿”la resaca” tal vez? ¿quizás “nuestro verdadero ser”, el que queda después de todo ese viaje tan difícil de atravesar? ¿Y quién es exactamente ese nosotres? ¿La familia? ¿La sociedad? ¿La humanidad? ¿Cada une de nosotres individuos? A mí me gusta traducirlo como “lo que queda de nosotres”, respetando un poco la ambigüedad de a qué se refiere, pero abrazando lo neutro, y escapándole a la posibilidad de que estuviera hablando de alguien en particular.
Parte 3: otros medios
El tercer trabajo no sólo no se trata de ninguna obra de ficción, sino que tampoco es una obra pensada para consumo popular masivo ni mucho menos entretenimiento: se trata de un texto técnico y científico.
Es una tesis doctoral en Historia de las Ideas Políticas, escrita en Sueco para la Universidad de Gotemburgo por Amanda Peralta: conocida como “la primer guerrillera de la Argentina”, figura legendaria de la militancia peronista, y miembra fundadora de las Fuerzas Armadas Peronistas (o “FAP”).
Este trabajo necesita un poco más de contexto, para entender no sólo su relevancia sino también cuál es la figura de Peralta, así como desde dónde escribe lo que escribe. Y si vamos a hablar de militancia peronista, corresponde entonces una breve caracterización del peronismo, en especial por aquel entonces. Y para caracterizar al peronismo, es necesario también caracterizar el momento histórico del mundo.
Toda la política mundial de la primera mitad del siglo XX estuvo atravesada por el binomio capitalismo-comunismo, o bien la cuestión de la socialización o privatización de los medios de producción, así como también la cuestión de si la economía debía ser planificada o liberalizada, y en ese último aspecto cuál era el rol del estado nacional como institución.
En los primeros años del siglo XX todavía era poderoso y masivo el movimiento anarquista, aunque en esas décadas sus ideas fueron más bien mezclándose con las de los polos capitalistas y comunistas, dando lugar a diferentes corrientes de ambos cuadrantes ideológicos influidas por el anarquismo.
Pero frente a la revolución rusa y el auge de la Unión Soviética, en Europa tuvo lugar una reacción que rechazara al mismo tiempo al decadente liberalismo de primer cuarto de siglo (y en profunda crisis) así como también a las ideas revolucionarias anticapitalistas. De esa manera nacía el fascismo, de la mano de gobiernos de corte autoritario, corporativo, militarista, y nacionalista, junto con lo cuál nacía también la noción política de “tercera posición”.
El fascismo se proponía también como alguna forma de corriente revolucionaria y hasta defensora de los intereses de las clases sociales populares, en particular por sus críticas a algunas ideas liberales y la defensa del capitalismo de estado: pero una vez en el poder resultaban ser gobiernos articulados en torno a intereses conservadores, y gozosos de un amplio colaboracionismo empresario, dando lugar a un enérgico capitalismo explotador instrumentado por un estado autoritario que ejerciera un control marcial de la sociedad antes que de cualquier mercado.
El peronismo comienza por aquellos años de la primera mitad del siglo XX con Juan Domingo Perón, quien fué una de las figuras más importantes de la historia política argentina, y llegó a la presidencia del país por primera vez en 1946.
Para ese entonces finalizaba la segunda guerra mundial, ya había bombas atómicas, ya se habían establecido la Unión Soviética y los Estados Unidos como dos superpotencias mundiales en guerra fría, y el fascismo ya había caido en desgracia.
Perón era un oficial militar de carrera, llegando al máximo rango de General, y un estudioso de las cuestiones políticas y sociales de su tiempo. Y en particular, Perón puso foco en las relaciones entre clase social, medios de producción, y rol del estado nacional, sin adherir a rajatabla a ninguno de los principios canónicos de su tiempo, sino más bien articulando una combinación más pragmática de principios que dieran lugar a una línea ideológica autóctona y adecuada a la realidad argentina.
Básicamente, para no extender demasiado el preámbulo sobre peronismo (porque no es el tema de este trabajo), Perón implementó principios promotores de la industrialización, el estado de bienestar, y la conciliación de clases (capital y trabajo), con fuerte tendencia gremialista y laborista, como bases de articulación de un gobierno capitalista y nacionalista.
El peronismo se proponía entonces como una “tercera posición”, y entre eso y otros detalles (como el nacionalismo, la fuerte intervención estatal en la economía, y el liderazgo carismático, encima este último formalmente en un oficial superior militar) llevó a que fuera rápidamente tildado de “fascismo” por sus detractores y hasta algunos analistas académicos.
Pero en la práctica, el peronismo fue, si no la primera, a todas luces la más trascendente experiencia de gobierno netamente popular de la historia Argentina, lo cuál puede medirse objetivamente en la cantidad y calidad de derechos ganados y cambios radicales implementados en favor de las amplias mayorías populares del país: algo de lo que ningún fascismo puede hacer gala en ningún lugar del mundo y en ningún momento de la historia.
Pero el peronismo fue el gran parteaguas de la historia política argentina, y como tal recibió una intensa reacción conservadora y unificada entre diferentes grupos sociales y políticos poderosos, a saber: la oligarquía terrateniente agroganadera, en buena medida instalada desde tiempos de la colonia española y beneficiaria provilegiada de aquella; la embajada de los Estados Unidos bajo las directivas de su Departamento de Estado y de Seguridad Nacional; el capital financiero internacional, en especial por aquel entonces la banca norteamericana; los partidos de derecha, conservadores y racistas, que veían con malos ojos las consesiones populares y la intervención estatal, tildando por esa vía al peronismo de “comunista”; los partidos de izquierda, que veían con ojos igual de malos cómo la figura de Perón opacaba la de los avatares marxistas y conducía al movimiento obrero hacia el sostenimiento del capitalismo; la familia militar, en su mayoría de oficiales conservadores y anticomunistas; entre muchos otros de menor envergadura por aquel entonces (como las empresas mediáticas, todavía bajo explícita línea ideológica orgánica y no todavía llamadas “independientes”).
Y así sucedió que, durante el segundo gobierno de Perón, luego de ser reelecto, fué derrocado en un golpe de estado en el año 1955. Y si bien el gobierno peronista era incuestionablemente de corte popular, y las amplias mayorías de la sociedad votaron a su favor, sus detractores nunca dejaron de clamar que se trataba de un gobierno autoritario, sometedor, y decadente.
Y en ese sentido, el golpe de estado de 1955 se autoproclamó “revolución libertadora”, en otro hito más de la histórica perversión de la noción de “libertad” tanto en el país como en la región. Y fué un golpe particularmente notorio, porque resultó ser uno de los extraños casos históricos mundiales en los que un país bombardeó su propio territorio, en el tristemente célebre bombardeo de Plaza de Mayo. Con la connivencia de partidos políticos opositores y de la iglesia católica, las fuerzas armadas argentinas abrieron fuego sobre la población civil, directamente utilizando aviones bombarderos sobre la plaza pública. Por esta razón, sus detractores llamamos peyorativamente a este golpe de estado “revolución fusiladora”.
Todo eso merece su propio análisis, y pueden encontrar por internet y en cualquier biblioteca miles de trabajos al caso.
Aquí lo que nos interesa marcar es que, luego de la revolusión fusiladora, el peronismo fué proscripto en Argentina, Perón se fué exiliado a Europa, y las dictaduras y pseudodemocracias de la época implementaron un proceso activo de desperonización de la sociedad.
Pero para ese entonces, además, también había otra influencia muy importante para la política de la región: el movimiento 26 de Julio en Cuba, que terminara finalmente en la revolución cubana, la primera revolución comunista en el continente americano.
Y ese es el contexto en el que Amanda Peralta comienza muy jovencita su militancia, como parte de la llamada “resistencia peronista”.
Sus primeros pasos fueron en 1955, donde con 16 años formó parte de la primera generación de “juventud peronista”, las cuales a su vez se integrarían a las llamadas “fuerzas armadas de la revolución nacional” (FARN), y por la cuál fué encarcelada por primera vez durante algunos meses.
Eventualmente llegó a formar parte de la “acción revolucionara peronista” (ARP), agrupación liderada por el conocido dirigente John William Cooke, de la cuál sería expulsada luego de apoyar una importante huelga de trabajadores portuarios. Por ese apoyo a esa huelga fué nuevamente encarcelada.
Pero luego de eso finalmente fundó junto con otros compañeros las “fuerzas armadas peronistas” (FAP), que en 1968 llegó a montar un campamento de entrenamiento guerrillero en la localidad de Taco Ralo, en la provincia de Tucumán. En ese campamento, los guerrilleros fueron sorprendidos por la policía, apresados, y enviados en avión hasta Buenos Aires, donde fueron enjuiciados y encarcelados.
En 1971 se fugó a los tiros de la prisión junto con otras presas, recibiendo incluso un disparo, y pasando a vivir en la clandestinidad. En 1973 las FAP decidieron bajar las armas, luego de que llegara Cámpora al gobierno, y de esa manera se terminara la proscripción del peronismo (por lo tanto también la resistencia peronista). Cámpora indultó a otros compañeros de Amanda en las FAP, y más tarde volvió Perón al país donde ganó las elecicones.
Pero incluso bajando las armas y con un gobierno peronista debieron continuar en la clandestinidad debido a la acción de la Alianza Anticomunista Argentina (o “triple A”), un grupo parapolicial y paramilitar orquestado por el ministro de Bienestar Social de Perón, José López Rega.
En 1974 dá a luz a su primera hija. En 1975 ella y sus compañeros abandonaron ya no la lucha armada sino también la militancia, y en 1976 Amanda y su pareja abandonaron el país luego de un nuevo golpe de estado.
Este golpe de estado se justificó en la presencia de fuerzas armadas revolucionarias (llamadas “subversivas” por los dictadores), pero lo cierto es que la guerrilla en Argentina había sido derrotada tanto política como militarmente para ese entonces, y el golpe fue uno más de los tantos articulados por los Estados Unidos sobre paises de la región en la llamada Operación Condor, y tuvo como fín último la implementación de cambios sociales regresivos, neocoloniales y neoliberales.
La guerrilla, que la generación de Amanda Peralta encarnó como herramienta de resistencia y liberación, se había convertido en chivo expiatorio para el sometimiento de su nación.
Así fué que se exilió primero a Brasil durante un corto tiempo, luego pasó por México durante un tiempo más largo donde también nació su segundo hijo, y finalmente logró instalarse en Suecia, gracias a la intervención de un funcionario del Alto Comisionado de las Naciones Unidas para los refugiados.
Allí, de alguna manera continuó su “lucha”, porque ya adecuarse a una cultura extranjera no es una tarea trivial, la sueca se mostraba además particularmente desafiante, y en ese lugar del mundo eligió el trabajo académico, que ya por sí sólo es un desafío.
La primer barrera era el idioma, que no es sencillo para nosotres americanes: en las propias palabras de Amanda, “el sueco no es un idioma, es una enfermedad de la garganta”. Pero además, en Suecia existían muchos prejuicios anti-feministas y anti-inmigrantes no-europeos, con lo cuál era triplemente costoso hacerse un espacio en esa sociedad, muy especialmente en su ámbito académico que tiene sus propios vicios agregados.
De modo que Amanda Peralta debió aprender el idioma a la perfección, intentar integrarse de alguna manera en el mercado de trabajo sueco, en paralelo cursar los estudios primarios y secundarios para adultos, y finalmente entrar en la universidad.
Y no sólo lo logró, sino que terminó recibiéndose de doctora y publicando su tesis, ya hacia 1990, también logrando por un tiempo ser directora del Museo de Cultura Mundial, y finalmente quedar como investigadora permanente y profesora de la misma institución.
La tesis de Amanda Peralta se titula: “…Por otros medios. De Clausewitz a Guevara: guerra, revolución y política en la tradición del pensamiento marxista”. Y la primer parte del título viene al caso de una famosa frase atribuída a Clausewitz, que expresa lo siguiente: “la guerra es la continuación de la política por otros medios”.
Clausewitz fue un pensador moderno de la guerra, profundamente influyente, y Amanda Peralta precisamente analiza cómo esa influencia opera sobre los modos de la tradición marxista y guerrillera. Para ello recorre la historia de los principales pensadores de la guerra dentro del marxismo, comenzando con Marx y Engels, pasando por Lenin en Rusia y Mao en China, para finalmente llegar hasta Martí y el Che Guevara en la revolución cubana.
Su ex esposo, Nestor Verdinelli, quien también fuera su pareja durante la etapa de las FAP, describe el espíritu de la tesis de la siguiente manera:
“Naturalmente, producto de la experiencia vivida, Amanda tenía mucho interés en comprender qué nos había llevado a la catástrofe, luego de la victoria de mayo del 73. Cómo, porqué, las organizaciones político-militares de aquellos tiempos se perdieron en las tinieblas que llevarían a una derrota que costaría a nuestro país la pérdida de más de 30000 compañeros y el exilio de muchos miles más. Fue allí donde nace este interés sobre la teoría de la guerra. De dónde viene, qué influencias nos trae. Por qué caminos llegó a nuestra sociedad y a nuestra militancia”.
A nosotres nos va a interesar este trabajo porque, efectivamente, esta persona de la generación de mis abuelos y abuelas tuvo una experiencia de vida que la llevó a ser no sólo una sobreviviente activa, que literalmente peleó por su vida para sobrevivir, sino también una teórica de la guerra que llegó a reflexionar sobre sus propias acciones y las de su generación, ya no en los términos inmediatos de las acciones concretas sino en términos generacionales, usando su propia vida como caso de estudio.
No es una biografía, porque no relata su vida particular, pero de alguna manera también sí lo es: porque las cosas que reflexiona son las que le tocó vivir y encarnar, y que más tarde tuvieron consecuencias nefastas en la sociedad que ella peleaba por liberar. Es su manera de aprender a vivir con ello.
Pero la historia de alguien no se termina con ese aprendizaje, sino que luego de reflexionar sobre las propias experiencias une pasa a tener un vínculo de referencia para con las generaciones posteriores: gente más jóven, sedienta de sus propias experiencias, sensible al mundo que sus ancestros le dejaron, y muy vulnerable a explicaciones inadecuadas o hasta maliciosas. Amanda Peralta nos dejó entonces, a partir de sus experiencias de lucha, una lectura crítica de esa lucha que diera lugar a una teoría, y una toría que intente explicar un poco lo que pasa en el mundo que nos deja y ayude a entender cómo encararlo.
Luego de publicar su tesis, continuó sus investigaciones sobre procesos americanos de colonialismo y sometimiento. Primero realizó estudios en El Salvador sobre la Teología de la Liberación, publicando “Teoría y práctica en el universo de los pobres” en 1995, y luego pasó a estudiar la historia y resistencia del pueblo Mapuche: proyecto inconcluso, interrumpido por su muerte en el año 2009.
Su tesis son unas 250 páginas, de las cuales las conclusiones abarcan apenas las últimas dos o tres. Al caso de ello, apenas al comienzo, ella va a decir lo siguiente: “Si la tesis incluye alguna contribución original -lo cual espero- debe salir a la luz durante el transcurso de la tesis y no aparecer como una Deus Ex Machina en la última página”. Es decir que quien quiera obtener algo de su elaboración teórica y técnica, va a tener que ir a leerla, y ningún rejunte corto de palabras pretende ni va a hacerle justicia a un trabajo de esas características.
Pero de una manera u otra, para cerrar esta parte, es pertinente traer las últimas palabras de su tesis, que a su vez son una cita a otro reconocido compañero de las FAP, Envar El Kadri: “Cuando uno llega a pensar así, cuando uno se pone un uniforme y adopta los escalafones y los modelos de organización del enemigo, finalmente se termina siendo el enemigo… el enemigo te ha vencido porque ha logrado transformarte en él”.
Parte 4: acción y emoción
Todos los trabajos que presentamos anteriormente nos advierten sobre las consecuencias del uso de la violencia, y en particular acerca de las prácticas de la guerra.
Eso último queda un poco más difuso en The Last of Us, porque no es el tema central del trabajo, aunque es fácil apreciar por todos lados el pensamiento militar y su instrumentalización, así como también la cuestión de plantearse un enemigo y no descansar hasta destruirlo, como sucede en la segunda parte.
Pero ese va a ser un detalle menor, porque nosotres aquí leemos otro tema diferente en esas obras, que nos parece pertinente a nuestra realidad actual. Son muchos los detalles, y muchos más los que deben dejarse de lado, pero vamos a intentar armar de a poquito un relato que nos permita atravesar estos tres trabajos con un sólo lente.
La primer cuestión que tienen los tres trabajos en común es un mundo convulsionado y hostil. Kratos y Joel de hecho viven directamente un “fín del mundo”, lo cuál difícilmente pueda ser superado por eventos traumáticos de mayor envergadura, al menos a nivel civilizatorio.
Y por ahí para muches hoy no lo parece, pero les invito a que vayan a ver grabaciones, testimonios, de personas que hayan vivido la parte más intensa de la guerra fría, y van a tener oportunidad de apreciar hasta qué punto se vivía con miedo al fín del mundo.
Yo, de hecho, nací temprano en la década de 1980, y una de las fantasías más insistentes y aterradoras por aquel entonces todavía era “el fín del mundo”; tanto es así, que las ficciones apocalípticas sólo se incrementaron en cantidad y calidad con el paso de las décadas, llegando efectivamente hasta The Last of Us. Esa tradición artística no salió de la nada: salió de la historia.
Pero podemos concentrarnos un minuto en la experiencia de Amanda Peralta desde este punto de vista, para aclarar un poquito este argumento.
En 1948 se firma la declaración universal de los derechos humanos. Si algún día tienen oportunidad, vayan a la página web de la ONU, descarguen el PDF, y léanlo. Esa carta de derechos, que no era un documento vinculante pero sí un ideario del que constituciones y tratados internacionales habrían de tomar como base, fue creado luego de los eventos de la segunda guerra, y con el objetivo de que eventos de esas características no volvieran a suceder.
En la mesa donde se votaban esos derechos estaban los Estados Unidos de América y la Unión Soviética. Y décadas más tarde, en 1966, se firmó el Pacto Internacional de Derechos Civiles y Políticos, esta vez sí vinculante.
La Unión Soviética había resistido la declaración original, y se abstuvo en la votación, mientras que más tarde fueron los Estados Unidos quienes plantearon una férrea oposición a garantizar derechos tales como la vivienda, la salud, o la educación, además del derecho a autodeterminación de los pueblos que tanto daño hacía a los colonialistas en general.
Todas esas discusiones traían más problemas que soluciones a los paises poderosos, y los sometía a una serie de trabas tanto legales como ideológicas que debían honrar. Era la política, que se articulaba para no dar lugar a aquellos “otros medios” de Clausewitz, en un contexto donde las cosas estaban a un mal día de una tercera guerra mundial.
Las declaraciones de derechos universales eran parte del clima de época, porque el siglo XX fué el escenario de conflictos por las llamadas “Grandes Ideas”: conflictos ideológicos, donde las ideas que competían eran aquellas que hipotéticamente habrían de explicar a la humanidad, y regir así las normas sociales, políticas, y económicas, de todo el planeta.
El “universalismo”, en términos planetarios, era el tema de la época. Y era un tema llevado hasta las últimas consecuencias. Cada acto político, cada pequeña adherencia o rechazo en cualquier debate, era leido casi sin excepción como una pieza del rompecabezas que resultaba ser el mapa hacia el futuro de la humanidad. Ya no era resolver los problemas del ahora, sino también los de un mañana que podía ser trágico a niveles de los mitos religiosos. Después de la segunda guerra y la bomba atómica, ya no se podía pensar sin pensar también en el fín del mundo.
Por supuesto la ciencia y la tecnología tenían mucho qué ver con eso, tanto por el progreso tecnológico como por sus mostruos militares.
Pero lo cierto es que las acciones políticas se volvían más intensas y trascendentes que nunca, y era bastante común que cualquier acción menor en cualquier organización ignota de cualquier parte del mundo se pensara enmarcada dentro de las acciones necesarias para evitar un apocalipsis, o bien para una nueva y mejor humanidad.
Lo cuál, a su vez, cuando se mezcla con las pasiones que todes podemos conocer de la política y con la urgencia de un hipotético y verosimil fín del mundo en el corto o mediano plazo, la justificación para escalar conflictos hasta la violencia armada podía ser tranquilamente sentido común. Ese era el clima de la época.
Desde ya que no todo uso de la violencia era altruista: los actos criminales de la revolución fusiladora eran poco más que odio racial y clasista articulando un conservadurismo recalcitrante que nada tenía de ningún tipo de visión de futuro sino que, de hecho, su vista estaba anclada en el pasado.
Esto se apreciaba claro en las tristemente célebres palabras del contraalmirante Rial, quien participara en el golpe de estado y lo justificara de la siguiente manera: “esta gloriosa revolución se hizo para que, en este bendito país, el hijo del barrendero muera barrendero”.
Cosas como el ascenso social y la distribución de la riqueza estaban mal vistas en esos sectores, y lo siguen estando. Esa mezcla esotérica entre clase social y raza, estirpe, condición de sangre, que en Argentina se agrupa bajo el nombre despectivo de “gorila” y que coincide con el antiperonismo, es uno de los truculentos principios premodernos que insisten en sostener vastos sectores de las sociedades de todo el mundo, en especial cuando se trata de vínculos con los colonialismos. Lo cuál en Argentina en particular, y América en general, es un tema central, del que Amanda Peralta terminó convirtiéndose en referente académica desde Suecia.
Ella se sumó de muy jovencita a la resistencia peronista, por los eventos de la revolución fusiladora. Pero el peronismo en sí fué siempre muy heterogéneo en su composición: siempre se mostró mucho más como movimiento antes que como partido, siempre tuvo vocación frentista, siempre tomó una centralidad alrededor de la cuál los demás cuadrantes políticos debían reorganizarse, y muy especialmente siempre hubo peronismos de izquierda y de derecha.
Precisamente, las ex-FAP pasan a la clandestinidad durante la presidencia de Cámpora, porque el peronismo de derecha había llevado su anticomunismo hasta el oscuro punto de la policía secreta. Y es que Amanda Peralta formó parte de ese peronismo “de izquierda”, una históricamente incómoda fracción del movimiento peronista que hacía equilibrio entre las ideas marxistas y el problema empírico de la representación de la clase trabajadora como herramienta de construcción de poder popular en una democracia republicana liberal.
Eso, sumado al momento histórico del foquismo del Che Guevara, donde la revolución socialista en América se mostraba como un resultado verosimil, llevaba a una convivencia muy tensa con el peronismo en general. En palabras de ella misma: “Tengo la sensación de que siempre estuve en el peronismo haciendo la contra, siempre peleando. Desde que en 1957 llegaron las instrucciones de Perón para votar a Frondizi, nunca estuvimos de acuerdo con nada. Siempre estábamos en la vereda de enfrente”.
Esa “vereda de enfrente” a las decisiones de las dirigencias peronistas la llevó al foquismo, la estrategia revolucionaria instrumentada y llevada a la fama por Ernesto Che Guevara, y que frecuentemente era confundido con la simple y literal instrumentación de acciones guerrilleras.
Y el foquismo, a su vez, según sus propias reflexiones, generó un quiebre dentro de la resistencia peronista y el movimiento peronista en general, del que más tarde Amanda Peralta consideraría una de las condiciones de la histórica derrota obrera en la Argentina de los setentas.
Y aquí son pertinentes nuevamente algunas palabras de la propia Amanda Peralta en primera persona:
“Estábamos en pleno foquismo, con las anteojeras puestas. Muy influidos por la Revolución Cubana. El foco era la respuesta mágica, maravillosa y perfecta para los problemas del país. Fue nuestra etapa de mayor sectarismo. El hecho de que el gobierno de Illia fuera democrático se consideraba un estorbo para desarrollar el foco guerrillero. (…) Había toda una idealización de la lucha armada. Pero (…) la estrategia del ERP y Montoneros era errónea. También hicimos una crítica al alto grado de violencia que usaban esas organizaciones. (…) Si hubiéramos actuado en la etapa del salvajismo, creo que hubiéramos entrado en la misma dinámica.
En general, en todos los procesos guerrilleros prima la visión voluntarista de acortar los plazos. Digamos que es la versión de izquierda de lo que el golpe es para la derecha. Yo no creo que se pueda negar la existencia de procesos violentos. Incluso, en gran cantidad de casos, la violencia es un arma de las masas. Pero hoy diferencio esa problemática de la concepción de guerra, así como diferencio entre lucha de clases y guerra de clases.
Hay una visión acrítica de los procesos de guerra. Se hace una asimilación de lo ineludible con lo legítimo. No podemos plantearnos erradicar la guerra a través de fomentar las guerras. En 1973 esta confusión era muy grande porque allí la violencia no era necesaria. Sucede que la concepción foquista se formó con dos componentes: el nacionalista –con todos sus valores patrióticos, los héroes, el sacrificio– y la concepción marxista de la lucha de clases como el motor de la historia. (…) Fijate que para nosotros el concepto de lo militar, tan odioso para cualquier viejo anarquista o socialista, llegó a perder el carácter negativo. Hacer política era militar. Lo militar era lo más sagrado de las organizaciones foquistas. Después llegaron los grados, los ascensos, las formaciones militares. Lo más triste es que todo esto se vivía como valores socialistas. Ese militarismo pasó a deformar el pensamiento político. ¿Hay algo peor para el desarrollo de una discusión política seria, honesta, profunda, que la subordinación militar?”
Todos esos extractos son de una entrevista que le hicieran en 1985, años antes de que su tesis estuviera lista. Y fueron precisamente los temas que desarrolló en la tesis que trajimos a condideración.
Allí se adentró en esa “visión acrítica de los procesos de la guerra” para desarticularla, entender qué le pasó a su generación con ese tema, y dejar no sólo un testimonio sino algo todavía más valioso: alguna forma de verdad sobre la que podamos construir un futuro donde las tragedias de su tiempo ya no sean necesarias.
Amanda Peralta cambió las armas por la reflexión, y su lucha universalista dejó de ser la de la violencia que se supone cambie con urgencia el curso de la historia sino la de quién busca verdades universales y dedica su vida al caso: la de la ciencia. Y así se volvió una teórica de la guerra, y discutió las ideas de los referentes de su tiempo.
Hoy de su lucha no nos queda solamente la miseria de su pasado violento, con todas sus consecuencias nefastas, sino también el trabajo crítico sobre su propia experiencia de modo tal que tengamos oportunidad de no repetirla, así como también otros llamados de atención que van a ser pertinentes más adelante en nuestro trabajo.
Pero ya aquí podemos tomar un poco de distancia de Amanda Peralta y nuestra realidad histórica, y ver cómo algunos de los temas que vivió y estudió ella se aprecian en otros trabajos que poco o nada deberían tener qué ver.
Esto lógicamente debe realizarse con cuidado de no banalizar temas en realidad muy serios y sensibles, y precisamente allí es donde se vuelve pertinente el hecho de que Amanda Peralta no haya escrito ni sus memorias ni alguna forma de manifiesto político, sino un texto crítico y científico que permita universalizar los debates sobre la percepción, vivencia, e instrumentalización de la guerra.
Y de esa manera nos permite adentrarnos, por ejemplo, en God of War.
Kratos, en su momento más decadente, también vivió la guerra idealizada: en su juventud fué un militar exitoso, y la gloria de la conquista y subjugación de sus enemigos por momentos parecía ser su única razón de vida.
Aunque antes mencionamos que además había formado una familia en Grecia, que se metieron los dioses del olimpo en el medio, y que de allí surge una tragedia de consecuencias apocalípticas. Ahora llegó el momento de explorar un poco más esa parte de la historia de Kratos.
En realidad, los dioses de la guerra (Ares y Atena) ya se habían involucrado en la vida de Kratos desde temprano. Kratos tenía un hermano menor, Deimos, que fué secuestrado por Ares, llevado vivo al infierno griego, y encarcelado allí de por vida, bajo vigilancia del dios de la muerte Thanatos. Eso ocurrió cuando Kratos y Deimos eran muy jovencitos, apenas niños jóvenes, y aprendían las artes de la defensa personal y la guerra.
Deimos era un niño más bien temeroso, y Kratos ya era un prodigio en el uso de las armas para ese entonces, razón por la cuál se convertía un poco en su maestro; pero además, Kratos le había prometido a Deimos que, como su hermano mayor, lo protegería. El día que Ares secuestró a Deimos, Kratos intentó defenderlo, pero no tuvo ninguna oportunidad frente al dios de la guerra y fué derrotado de un sólo golpe. La razón por la que Kratos sobrevivió a esa noche fue la intervención de Atena, que viajaba con Ares, y lo convenció de que dejara vivir a Kratos y se concentrara en Deimos.
Kratos no supo en ese momento quienes fueron los secuestradores de Deimos: eran simplemente dos figuras misteriosas de adultos a caballo. Pero ese evento marcó su vida para siempre, y fué el verdadero evento bisagra que convirtió a Kratos en un tipo prácticamente desalmado. Y es que perder a Deimos, encima sin poder defenderlo, básicamente le rompió el corazón.
Eso, sumado a que mucho más tarde en la historia quedara establecido que Kratos era un semidios hijo de Zeus, dejaba claro que los dioses estuvieron involucrados en las tragedias de Kratos desde el minuto cero de su historia. Sin embargo, el secuestro de Deimos es un evento de mayor importancia, porque allí está la clave del inicio del gran conflicto.
Lo que sucedió fue que los dioses estaban al tanto de una profecía apocalíptica: iba a nacer un guerrero con una marca especial, y ese guerrero iba a exterminar a los dioses del olimpo. Deimos tenía una marca de nacimiento, que más tarde Kratos se tatuó en recuerdo perpetuo de su hermano secuestrado, perdido, desaparecido. Pero por esa marca fué que Deimos fuera secuestrado, mientras que Kratos terminó siendo el guerrero que llevara adelante la profecía.
La cuestión con los dioses y el destino es siempre complicada, porque cuando se involucran es perfectamente legítimo cuestionar si las acciones de los hombres son realmente sus propias acciones: ¿cuál puede ser el valor de la agencia humana en un mundo de profecías, donde somos poco más que la personificación de las voluntades de los dioses?
Esa cosmovisión tan evidentemente premoderna, en realidad por la época de Amanda Peralta no era tan obsoleta todavía, y de hecho en muchos ámbitos de la actualidad se sigue sosteniendo. Si reemplazan “profecía” por “historia” o “mercado”, y “dioses” por “economía”, se van a encontrar con muchos lineamientos ideológicos tanto de izquierda como de derecha que se supone expliquen el comportamiento de las sociedades y de la humanidad de manera más o menos determinista. Y esas fueron precisamente la clase de “grandes ideas” que se pusieron en conflicto durante el siglo XX, llegando hasta la sombra del apocalipsis, y todo ello durante tiempos modernos.
¿O por qué creen que, más tarde, en aquella entrevista, Amanda Peralta relataba que la democracia se sentía un estorbo para el foco guerrillero, sino por la profecía de la revolución finalmente liberadora? Ímpetu revolucionario liberador que, a su vez, terminó compartiendo Amanda Peralta con los dioses malignos de su historia de origen: la “revolución libertadora”, que también pretendía poner un orden definitivo a la sociedad Argentina, en lo inmediato, y por las vías de la fuerza armada. Comparación odiosa que, sin embargo, coincide con las propias conclusiones de Envar El Kadri cuando reflexionara “nos convertimos en nuestro enemigo”.
Si bien requiere un poco de perspectiva, trabajo intelectual, y sensibilidad, en realidad hay muchas coincidencias entre la historia de Amanda Peralta y la de Kratos. Y es que son historias sobre la guerra, como las miles que tenemos en mitos y relatos históricos, aunque contadas con herramientas diferentes, mentalidades diferentes, y mundos diferentes.
Lógicamente compararlas impone una serie de distancias que deben ser respetadas, en especial en lo que respecta a las víctimas humanas reales del conflicto armado. Pero si es cierto que la tesis de Amanda Peralta es un trabajo científico, entonces sus conceptos deberían ser posibles de ser utilizados también para contrastar los planteos que la historia de Kratos pudiera hacer sobre la guerra sin mayores dificultades.
Kratos finalmente también toma conciencia de que se convirtió en su enemigo: un monstruo violento y destructor, cuya consecuencia de sus actos fué una absoluta catástrofe que para ese entonces ya no podía ser evitada. Y frente a ese horror, decide quitarse la vida. Pero aquí vale la pena agregar un detalle más a la histora de Kratos, porque ese suicidio no era solamente justificado por el horror.
Como parte de su búsqueda de venganza contra los dioses, Kratos debió obtener poder para derrotarlos. Y al caso, como es costumbre en los relatos mitológicos, aparecen los artefactos. Hacia el final del juego, el artefacto de la mitología griega que le permitiera a Kratos derrotar a Zeus fue la caja de Pandora.
Recordemos, el mito cuenta que la caja de Pandora guardaba diferentes aspectos espantosos de la vida humana, pero también guardaba a la esperanza. Kratos liberó todo eso por su cuenta, y utilizó el poder de la esperanza para derrotar a Zeus.
Y cuando eligió suicidarse, lo que eligió no fué solamente no quedarse con ese poder, sino también distribuirlo, dárselo a la gente desesperada de esa Grecia ahora en ruinas. Las otras opciones eran apropiárselo, tomando el lugar de los dioses asesinados, o bien dárselo a una Atena manipuladora y en la que no se podía confiar.
Kratos eligió el sacrificio: un poco convenientemente para ponerle un fín a su insoportable historia de miseria y destrucción, pero otro poco también para que después de él quede algo qué vivir, algo de esperanza, y que su historia no sea ni la última ni la única posible. Aunque finalmente no murió, por cuestiones de la historia.
Un Kratos ya más entrado en años también se retiró a intentar vivir con la experiencia de semejante desastre que fué su vida en Grecia. Y aunque Kratos no entró en ninguna academia, se concentró en su rol de padre antes que nada como mentor, instructor, pretendiendo transmitir su conocimiento crítico de la guerra a su hijo.
Pero Kratos pretendió esconderse de la guerra, mantenerla lejos, combatirla de alguna manera simplemente quedando fuera de los conflictos del mundo por vías del exilio. Cosa que más tarde se mostró irreconciliable con la realidad cuando su hijo Atreus no sólo quiso aprender los pormenores de la historia de ese mundo, sino de su propia familia también, y por esa vía la búsqueda de conocimiento lo llevaría hacia el conflicto que Kratos tanto pretendía evitar.
Los intentos de Kratos por mantenerse lejos de la guerra duraron poco, y muy rápidamente su estrategia de vida debió girar hacia intentar él tambien entender la historia que tanto ansiaba conocer Atreus, acompañarlo en esa búsqueda, e intentar usar su experiencia para proteger al futuro de los eventos atroces del pasado.
Más allá de que una teórica de la guerra pueda tener cosas para decir sobre la guerra, también es cierto que Amanda Peralta fué efectivamente guerrera. O guerrillera, si acaso es pertinente la diferencia. De modo que tampoco debería sorprender que puedan encontrarse vínculos entre su trabajo y los cuentos sobre dioses de la guerra o sobre guerreros legendarios. Sin embargo, The Last of Us no tiene ninguna de esas cosas.
En The Last of Us, como ya dijimos antes sobre Kratos, lo que hay es una historia de apocalipsis e historia de origen traumática, además de que Joel se presentaba desde temprano como un tipo excepcionalmente prolífero en los usos de la violencia.
Aunque esta vez no era idealismo, ni venganza siquiera, ni había ningún horizonte de futuro de la humanidad o siquiera ninguna profecía: era una supervivencia cruda, conservadora, y hasta por qué no nihilista. 20 años después del asesinato de su hija, Joel nunca había vuelto a formar otra pareja, intentar armar otra familia, ni siquiera imaginar ningún proyecto de vida, como sí lo hizo Kratos. Si le preguntábamos a Joel, no había ninguna vida qué imaginar ni por la cuál pelear, salvo la de une misme: la vida es una mierda, y une vive para no morir, fín.
Está claro que ningún ser sensible y racional quedará jamás satisfecho de su propia existencia con una explicación semejante, pero también cualquier adulto sabe que los problemas existencialistas muy fácilmente se las rebuscan para pasar a un segundo plano cuando una realidad hostil se impone, y así la vida se hace llevadera un día a la vez por poco sentido que pueda tener. Ese al menos es el caso cuando une no cae en algún pozo depresivo, o situaciones sejemantes de salud mental. Con lo cuál me parece legítimo aplicarle a Joel el título de “sobreviviente”.
Pero si en Kratos pudimos encontrar algunas cosas remota y laboriosamente asociables a las experiencias de algunas izquierdas, en realidad Joel parece más un avatar de los principios de las derechas. Joel no está tratando de revolucionar nada, ni está reaccionando contra ningún agresor por ninguna injusticia, ni siquiera pone en juego alguna gran idea de ningún tipo: es la sobreadaptación personificada.
Su cuasi nihilismo, y aversión al idealismo y los vínculos interpersonales por fuera de las transacciones comerciales vinculadas a la supervivencia, es adaptarse al mundo espantoso que le tocó vivir y poco más que eso. Cuando la supervivencia se plantea como eje rector del proceso de toma de decisiones, las reglas morales, ideales, institucionales, culturales, o de cualquier otro tipo, son todos constructos de grado muy inferior a las condiciones de la praxis cotidiana.
O, puesto en palabras menos sofisticadas: sobrevivir implica ensuciarse las manos, y cuando eso implica violencia las reglas son directamente un lujo. Si a eso le sumamos que Joel finalmente termina por actuar activamente en contra de la salvación de la humanidad y beneficiando sus propios intereses personales en aquella polémica escena del hospital, y lo hace a plena conciencia, la figura de Joel bien podría coincidir con la del empresario inescrupuloso que hace cualquier cosa con tal de obtener ganancias y nunca perder nada, o incluso hasta con la figura del mafioso.
Esas lecturas se van desvaneciendo a medida que se le presta atención a la historia y la cosmovisión de Joel se va transformando en algo mucho más humanizado a partir de su vínculo de cariño con Ellie. Pero el temple original de “tipo duro” de Joel en realidad era algo mucho más parecido a ser un absoluto desalmado, como Kratos en su peor momento. Y como Kratos, ese Joel nació de una tragedia familiar dolorosa hasta lo indecible.
De hecho, pasó buena parte del resto de su vida sin decir una sola palabra al respecto, así como Kratos también tuvo sus serios problemas para poder volver a poner en palabras su propia historia. Y entonces, frente a Joel, cabe la pregunta de por qué seguía vivo.
Kratos primero vivía por venganza, luego intentó quitarse la vida, y más tarde, al fracasar en su suicidio, simplemente se fué a buscar una vida pacífica donde ya no le hiciera daño a nadie. ¿Pero Joel? ¿Para qué continuaba con su violencia nihilista y desesperanzada de ningún futuro mejor ni compromiso con ninguna generación futura, en lugar de simplemente ponerle fín a su vida?
La respuesta estuvo merodeando en las teorías de fans a partir de alguna línea de diálogo entre Joel y Ellie, pero finalmente se hizo explícita cuando adaptaron la historia a una serie de televisión. Joel también intentó suicidarse: él no quería seguir vivo. De modo que convivía con ambas cosas: su aversión por la muerte, y su aversión por la vida. Y acá es donde podemos analizar otro aspecto más de los trabajos que estamos considerando.
Recién decíamos “Joel era de derecha”, y lo comparamos con empresarios o mafiosos. En realidad, el conservadurismo de Joel tranquilamente pudo ser comparado con el de cualquier obrero promedio de clase media o pobre, pero por alguna razón nunca del todo explicada él más bien terminó quedando como una referencia exitosa de un cuentapropismo post-apocalíptico, y hasta un tipo digno ser respetado o de temer: un referente no sólo de violencia, sino también de autonomía.
¿Por qué no siguió siendo un carpintero, un obrero de la construcción, en un mundo donde ciertamente esa mano de obra no le venía mal a nadie, si eso también le permitía seguir siendo conservador o hasta nihilista? Y alguien podría decir, considerando aquello del suicidio, que elegir la vida de contrabandista en un mundo ultraviolento era un poco encontrar el ticket al cielo o el infierno: buscar una ocupación que lo expusiera efectivamente a morir de una buena vez.
Sin embargo, Joel le escapaba a las operaciones demasiado peligrosas por considerarlas idiotas: buena parte de su anti-idealismo se justificaba de esa manera. ¿Entonces? ¿A qué venía esa vida de violencia de Joel?
La respuesta que proveemos aquí es especulación. Los datos están en el juego o en la serie, pero no está establecida una relación lineal entre el detalle que traemos y el comportamiento de Joel. Sin embargo es verosimil.
Sucedió que el intento de sucidio de Joel fue al poco tiempo luego de la muerte de Sarah: no pasaron muchos años hasta que decidiera terminar su vida, sino que fue más bien durante el peor momento de dolor por el duelo, probablemente apenas días después del evento. Pero su incapacidad para quitarse la vida no lo llevó precisamente por un camino de bondad y compasión, sino más bien todo lo contrario: la experiencia de Joel era la de odiarse a él mismo, y odiar también al mundo.
De hecho, el juego relata que, antes de vivir dentro de la zona de cuarentena en Boston, durante algún tiempo que no queda claro cuánto habrá sido, Joel se dedicó a ser “cazador”: un título que se ponía a la gente que emboscaba y asesinaba a otra gente típicamente inocente. Un ladrón y un asesino, básicamente, con la única diferencia de que en ese mundo no había ley que fuera a impedirlo o siquiera cuestionarlo.
Su ideario de “supervivencia a cualquier costo” más bien sonaba a una excusa para poder ser él mismo violento. Y un poco eso queda evidenciado en su pelea con su hermano Tommy, al que arrastró hacia esa misma vida. Juntos llegaron eventualmente hasta la zona militarizada de Boston, a la cuál entraron de manera ilegal, y allí adentro fué que discutieron y se separaron: Tommy estaba cansado de esa vida nihilista, y había oido hablar de las fireflies, así que se uniría a ellas.
De modo que Joel, ya enteramente por su cuenta y sin Tommy, se asentó en la zona militarizada y continuó su vida de violencia sin necesidad de exponerse tanto a las inclemencias de los zombies merodeando en la intemperie: algo así como un punto medio entre la civilización y la barbarie, sin grandes compromisos con ninguno de los dos.
Y con esa perspectiva queremos frenar un minuto y repensar de qué estamos hablando. Yo tengo 40 años, y puedo dar fé que mi generación ya tiene suficiente con las advertencias acerca del uso de la violencia. Desde sobrevivientes de tiempos más violentos como lo es Amanda Peralta, hasta una infinidad de comentarios sobre cómo la violencia en los video-juegos podría volvernos violentes a nosotres jóvenes jugadores y jugadoras, pasando por incontables observaciones sobre la violencia en la televisión, en el cine, en las historietas, o hasta en la música. Pero así y todo la violencia sigue siendo una especie de amenaza infinita y hace falta entonces repetir hasta el hartazgo la misma enseñanza que nadie nunca aprende. Ya desde muy jovencito esto me despertaba serias sospechas de que algo no andaba bien con todas esas denuncias contra la violencia.
Es cierto que los videojuegos tienen cuotas importantes de violencia, y reconozco que es legítimo llamar la atención sobre ello.
Pero como marca generacional yo defendí y defiendo mucho a los videojuegos, y en esa defensa siempre supe responder con el siguiente argumento cuando alguien de mis generaciones anteriores me advertía sobre la violencia: “dos guerras mundiales, dos bombas nucleares sobre territorio civil, no sé cuántos holocaustos y genocidios, todo eso sin videojuegos, y nada de eso llevado a cabo por mi generación. ¡Lávense la boca antes de responsabilizar a mi generación por la violencia en la sociedad!”
La violencia en los videojuegos, aún cuando pudiera ser un reclamo atendible y legítimo, me pareció siempre más bien un chivo expiatorio para otros problemas. Y esto se hace más y más evidente con casos como God of War y Last of Us: dos obras maestras absolutamente aclamadas, donde la descomunal y hasta exagerada violencia no parece actuar en detrimento de poder plantear una historia conmovedora, emocionalmente madura, y fundamentalmente movilizante. Si la violencia es acaso tan nefasta y deshumanizante, ¿cómo es que logra convivir con todo eso otro?
Y con esa pregunta planteada, finalmente llegamos a la tesis de este trabajo. Lo que aquí vamos a sostener es que, precisamente, el problema no es la violencia.
Toda esa violencia que vimos tanto en nuestra historia real como en aquellas historias ficticias, no son la enfermedad, sino apenas uno de los síntomas.
Si bien los tres trabajos claramente nos dicen cosas acerca del uso de la violencia, y si bien algunas son más obvias que otras, queremos prestarle atención a una de ellas.
La violencia es fácil de pensar en los casos de Kratos, que fuera específicamente criado para ejercerla y luego despojado de cualquier otra forma de elección de vida, y en el caso de Amanda Peralta, donde la violencia era la regla de su tiempo y la marca clara de una injusticia contra la que decidió levantarse sin tampoco muchas otras alternativas operativas; pero en el caso de Joel se vuelve extraña, difusa, mucho más difícil de justificar.
De hecho, los actos de Joel casi que permiten caracterizarlo como una pésima persona, muy lejana a cualquier idea de heroismo, mucho más cerca de ser entonces un villano, y por esa vía difícilmente ningún avatar de nada que podamos calificar positivamente. Pero sin embargo, y al mismo tiempo, la historia de Joel también es la de una rehumanización, una recuperación de una humanidad que seguía latente dentro de ese cascarón de muerte y cinismo en el que se había convertido. Rehumanización que estuvo mediada también por la violencia, y no alejada de ella, del mismo modo que también le sucedió a Kratos en su paso por Asgard.
Joel no era violento ni por decisión de los dioses ni musas, ni por ninguna inevitabilidad económico-material de los mercados ni la historia, sino porque esa fué la manera que encontró de vivir consigo mismo. Esa violencia fué la forma en la que pudo canalizar sus emociones en el mundo que le tocó, y así relacionarse con él de alguna manera, por las vías de la catarsis.
Bajo ningún punto de vista pretendemos instalar la idea de que convertirse en un asesino despiadado es alguna forma de “terapia”, pero sí mostrar que un personaje como Joel se entiende mucho más a través de lo insoportable de sus experiencias de vida que intentando trazar líneas lógicas de razonamiento.
Ese cinismo o hasta nihilismo de Joel, que a todas luces operaba sobre un trauma y un bloqueo emocional que contuviera aquellas sensaciones sobrecogedoras e invivibles que llevaban hasta al suicidio, por algún lado requerían también alguna forma de conexión con el mundo.
Lo de Joel no era ningún plan racional de vida: era literalmente supervivencia como le saliera. No era hipócrita, como quien busca excusas para no aceptar la verdad de lo que hace: era sincero, aún cuando no exactamente racional. Y allí, la violencia, más que su problema, era el mecanismo por el cuál podría expresar de alguna manera todo aquello que no podía ni poner en palabras ni tampoco siquiera someter a alguna reflexión minimamente sanadora. Toda esa violencia era la pura catarsis de lo que Joel llevaba dentro.
Ni Amanda Peralta, ni Joel, ni Kratos reflexionaron sobre la violencia por la violencia misma, por alguna forma de ejercicio ocioso, sino que lo hicieron sólo cuando tuvieron oportunidad de considerar otras alternativas, de ver las consecuencias del uso de la violencia, y muy especialmente de verse a si mismes como articuladores y responsables de tales consecuencias.
Todes tenían razones para hacer lo que hacían, pero en todos los casos esas razones se volvieron excusas y justificaciones pecaminosas cuando en realidad se daban cuenta de que querían hacer otra cosa, _ser_ otra cosa.
Y esas ganas de “ser otra cosa” no florecieron porque llegaron a la conclusión racional de que “la violencia es universalmente mala” ni nada por el estilo. En todos los casos, una vez realizada la catarsis adecuada, tuvieron una ventana de oportunidad para apreciar las situaciones desde otro punto de vista.
Pero atención que eso tampoco fué por obra y gracia del espíritu subjetivo de cada une de elles, sino en enorme medida por las cambiantes condiciones materiales que les rodeaban.
Esa catarsis de la que hablamos se realiza en relación a sentimientos propios de cada une de nosotres, pero también son sentimientos que tienen un origen y arraigo en la realidad material conviviendo con nuestras voluntades, y existen en busca de un destino hacia donde ser canalizados. En el proceso catártico somos mucho más intermediarios que creadores, y es un proceso que se inicia siempre en relación con la realidad que nos toca vivir.
Y si bien todo esto último suena sofisticado o hasta dramático, lo que la caracterización de Joel requiere para entender su violencia es lo mismo que requieren tantas otras formas de violencia normalizadas en nuestras sociedades y aceptadas con absoluta naturalidad.
La violencia como ejercicio de catarsis es lo que explica la violencia en los videojuegos, los deportes violentos, el hecho de que podamos ver películas de gente tirando piñas y patadas como algo que consideramos “espectáculo” o hasta “entretenimiento”, y tantos otros casos culturales más. En tanto que violencia, como acción humana, no queda eximida de ser una vía de catarsis, y de esa manera una experiencia tan liberadora como representativa de nuestras propias emociones.
Y eso ya son dos dimensiones de análisis. Por un lado, la liberación catártica nos permite readecuarnos al mundo desde otro estado emocional radicalmente diferente al anterior.
Y por el otro, su representatividad nos permite interactuar, acercarnos, agruparnos, con otras personas que sientan cosas similares, pudiendo así volverse una herramienta rehumanizante en tanto creadora de vínculos sociales, y dando oportunidad a resignificar aquellas emociones originalmente tan problemáticas para canalizarlas con otros fines.
Pero atención, que nada de esto pretende ser una idealización, ni siquiera reivindicación, de la violencia: por el contrario, en este canal somos intelectuales y pacifistas, no gente violenta.
Lo que aquí estamos planteando es que resulta técnicamente equivocado advertir sobre la violencia como si fuera una especie de razgo unidimensional de la condición humana, cuasi irracional y perpetuamente injustificable.
Lo que estamos diciendo es que el problema no es la violencia en sí, sino lo que dá lugar a ella en primer lugar: aquellas emociones que luego deben ser canalizadas, expresadas, representadas y puestas a trabajar en el cambio de condiciones inmediatas de lo que nos toca vivir y se vuelve invivible.
Esa experiencia catártica también revela una serie de cosas sobre lo que se está sintiendo y expresando, y es donde Joel se vuelve un caso de análisis productivo en su contraste con Kratos o Amanda Peralta. Porque si bien son todos casos de avatares de la violencia, con Kratos o Amanda Peralta siempre vamos a poder justificar sus actos de una manera más o menos racional, pero Joel se muestra mayormente injustificable.
Y sin embargo, si le escapamos a la racionalidad, los fenómenos son los mismos: les tres tienen un origen trágico, les tres se vuelven violentes, y les tres finalmente escapan al camino de la violencia catártica y encuentran rehumanización.
Visto desde esta perspectiva, aún tal vez habiéndose convertido en monstruos de acuerdo a algunos juicios, es difícil intentar afirmar que no son también víctimas en primer lugar, y que entonces la violencia que encarnan no es tanto el problema en cuestión: eso sería un poco como culpar a la persona resfriada por sus estornudos, sin prestar atención a la enfermedad de fondo.
Este nos parece el problema generalizado con la figura de la violencia.
Es un tema muy serio, pero se lo toma como si se tratara exclusivamente de una especie de ciclo infinito de violencia como repetición de la violencia en sí, cuando en realidad es otra cosa lo que está sucediendo. Y si eso es correcto, entonces la emergencia de la violencia puede tener otros orígenes.
Del mismo modo que Amanda Peralta llamó a dejar de tomar el concepto de “guerra” o de “militancia” de forma acrítica, nosotres acá llamamos la atención sobre el mismo problema con el concepto de “violencia”.
Podemos pensar que si bombardean tu ciudad, muy probablemente consideres tomar las armas para luchar contra el ejército enemigo que bombardea tu ciudad, y eso tiene pleno sentido lógico y racional; del mismo modo que si un dios o cualquier otra entidad articula el asesinato de tu familia es verosimil reaccionar jurando venganza.
Pero cuando salimos a la calle, en nuestra vida cotidiana, la violencia con la que convivimos hoy en día parece mucho más gratuita, desproporcionada, irracional: gente asesinada por discusiones de tránsito, en situaciones de robos menores donde la víctima ni siquiera se defiende, en demostraciones cuasitribales de valía machista entre adolescentes, y demás barbaridades injustificables.
Eso convive también con grupos criminales dedicados a aterrorizar a la población para someterla a sus mandatos, lo cuál de irracional no tiene nada; sin ir más lejos, compárese con las justificaciones de la revolución fusiladora para entender que tampoco tiene nada de nuevo.
Pero aquella otra violencia más bien irracional e injustificada también existe, es visible desde que tengo memoria, y todavía hoy parece escapársele al análisis de la persona común y corriente, a sus interlocutores mediáticos, como una especie de incógnita. Como no es “violencia previa” la causa, entonces se le empiezan a decir “violencia” a cualquier cosa, o se empieza por ejemplo a hablar de “microviolencias”, en lugar de criticar la tesis de la “violencia previa” en sí. Y si no es necesariamente “violencia previa” la causa, necesitamos entender qué sí puede serlo.
Un proceso de violencia catártica no necesita exactamente violencia previa, sino que alcanza con emociones que tiendan a ser invivibles. Y está lleno de situaciones en nuestras culturas contemporáneas a las que nos vemos expuestes y nos generan un constante ejercicio de tolerancia sin el cuál sencillamente explotaríamos en brotes de furia.
No es solamente violencia: la miseria, la burocracia kafkiana, la incertidumbre económica o hasta directamente alimenticia, la complejidad inabarcable de un mundo al mismo tiempo inmenso y muy chiquitito, los choques culturales, la falta de techo o salud, el vivir con miedo a la violencia aún sin padecer actos concretos de violencia, los conflictos ideológicos, o hasta las propias urgencias emocionales personales. Creo no estar revelándole nada a nadie con esto que digo, y confío sea algo que cualquiera pueda visualizar fácilmente.
Pero el punto de todo esta parte del trabajo no es revelar, sino plantear y poner en foco, un detalle vinculado a las advertencias históricas sobre la violencia: el problema no es la violencia misma.
Parte 5: La virtud de los desalmados
Hay una frase célebre de Oscar Wilde que dice: “el patriotismo es la virtud de los tiranos”. O, al menos, esa es la versión que me llegó a mí de jovencito, en algún subtítulo de alguna película de acción en VHS.
Mientras escribía este ensayo revisé un poco la cita por internet, para ver si realmente existía, y encontré que en lugar de “tiranos” frecuentemente lo traducen como “sanguinarios” o “depravados”. El original, aparentemente, decía “vicious”. Y es pertinente para lo que venimos hablando.
Uno de los importantes análisis que realiza Amanda Peralta en su tesis pasa por la cuestión de la efectividad de la revolución socialista en Cuba.
Es decir: la cubana fué una excepción entre la numerosa lista de revoluciones socialistas, comunistas, marxistas, en todo el planeta. Las mismas frecuentemente fracasaron, y entonces el caso cubano, cuyo proceso revolucionario continúa vigente hoy en día, se volvió extremadamente inquietante por aquel entonces.
Y era el mismo momento de las grandes ideas en pugna, y del gran auge de las ciencias sociales luego de la bomba atómica, y de la más sofisticada y tensa diplomacia en medio de la guerra fría… la revolución cubana se volvía una experiencia extraordinariamente valiosa para entender no sólo los procesos revolucionarios, sino directamente los posibles futuros de la humanidad en lo inmediato.
En ese contexto se intentó conceptualizar y sistematizar la experiencia de la revolución cubana en alguna teoría que operara de marco para repetir la misma experiencia en otros paises. Y esa teoría fue el foquismo.
Amanda Peralta, cuenta ella misma, se subió a la ola del foquismo, por la que su generación se vió profundamente interpelada.
El foquismo terminó siendo un fracaso generalizado, Guevara mismo murió asesinado en uno de tales fracasos, y en general lo único que logró fue dañar la percepción popular de las izquierdas y justificar una reacción conservadora, o al menos eso se le recrimina frecuentemente. En algún momento el foquismo se mostró como la estrategia revolucionaria de vanguardia, pero hoy se usa más bien como término despectivo luego de que el juicio de la historia le bajara el pulgar.
Pero decíamos antes, Amanda Peralta estuvo ahí, vivió eso, y no sólo contó su historia sino que también la analizó, y por esa vía logró desarticular algunos detalles sobre el marxismo, el foquismo, y la teoría de la guerra en general. En primer lugar, supo rastrear una histórica influencia de las ideas de Clausewitz en la tradición marxista, ya desde el momento de Marx mismo, pero muy especialmente a través de Engels.
Aquello de “la continuación de la política por otros medios”, concluyó, si bien parece algo cercano al sentido común, tiene necesariamente mucho de interpretación ideológica. Ella cita al caso las reflexiones de Clausewitz mismo cuando dice “la guerra tiene su propia gramática pero carece de su propia lógica; su lógica es la lógica política”.
Y por esa vía, atravesando diferentes conceptos de “guerra”, el rol del Estado, y la relación con la población civil, Peralta notó cómo en aquellos axiomas de Clausewitz se podía llegar legítimamente a inferir que la guerra se convierta en la necesaria e inevitable continuación de la política.
En sus palabras: “No todo el mundo puede distinguir en realidad entre una categoría militar y una filosófica o política. Esto es particularmente cierto en los análisis militares, que tratan de llegar a conclusiones políticas sobre la guerra con su propio aparato conceptual”.
Pero además de los problemas categoriales y las influencias ideológicas, un caso particular fue notoriamente influyente en la tradición marxista, y especialmente la americana.
No es lo mismo pensar revoluciones en paises otrora centrales, como pudieran serlo Francia, Alemania, o Inglaterra, que pensarlas en los paises periféricos. En América, todas las revoluciones fueron nacionalistas y anti-coloniales: fueron revoluciones independentistas mucho antes que representantes de conflictos ideológicos que articularan grandes ideas en pugna.
Por esa razón la idea de “libertad” siempre fué una de las banderas más prolíferas del continente, y en buena medida también por cosas como esas el marxismo nunca tuvo tanta injerencia en América como sí lo tuvo en otros lugares del mundo.
Y más allá de los muchos detalles en esto, de allí surge una importante característica de la revolución cubana: ni siquiera fué una revolución marxista, sino nacionalista y liberadora.
El movimiento 26 de Julio, aquel movimiento revolucionario liderado por Fidel Castro, era una gesta revolucionaria patriótica, libertaria, y articulada contra la figura de un tirano. El pueblo cubano no abrió los brazos a los revolucionarios por los textos y principios marxistas, sino por la figura de la liberación nacional, tal y como sucedió muchas veces en todo el continente. Pero no fué sino hasta después de derrocar a Batista que, una vez en situación de necesitar decidir la estructura y lineamiento de gobierno, optaron entonces por el marxismo-leninismo.
La revolución cubana no fué una revolución comunista, y esa es una parte constitutiva de su éxito: fué una revolución ante todo nacionalista. Ese es uno de los detalles sobre los que Amanda Peralta llama la atención en su análisis, y sobre cómo más tarde se mezcló la tradición de interpretaciones políticas sobre la guerra en el marxismo junto con el nacionalismo. Y cito directamente desde la tesis:
“En las ideologías nacionalistas, estas ideas han dado argumentos a la política expansionista nacional y belicista, y en el marxismo han dado estructura a una visión militar de la lucha de clases y a una tendencia a imaginar el proceso revolucionario principalmente en términos de guerra. Esta influencia hace que el conflicto social y político sea percibido casi como un acto de guerra.
Surge una tendencia a pensar la política en términos militares y el aparato conceptual militar se transfiere a la política. Los objetivos políticos se perciben como alcanzables sólo a través de la guerra. De este modo, el aspecto militar cobra cada vez más importancia desde el punto de vista político. (…) Si el objetivo político de la guerra es un cambio social estructural que acelere el progreso de la historia, la guerra se considera como legítima.
(…) Durante un proceso de guerra revolucionaria, estas dos diferentes concepciones de la legitimidad generalmente se confunden: la guerra se libra para poner fín a las injusticias sociales, e introducir un nuevo orden económico y social en la sociedad.”
Está claro que el análisis no se aplica solamente a las tendencias marxistas, y la “gramática de la guerra” opera sobre la política en general. La época de Amanda Peralta tuvo lugar durante la peor parte de la guerra fría, y durante el auge del foquismo.
Pero el momento cuando ella bajó las armas ya era otro tiempo diferente, donde todo parecía más difícil no sólo de justificar sino también de entender. Ella misma hablaba de “confusión” y de una necesidad de reflexionar sobre lo que estaba sucediendo. Y lo que estaba sucediendo es algo que para mi generación ya está bastante claro: era el momento del auge neoliberal, el anti-socialismo creado en laboratorio por think-tanks muy bien financiados durante décadas.
Y mientras el “socialismo real” de la Unión Soviética llegaba por momentos a estar casi en las antípodas de los ideales que decía representar, los paises de la OTAN se volvían cada vez más beligerantes, en simultáneo a que el estado de bienestar keynesiano mostraba sus debilidades y aparecían crisis energéticas.
Lo que pasó fue que el mundo se puso cada vez más hostil para todes. Mi continente en particular tuvo que padecer el Plan Cóndor. Pero la verdad es que el resto del planeta tampoco estaba en su mejor momento.
En los setentas, las derechas hicieron responsables a las guerrillas de izquierda de toda la violencia instalada en la sociedad.
Pero de eso hace ya 40 o 50 años, la Unión Soviética no existe más desde hace 30, Cuba es una isla aislada y mayormente intrascendente, el “socialismo del siglo XXI” venezolano implosionó luego de la muerte de Hugo Chavez, no parece haber un sólo análisis sobre la actual China comunista que no le diga a su gobierno “capitalismo de estado”, y en las sociedades en general el marxismo solamente se encuentra en libros bastante polvorientos o en universidades donde se estudian cosas que no son las que terminan garantizando un trabajo digno. Y sin embargo, acá estamos: sociedades cada vez más violentas.
Las guerrillas marxistas fueron reemplazadas por organizaciones narcotraficantes proveedoras de drogas recreativas ilegales a los paises más ricos del mundo, pero fabricadas en nuestros paises sometidos bajo regímenes de brutalidad. Organizaciones mafiosas de todo tipo condicionan no sólo las voluntades populares sino muy especialmente a sus representantes y funcionaries públiques: jueces, legisladores, presidentes.
El colonialismo sigue rigiendo de-facto a nuestro continente, sometiéndonos al accionar de servicios de inteligencia, mafias locales, y el sistema financiero internacional, de modo tal que la autonomía de las naciones sea una caricatura y dediquemos nuestra existencia a mantener el modo de vida de otra gente que vive muy lejos nuestro y de maneras muy diferentes a las nuestras. Y en ese contexto, los pueblos no están eligiendo ningún tipo de marxismo, sino más bien extremas derechas. Hoy lo que vuelve no es el comunismo, sino el fascismo.
Los trabajos que presentamos para analizar nos hablan sobre la violencia. Pero nosotres les vamos a pedir que los vean con otro foco.
Ya dijimos que la violencia no se explica por sí sola, y con todos sus enormes peligros tampoco es algo necesariamente malvado y perverso. Al caso revisamos comparaciones laboriosas entre Amanda Peralta y Kratos, pero también entramos en el caso de Joel para ver un detalle que la racionalidad causalista frecuentemente omite, y es el de la catarsis.
Catarsis que como concepto frecuentemente forma parte de los estudios del arte, pero que en rigor es un mecanismo de nuestro aparato psíquico, cognitivo, emocional: una cuestión humana. Y sobre la catarsis mencionamos dos dimensiones de análisis: su necesidad de un contacto con la realidad, y su representatividad frente a otres.
Dijimos que la violencia en la sociedad actual, si bien en muchos casos es legítimo explicarla en base a la violencia previa, en muchos otros casos no: como sucedía con Joel en su contraste con Kratos y Amanda Peralta, está lleno de casos cotidianos donde la violencia es difícil de explicar, y hasta parece alguna forma de “locura”.
El chivo expiatorio luego de que dejaran de existir las guerrillas marxistas pasaron a ser “las drogas”, en tandem con “la televisión” o “los medios”: todas cosas que “te vuelven loco” o “te queman la cabeza”. Los videojuegos tienen también su lugar en esa explicación. Y tal y como sucedía con las guerrillas marxistas, son verdades a medias: efectivamente allí hay violencia, pero eso está muy lejos de ser una explicación.
Una discusión de tránsito que escala hasta el homicidio, por dar un ejemplo típico, se explica mucho más por catarsis que por influencias explícitas o estrictas de violencia previa. Y, francamente, permítanme anotar, lo más probable es que los vieojuegos violentos sean una forma mucho más saludable de hacer catarsis violenta que entrar en peleas con desconocidos por nimiedades.
Precisamente, nuestros niveles de tolerancia completamente saturados explican mucho mejor las explosiones de violencia furiosa, desesperada, o hasta nihilista, que se ven a diario en nuestras sociedades contemporáneas. Y esa saturación, esa sobrecarga de nuestros niveles de tolerancia emocional, no puede venir más que de nuestras propias experiencias cotidianas.
Cualquier marxista diría con razón que allí lo que hace falta analizar entonces es “las condiciones materiales e históricas” en las que eventos indeseables como esos suceden, especialmente las condiciones de orden socioeconómico, o si se quiere incluso directamente las de clase social. Esto es evidente: el pobre tiene una vida peor que el rico, no hay discusión seria posible al respecto, y las razones sistémicas de esa pobreza y esa riqueza son entonces absolutamente pertinentes.
Pero los modos particulares de los fenómenos también son pertinentes, y aquí no creemos que sea enteramente cuestión de clase. Por supuesto que sí lo es: pero también hay otras condiciones, que si estamos en lo correcto no dependen de la clase social, o siquiera necesariamente de la economía, y no por ello dejan de ser condiciones materiales e históricas. Nos referimos a las de orden cultural.
Una sociedad, en tanto que sistema, consiste en las relaciones entre sus componentes.
La cultura es un marco de relaciones posibles entre las personas y la realidad material. En diferentes culturas se dá lugar a diferentes acciones políticas, diferentes sistemas de gobierno, y en definitiva diferentes organizaciones de sociedad. Así, la forma en que nos relacionamos entre nosotres forma parte integral de nuestra realidad, tanto cognitiva como política.
Lo que nos interesa marcar es que en diferentes culturas las relaciones entre las personas y la realidad se va a articular de diferentes maneras, aún cuando seamos todes humanes.
Y la cultura no es alguna forma de absoluto conceptual para una sociedad dada, sino que existen múltiples culturas implementadas en una sociedad, por los componentes de la sociedad misma, y de esa manera las diferentes culturas se influencian entre sí y van cambiando: no existe una cultura, pura, nítida, inmutable, de la cual hablar, sino tan solo recortes históricos y locales.
Los intentos por universalizar culturas siguen siendo fallidos hasta la fecha, y en el siglo XX casi llegaron hasta la guerra mundial termonuclear. Lo más parecido a alguna cultura universalizada es esto que vemos hoy en día, y que funciona así de horrible como se lo vé: un mundo de hegemonía neoliberal, que encima se pretende unipolar.
Amanda Peralta supo ver que algo raro pasaba en los setentas, y que las guerrillas “se convertían en el enemigo”. Para entender eso raro que pasaba fué a ver su propia historia a la luz de la teoría de la guerra.
Pero sin detrimento alguno a su trabajo, lo raro que pasaba era el giro neoliberal, cuya vanguardia formó parte central del Plan Condor. Y ese giro neoliberal, que fue cuidadosamente diseñado durante décadas y del que ya hablamos en varios videos anteriores, se esgrimía bajo consignas del tipo “no hay sociedad sino sólo individuos”, o bien “no hay alternativa”.
No era solamente la izquierda convirtiéndose en su enemigo, sino las sociedades de todo el mundo siendo sometidas a una influencia cultural que venía a romper cualquier tipo de lazo social que no fuera el de la competencia individualista: era la creación de una cultura de la crueldad.
En neoliberalismo se analiza frecuentemente desde sus insostenibles propuestas económicas, pero en lo cotidiano es un sistema mucho más de orden cultural que económico: sus relaciones sociales van a continuar siendo mayormente hostiles y eventualmente invivibles aún en momentos de bonanza económica.
En los setentas se articuló en base a golpes de estado, donde las fuerzas militares encarnaban la figura de una violencia mafiosa y genocida que supuestamente vendría a purificar las naciones del tan odioso comunismo, y terminó en desastre económico, político, y social.
Pero pocos años después, en los noventas, cuando el comunismo ya no existía más y el mundo ya era unipolar, se articularon principios socioeconómicos neoliberales que llevaron a la Agentina al desastre económico y político y social en el año 2001.
Hoy se vuelven a proponer los mismos principios como si nos fueran a salvar de algo: de la pobreza, de la violencia, de la corrupción. Y la razón por la que el neoliberalismo continúa seduciendo a los pueblos después de tanto tiempo de dar solamente decepciones y miseria y desastre, es que efectivamente representa la experiencia cotidiana del pueblo: una vida de crueldad.
Ante este planteo, pasamos a revisarlo un poco más en detalle.
Las “power fantasies” que mencionaba Just Write en su video sobre the daddening no son un caso solamente de “poder”. Si curioseamos otros casos de personajes de ficción poderosos y también mayormente orientados a adolescentes, encontramos muchos cuyo poder se articula de maneras protectoras o hasta benefactoras, aún cuando también violentas.
Por el contrario, esas “power fantasies” como la que encarnan un Kratos o un Joel son crueles. Parte de la catarsis a la que dan lugar, del disfrute que ofrecen, es la posibilidad de ser crueles en un entorno controlado y con un relato que lo justifique.
La violencia es instrumental para la catarsis, y da lugar a cierta representación en los personajes, pero no por eso la violencia particular que llevan a cabo deja de tener sus detalles importantes.
La historia de Kratos y de Joel coincide en el camino de vida que realizó Amanda Peralta: un día se dieron cuenta que por su camino se convertían en algo que no querían ser, y tuvieron una oportunidad de elegir otro.
Amanda Peralta abandonó la lucha armada, y con ello la guerra: aunque en declaraciones posteriores siempre pareció sospechar de que la violencia tampoco podía abandonarse definitivamente. Eso también forma parte del espíritu de su trabajo posterior, “por otros medios”, donde analiza las maneras, los objetivos, los modos posibles de la guerra, no solo intentando reflexionar sobre su experiencia sino también intentando dejarle algo a las generaciones futuras que enfrenten problemas similares. Finalmente ella abandonó la guerra, pero no la lucha, a la cuál transformó en investigación para desentrañar los problemas de su tiempo y de su pueblo.
Kratos también intentó abandonar la violencia y la guerra, pero tarde o temprano eso se mostró imposible, y entonces la decisión pasó a ser cómo se usa esa violencia, con qué fines, con qué medios: la misma búsqueda que Peralta rastreó desde Clausewitz para entender la tradición marxista.
A Joel por su parte el mundo no pareció darle nunca la opción de abandonar la violencia: pero no obstante también se cruzó con el problema de en qué se había convertido, por qué razones, y si realmente quería continuar ese camino.
Y en todos los casos el cambio sucedió recién cuando debieron considerar lo que dejaban a las generaciones siguientes, el cómo se relacionaban con ellas.
Ni Kratos ni Joel abandonaron finalmente la violencia, sino que la resignificaron: se volvieron protectores, padres, y mentores. Sus catarsis, aquello insoportable que llevaban dentro, no estaba determinado entonces por “la violencia”, sino por el mundo cruel y despiadado en el que les tocó vivir. Y lo que cambió en ellos fue lograr sostener relaciones de cariño con otras personas, pudiendo finalmente así rechazar aquella crueldad que los aislaba de les demás y los reducía a pura violencia.
Como le sucedió a Amanda Peralta y sus compañeres guerrilleres, por el camino de la crueldad se convirtieron en “el enemigo que antes estaban combatiendo”, y se dieron cuenta que por allí no se podía llegar a ninguna sociedad mejor.
Aquellas “power fantasies” tienen mucho más qué ver con dejar brotar libremente toda nuestra crueldad acumulada que venimos soportando, y nada mejor que un mundo absolutamente cruel para escenificarlo. Así, el “poder” que se experimenta en esa violencia no es tanto la violencia misma, sino ejercer nosotres una crueldad a la que nos vemos sometides en nuestro día a día.
Eso nos hace tener un vínculo catártico con los personajes, y por esa vía experienciar alguna forma de representación (y por lo tanto compañía), aún cuando se trate de personajes ficcionales haciendo cosas brutales en un mundo radicalmente diferente al nuestro.
La crueldad que acumulamos adentro nuestro, si bien viene de afuera, ya es nuestra. Y tenemos esa crueldad adentro en primer lugar porque la misma forma parte de nuestra cultura desde hace ya mucho tiempo.
Entonces, lo que pasa con esas fantasías de poder no es que nos creamos dioses de la guerra: nos sentimos empoderades al vivir nuestra crueldad como acciones justificadas.
El problema entonces no es la violencia: el problema es la crueldad. Y lo que se aprecia en esas escenificaciones catárticas es que la crueldad es la virtud de los desalmados.
Es lo que los hace sobrevivir en un mundo cruel, lo que les permite matar, y lo que finalmente les permite hasta destruir a sus enemigos. ¡Y cuanto mejor si acaso esa crueldad tuviera una justificación en un relato! En ese caso ya no son desalmados, sino alguna forma de héroes.
Con sensaciones como esas fue que generaciones como las de Amanda Peralta terminaron abrazando un militarismo que prometía gloria y sólo trajo desastre; es la misma historia que se relata de Kratos, cuando la gloria de la conquista militar le dejó finalmente vacía el alma. Y es la misma alma que Joel nunca logró llenar ni con toda la violencia del mundo.
Es pertinente notar que Kratos y Joel optaron por el suicidio para poner fín a su vida de miseria: así también se siente la crueldad. Pero no tuvieron éxito en sus intentos por morir, y debieron entonces seguir viviendo, frente a lo cuál improvisaron alguna vida posible para la persona en la que se habían convertido.
Y por muy campeones de la violencia y la supervivencia que pudieran haber sido, no fué suficiente para elles con simplemente seguir viviendo: hasta que no encontraron vínculos sanos y sostenibles con otres, no tuvieron oportunidad alguna de sanar su alma, ni de ser ninguna otra cosa más que instrumentos de crueldad.
Parte 6: conclusiones
Lo que comenzó en tiempos de Amanda Peralta, y que estamos viviendo hoy en día, es la implementación planificada de un sistema social de extrema crueldad.
Y en estos días mi país está atravesando un proceso electoral donde el pueblo coquetea con votar a Javier Milei: uno más en la larga lista de personajes instalados por gente con demasiado dinero, que se presenta como novedad para quienes viven alienades de la historia del país, y que representa catárticamente gente de toda clase social e ideología al hacer declaraciones mediáticas de crueldad; alguien que le pone voz a esa crueldad, que la legitima, que la publicita como absolutamente necesaria, y así le dá sentido a la vida invivible a la que está sometida mi pueblo.
Desde esa representación arma un relato mentiroso prometiendo gobernar para los intereses populares cuando sólo menciona propuestas políticas netamente corporativas que beneficiarían a los más ricos y a ninguna otra persona.
Un tipo que explota el profundo desencanto para con la política establecida, encarnando entonces una “tercera posición” supuestamente original y renovadora, pero trayendo al caso nuevamente el ideario neoliberal, e incluso literalmente a las personas que formaron parte de las anteriores iteraciones de gobiernos neoliberales, incluida la dictadura militar y genocida.
Argentina está a las puertas de elegir el fascismo, y para ello la crueldad es absolutamente central e instrumental: es, de hecho, la virtud de este desalmado que habla de grandes glorias en la competencia, en la guerra contra un enemigo que resulta ser el pueblo mismo. Pero al que confunde diciéndole que su sufrimiento está justificado por la acción de infiltrados corruptos entre el pueblo, y desde ese planteo nefasto dice luego que las cosas van a estar mejor cuando todo sea todavía más cruel. Darwinismo social neoliberal.
Este hombre logra representar a una parte importante de la sociedad porque efectivamente esa sociedad vive en condiciones cada día más insoportables: la crueldad que interpela es real, y exige una catarsis cada vez más urgente.
Y esa crueldad no es solamente “pobreza”, o “pérdida de poder adquisitivo”: es también tener que esperar meses para conseguir un turno médico, tener escuelas públicas que se caen a pedazos o hasta directamente ya no tienen vacantes, tener un transporte público colapsado e inseguro, no poder confiar en las instituciones en materia de seguridad o justicia, o padecer inundaciones y otros eventos naturales sin que durante décadas se implementen las obras de infraestructura necesaria para paliar sus efectos. La clase media también está harta.
Y no es solamente tampoco una cuestión de clase: esa crueldad va a tocar el corazón de quienes padezcan soledad, marginalización, problemas de salud mental, o dificultades de todo tipo en la vida frente a las que experimenten la insoportable crueldad del desamparo.
Hace tiempo la sociedad está siendo sometida a un asedio por parte de la derecha mafiosa y parásita de siempre, mientras del otro lado hay una centroizquierda pusilánime que ni enamora ni representa ni parece capacitada para prometer nada: siempre hay excusas para cumplir con urgencia las exigencias del sistema financiero, pero rara vez para cumplir las de los pueblos.
De esa manera, donde antes había conservadurismo y progresismo, ahora el mapa político está partido en tres bloques equidistantes, donde el tercero representa al hartazgo. Y es un hartazgo cuyo único cable a tierra llega curiosamente por derecha.
Ojalá fuera solamente un problema de Argentina. Pero lamentablemente se trata de un fenómeno mundial.
Y por ello ya en el 2021 el doctor en Historia Pablo Stefanoni se preguntaba si la rebeldía acaso se había vuelto de derecha: porque en pocos años comenzaron a aparecer en todos los continentes del planeta, e incluso en paises centrales, un montón de figuras carismáticas de derecha que mezclaban un tanto de incorrección política con otro poco de ideas disparatadas, y parecían ser muy eficientes en la interpelación de juventudes y de otros amplios sectores de la sociedad.
Estas derechas se muestran “rebeldes”: como en otra época lo hacían las izquierdas que combatían lo establecido hasta tomando las armas, pero que desde el auge del neoliberalismo parecen estar fuera de toda contienda política significativa.
En este trabajo nosotres sostenemos que el neoliberalismo se convirtió en la base cultural, y no económica, que da lugar a esa clase de fenómenos. Los ciclos económicos van y vienen, y cuando vuelve el keynesianismo sin demasiado esfuerzo se vuelve a elegir más tarde economía neoliberal con las mismas excusas de siempre.
Y el secreto para ello es sencillamente romper los lazos de solidaridad y humanización en la sociedad, ya sea por la vía de sembrar el miedo al otre o de seducir con la gloria de la competencia, generando en cualquier caso una alienación para con la historia, al mismo tiempo que una constante urgencia por catalizar los niveles cada vez más grandes de angustia y padecimiento personales.
Por eso, porque ya estamos en ese marco cultural, es que cualquier cosa que suceda en el mundo (pandemia, guerra, desastres naturales) siempre termina capitalizada electoralmente por las derechas. Esa cultura neoliberal al mismo tiempo desempodera a las izquierdas y corre toda discusión política hacia la derecha hasta donde llegue.
Y la economía es un chivo expiatorio. El objetivo no es enriquecerse, porque el keynesianismo y el estado de bienestar también les permite enriquecerse: el objetivo es un tipo particular de sociedad “donde el el hijo del barrendero muera barrendero”. Que digan lo que quieran sobre el marxismo: en este momento de la historia de la humanidad no existe ningún clasismo más intenso que el de las derechas.
Para sorpresa de nadie, el marxismo tan supuestamente obsoleto y superado en realidad lo estudian en detalle y utilizan a diario las personas que trabajan en los mercados de valores: el sistema financiero, y las escuelas de negocio. Eso es así porque Marx dejó un mapa conceptual de extraordinaria precisión sobre el funcionamiento del capitalismo, a punto tal que muchos conceptos hoy elementales para explicar la realidad económica son netamente marxistas. El marxismo no fué superado: fué apropiado y por las derechas. Y junto con Marx, ¿saben qué otro autor se lee en las escuelas de negocio?
Clausewitz. Toda esa “competencia” de “los mercados” que se supone le hace bien a alguien, está profundamente influenciada por la teoría de la guerra, y no debería tampoco sorprender a nadie que efectivamente conduzca hacia ello. Del mismo modo que les marxistes de la época de Amanda Peralta convertían “lucha de clases” en “guerra de clases”, así también lo hacen les capitalistes con sus negocios.
Amanda Peralta revisó la tradición marxista en su relación con la guerra, porque pudo apreciar que una concepción acrítica de la guerra podía llevar a consecuencias desastrozas. Y efectivamente encontró enmarañados en el marxismo a la guerra, la lucha de clases, la política, y la revolución. Por ese camino terminó rechazando las vías de la guerra, e intentando dejar algunas bases que den lugar a otra forma de política.
Pero desde aquel entonces, y mientras tanto, las derechas se la pasaron articulando todo tipo de guerras tan espeluznantes en sus consecuencias como costosas en su implementación, y mayormente fracasadas en su resultado final: “guerra contra las drogas”, “guerra contra el delito”, “guerra contra el terrorismo”…
las derechas insisten e insisten, y nunca parecen pagar el precio altísimo que debió pagar la izquierda por alguna vez haber tomado las armas y llevado violencia a las sociedades. En este trabajo, al respecto, nuevamente llamamos la atención sobre cómo eso es por una cultura, y no una economía, neoliberal: una cultura de la crueldad en la que no se puede vivir sin ciclos brutales de catarsis.
Y ante este planteo, me permito un breve paréntesis.
Cualquier marxismo vulgar sostiene que la lucha de clases es el motor de la historia. Respetuosamente, a mí la lucha de clases me resulta más parecida al caño de escape que al motor.
El juego de poner a la economía en el centro del razonamiento a esta altura podemos decir sin lugar a dudas que no ha beneficiado nunca a ninguna izquierda, y eso tiene mucho más qué ver con nuestra historia que el a qué clase social realmente beneficiamos.
No es que niegue los intereses de clase: creo haberlos reivindicado durante todo el ensayo. Mi llamado de atención es sobre otras dimensiones humanas que son por lo menos tan importantes como la economía para entender a las sociedades, y en este caso particular me refiero a la cultura.
Por los mismos años que Keynes le respondía al liberalismo, Freud ya hablaba del “malestar en la cultura” en uno de sus ensayos más citados. Y si tomamos las ideas populares de ese Freud al pié de la letra, de aquello de la sociedad sometiendo al sujeto como “motor de la historia” psicoanalítico probablemente no surja concepto más intensamente catártico que la libertad, el gran avatar neoliberal.
El punto de este paréntesis es que el neoliberalismo es una perversión del marxismo y del psicoanálisis, entre otras herramientas científicas liberadoras. Como contamos en otros videos, desde los think tanks neoliberales estudiaron a ambos, les quitaron la condición de “ciencia”, y luego usaron sus conceptos contra las voluntades populares. El neoliberalismo siempre fue multidimensional, por muy cavernícola que luzca.
Pero volviendo a la lectura sobre la guerra y las derechas, si bien Amanda Peralta sólo estudió la tradición marxista, ella publicó su tesis en 1990, cuando la guerra fría estaba terminando y con la caida de la Unión Soviética el marxismo pasaba más a decorar bibliotecas que a pelear ninguna sociedad diferente. Sin embargo, en 2005 hubo una segunda edición de su libro, y en el prólogo anotó algunas observaciones sobre las cosas que fueron pasando en esos años de hegemonía neoliberal planetaria. Y cito:
“De algo podemos estar seguros: el mundo unipolar no es un mundo pacífico.
(…) Aquel mundo tal y como lo conocíamos a principios de los años 90 ha dado un giro insólito debido a la organización en redes, Internet como el gran acelerador tecnológico de la globalización y la velóz internacionalización de diversos fenómenos sociales, desde las organizaciones de base no gubernamentales hasta la cooperación policial.
Algunos de los conceptos clave de la modernidad han perdido su significado, han sido cuestionados o bien sometidos a nuevas interpretaciones.
En un mundo donde las estructuras supranacionales se han convertido más en regla que en excepción, el nacionalismo, por ejemplo, se vuelve difícil de localizar y definir. Su papel se hace menos tangible. Aún así el nacionalismo surge todavía fingiendo como si nada hubiera sucedido.
Al mismo tiempo, el sentimiento nacionalista ha sido en gran medida desterritorializado. (…) Los territorios fijos desempeñan un papel cada vez más reducido para las nuevas identidades que van surgiendo. (…) Podemos constatar que la idea de revolución en sí misma se ha vuelto más difusa y plenamente vinculada a los movimientos sociales que tratan de implementar cambios sociales concretos desde las bases.
En este ámbito, se puede afirmar que se han superado las creencias militaristas que han dominado al movimiento radical por el cambio social en los últimos 200 años. Después de ese extenso período de tiempo, empieza a ultimarse el divorcio entre los conceptos de guerra y revolución. (…) El pensamiento radical parece tomar una distancia definitiva de la fórmula clausewitziana-marxista-leninista.”
Ahí termina la cita. El mundo finalmente cambió, la de Amanda Peralta no fué la única izquierda que bajó sus armas sino que todas las demás también lo hicieron, el nacionalismo se hizo cada vez más difícil de articular, y nada de eso hizo que el mundo pasara a ser exactamente más pacífico ni justo.
Eso fué escrito hace 15 años: otro montón de cosas más sucedieron en el camino. Pero como mencionaba antes, las derechas nunca parecen pagar el costo de la violencia. Amanda Peralta se perdió muchos eventos, pero ya en su momento tuvo oportunidad de escribir esta otra cita que traigo a continuación:
“Ahora es necesario formular otra pregunta: ¿en qué o en cuáles áreas es todavía actual la idea de Clausewitz sobre la guerra como continuación de la política? (…) El racionalismo de la modernidad con su pensamiento político-ideológico se convierte en un pensamiento cultural-étnico-religioso. El nuevo fantasma aterrador pertenece a otra civilización y adora a otro Dios. Se lucha contra él con la ayuda del propio Dios.
Las pasiones, los miedos y las creencias son motivaciones irracionales que se convierten en armas apropiadas en una guerra de este tipo. La ambición civilizadora y la afirmación universalista que caracterizaban al sistema mundial moderno-colonialista, viven todavía en el autoretrato occidental. Frases que conocemos desde el apogeo del colonialismo brotan hoy de las bocas del poder y son propagadas con entusiasmo por los medios de comunicación.
(…) El altruismo de los ciudadanos es un valor del que el Estado no puede prescindir ni puede forzar. (…) El Estado sigue siendo el principal responsable de la guerra, pero hoy cuenta con intereses privados que actúan como su socio o corresponsable. Esto implica que el concepto de política, que para Clausewitz significaba sólo la política del Estado y que los marxistas ampliaron a política de clase, modifica ahora su contenido.” (Fín de la cita)
Cuando escribió eso, hacía pocos años del atentado a las torres gemelas. Pero ya en su momento le había parecido claro que había una política diferente operando en el mundo, con una guerra también diferente. Una política más xenófoba, oscurantista, corporativa, privatizada. Un poco sostenida en algunas ideas de antaño, pero otro poco también adecuada a una realidad donde el altruismo de los pueblos ya no permitía llevarlos tan fácil hacia el conflicto, y sobre ese altruismo habría que trabajar.
Fue por esa vía que, apenas en una década, tanto internet como los medios masivos de comunicación comenzaron a experimentar cambios veloces y radicales, al mismo tiempo que crecían las ansiedades de las personas. Convenientemente llegó justo a tiempo una crisis financiera de escala mundial, que llevara a hablar al mundo nuevamente del ajuste necesario y la austeridad y el sacrificio al que se debía someter a los pueblos, mas no a los bancos ni las grandes empresas.
Súbitamente comenzó a ser estimulada la xenofobia y el racismo ya sin ningún tipo de vergüenza o moralina o siquiera reglamento en los medios de comunicación, y más temprano que tarde empezaron a aparecer por las calles de Estados Unidos hordas envalentonadas de jóvenes con antorchas e iconografía nazi hablando de resistencia.
La conspiranoia que en un principio generaba burla de repente llenaba estadios, y en 10 años desde que Amanda Peralta llamaba la atención sobre cómo los principios del sometimiento colonial pasaban a ser celebrados en primera plana, llegaba a la presidencia gente como Donald Trump.
El neoliberalismo, socialmente hablando, es una forma del fascismo: aquel monstruo supuestamente exterminado durante el siglo XX, que se decía popular pero resultaba ser corporativo, autoritario, y cómplice del capital.
Al respecto, Daniel Feierstein escribió recientemente un libro titulado “la construcción del enano fascista”, donde explora cómo los discursos de odio, y muy especialmente en expresión y representación mediática, son instrumentales para la configuración de prácticas sociales que formen parte de estrategias políticas, coherentemente con lo que venimos denunciando sobre la cultura.
Feierstein explica que el fascismo se puede caracterizar de diferentes maneras, donde él plantea tres: fascismo como ideología, como forma de gobierno, y como práctica social.
Él no estaría de acuerdo en nuestra afirmación de que el neoliberalismo coincide con “un fascismo”, pero de una manera u otra dedica buena parte de su libro a llamar la atención acerca de que, en tanto que prácticas sociales, estamos experimentando una ola política que se parece mucho al fascismo. Él advierte que la violencia en la sociedad está siendo estimulada, que los prejuicios acríticos circulan libremente por los medios del mismo modo que las mentiras, y que todo eso está articulado en función de la apatía para con las prácticas políticas. En sus palabras:
“(…) aquello que tienen en común [las experiencias nuevas] con las experiencias del siglo XX pareciera resultar mucho más importante que sus diferencias, muy en especial en torno a reflexionar sobre los modos necesarios para confrontarlos políticamente. (…) Caracterizar como fascistas las realidades contemporáneas solo puede tener sentido si es que las experiencias fascistas previas -y la lucha política para contraarrestarlas- puede tener algo para enseñarnos en el presente”. Y algunas páginas más atrás también afirmaba: “allí radica el aporte que pueden realizar las ciencias sociales: identificar similitudes en contextos diferentes”.
Con eso en mente fue que trajimos una tesis doctoral en ciencias sociales para hablar de nuestra actualidad política, aún mezclada con cosas tan heterogéneas y disímiles como pueden ser videojuegos o historias mitológicas: son contextos totalmente diferentes, donde de una manera u otra podemos encontrar los mismos problemas. Y si hablan de los problemas, también nos pueden ofrecer reflexionar acerca de qué hacer al respecto.
Nosotres pusimos énfasis en el detalle de la catarsis y la representación por sobre los actos de violencia en sí, y cómo la crueldad previa es un problema mucho más constante, invasivo, e insistente, que la propia violencia.
A veces mezclar las cosas puede ser banalizarlas, y las comparaciones requieren delicadeza; pero eso no quita que nuestro panteón de cobardes que juegan cruelmente con las vidas de las personas inocentes se llama sistema financiero internacional, que sus montes olimpos son rascacielos, que hoy el dios de la guerra ya no se llama Ares sino BlackRock, que fantasear nosotres con llevar la guerra hasta sus patios es una receta de desastre garantizado, y que si no queremos convertirnos en parte del mismo panteón de crueles y miserables lo que debemos es encontrar otras relaciones con nuestro mundo, otras formas de resistencia más sostenibles, otros medios.
Amanda Peralta, como nosotres en este canal, eligió la ciencia para continuar su lucha.
Y es importante notar que resulta además absolutamente intolerable que la violencia se plantee como una especie de tabú corruptor al que se le debe escapar, mientras en rigor la derecha la sigue ejerciendo a discreción sin pagar nunca ningún costo. Los pueblos del mundo tienen que reflexionar con seriedad cuál es el rol de qué violencias para qué sociedades.
Yo particularmente no estoy convencido de que la violencia sea necesariamente mala, y que no deba ser también una herramienta legítima de los pueblos. Muy especialmente considero esto en lo que respecta a la amenaza narco, a las policías y poderes judiciales corruptos y antipopulares, los servicios de inteligencia bajo control corporativo, y a la defensa de los recursos naturales.
Pero como muy bien escenifican Joel, Abby, y Ellie, la violencia nunca va a curar las heridas de la crueldad.
Sin embargo, ni estoy diciendo que haya que perdonar a nadie, ni que existan dos violencias de izquierda y derecha cual “dos demonios” comparables o asimilables: lo que estoy diciendo es que la crueldad es carísima para la sociedad, nuestras generaciones anteriores ya lo aprendieron por las malas, y bajo ningún punto de vista eso puede tomarse a la ligera cuando se piense ni en violencia ni en liberación. O, dicho a la inversa, como bien lo explica Amanda Peralta: nuestro altruismo tiene un precio muy alto como para andar malusándolo.
Pero hay otra coincidencia más por la que elegimos a Amanda Peralta.
La historia de Kratos en Grecia es muy distinta a la que luego inicia en Asgard. Allí, la segunda parte en realidad es mucho más la historia de Atreus que de Kratos, y de hecho culmina en Atreus iniciando su propio viaje de vida.
Lo mismo sucede con la historia de Joel: una vez que salvó a Ellie, su historia no fué mucho más lejos que eso, y la segunda parte es casi enteramente el viaje de Ellie.
Kratos y Joel lograron encontrar un cierre a su propia historia a partir de que tuvieron un nexo con la generación siguiente. Amanda Peralta, sin embargo, es más bien de la generación de mis abuelos y abuelas. Su generación siguiente es la que hoy conocemos como “generación diezmada”: la que padeció el secuestro, desaparición, tortura, y asesinato, de 30000 personas. Es una generación donde muchas tradiciones históricas quedaron truncadas, mucho conocimiento quedó perdido, y muchas historias no encontraron ningún tipo de cierre.
Yo soy de la generación que sigue a esa: la que ya nació en pleno neoliberalismo y que nunca tuvo oportunidad de elegir otra cosa más que capitalismo, la que gritó “que se vayan todos” en el 2001 y fué lo más cercano que tuvo a alguna forma de revolución. Soy de una generación de sueños negados, de esperanzas sedadas, que heredó las heridas de la última dictadura y que ahora se aguanta su ira contenida con impotencia.
Buscar en mis generaciones anteriores es también un intento catártico de reconectar un vínculo histórico roto por la dictadura genocida, en una época donde la violencia y el fascismo parecen querer volver a robarnos los sueños a los pueblos de todo el mundo. Traer a Amanda Peralta es un intento por subsanar algo de ese vacío intergeneracional que me distancia de un mundo anterior al neoliberalismo.
Pero esto último no es un ejercicio de nostalgia. Por el contrario, sucede que yo ya no soy la generación que encarna la juventud de mi tiempo: yo soy ahora une de les adultes que como mínimo le debe explicaciones a esa juventud acerca de por qué las cosas son como son.
Y cuando repaso mi propia historia, la soledad que sentí en el 2001, el odio que sentí por mis generaciones anteriores, que me dejaban esa sociedad en ese estado desastroso y sin más explicaciones que balbuceos repetitivos e incoherentes sobre grandes y solemnes ideas muertas, no puedo más que sentir compasión y responsabilidad por les jóvenes que les toque vivir esta era de neofascismo.
Yo quiero hacer algo por la gente que viene después de mí. Por eso me pareció sensato buscar algún trabajo como ese, y ponerlo a dialogar con obras de esta generación: para que también, cuando a les jóvenes de ahora se le hable de violencia, puedan reflexionar además sobre el fascismo, sobre las izquierdas y derechas, sobre razón y revolución, y qué rol tenemos nosotres y nuestras emociones en todo eso.
Los pueblos furiosos que eligen derechas no son idiotas: son víctimas. Su ira está justificada, racional y espiritualmente.
No sé qué va a elegir mi pueblo, en buena medida eso está todavía en manos de los y las líderes de la generación anterior a la mía. Pero si algo claro nos dejan esas tres obras que trajimos, y muy especialmente al ponerlas a dialogar, es el consejo sincero, cariñoso, pero no por eso menos visceral, de que en nuestras elecciones de vida consideremos con la mente y el corazón, e intergeneracionalmente, cuando las angustias cedan y den una oportunidad, qué es a fín de cuentas lo que queda de nosotres.
La inteligencia artificial lleva meses formando parte de debates sostenidos a nivel mundial en todas las esferas de discusión. Desde titulares en diarios y revistas de todo tipo, hasta opiniones de intelectuales prestigioses e incluso referentes polítiques, por todo el mundo se especula con cuestiones como el reemplazo de seres humanos por inteligencias artificiales en ámbitos laborales, los cambios sociales que se nos avecinan con la explotación de estas tecnologías, o hasta francas ideas apocalípticas. Y en el corazón de este fenómeno está un proyecto que se abrió al público general para su uso, y tuvo muchísima prensa: ChatGPT. Nosotres tenemos algunas cosas para decir al respecto, así que esta vez escribimos directamente una tesis, titulada “de máquinas y revoluciones”.
Disclaimer
Antes de comenzar, corresponde una breve explicación de este video: porque ciertamente es larguísimo para los estándares de consumo actual, y tememos entonces que los momentos menos llevaderos sean pedirle demasiado a cualquier audiencia. Este video pretende dar un panorama de la cuestión Inteligencia Artificial desde diferentes perspectivas, todas mezcladas. La primera de ellas es una perspectiva histórica, y principalmente por eso se hace largo: aquí narramos una historia de la Inteligencia Artificial, seleccionada por nosotres, en sus puntos vinculados a la tecnología, la cultura, las sociedades de cada momento, y el espíritu de época. En segundo lugar, yo que escribí y relato esto soy trabajador de la Informática, y entonces este relato tiene mucho de perspectiva gremial: la Inteligencia Artificial tiene una íntima relación con la Informática, y quienes trabajamos de ello podemos brindar algunos detalles desde la cocina de esas cosas, además de que personalmente me interesa también que por esa vía otres compañeres del gremio tengan contactos con los relatos históricos o historicistas. En tercer lugar, este canal se dedica al contacto entre epistemología, sentimientos, y política, de modo que también el relato concentra buena parte de su cuerpo en tales cuestiones, para nosotres centrales.
Con todo eso, lo que se pretende es un trabajo de divulgación, que al ser heterogéneo en su contenido pueda ofrecerles datos o temas interesantes a diferentes personas. Si une curiosea la historia de la Inteligencia Artificial por internet, frecuentemente se encuentra con planteos por demás técnicos, vinculados a técnicas matemáticas y estadísticas que pueden decirle mucho a la persona informada pero prácticamente nada a todes les demás. Nosotres quisimos evitar eso. Sin embargo, el video es largo, y va paseando entre tema y tema, época tras época, dando lugar a que muchas partes puedan ser más bien aburridas para diferentes personas. Por ejemplo, para alguien culte en política, los planteos que aquí hacemos pueden ser más bien del orden del sentido común, y por lo tanto aburrido; pero para obreres de la informática quizás no sea el caso. Del mismo modo, cuando hablemos de historia de desarrollos informáticos, especialmente la historia más reciente, probablemente muches de informática no tengan ganas de estar una hora escuchando cosas que ya conocen: pero a la gente que trabaja con política tal vez le resulte conocimiento nuevo, y por qué no hasta interesante. Lo mismo sucede con quienes estén formades en Arte, en Filosofía, en Historia, o en Ingeniería: van a haber partes más llevaderas que otras. Desde esa idea les pedimos paciencia para con las partes que requieran más trabajo seguir prestando atención.
Nadie va a salir siendo especialista en nada luego de ver este video, por largo que sea. Pero sí nos gustaría generar algunas curiosidades en la audiencia: acerca de temas, de eventos históricos, de detalles en los que se puede ahondar. Nuestro intento con este ensayo fué el de llenar algunos huecos entre disciplinas, intentar tender puentes interdisciplinarios. Esto es muy especialmente el caso entre informática, historia, y política: pero en realidad son muchas las incumbencias aquí incluidas. Y también tenemos la fantasía de, tal vez, en alguna medida, poder incluso despertar algún interés entre la gente más jóven sobre alguno de los tantos temas que mencionamos: mostrar las relaciones interdisciplinarias, estamos convencides, da lugar a tomar conciencia de la importancia de nuestras actividades en un plano más general de cosas, que excede lo que llegamos a percibir en nuestro día a día, y que abre mucho los horizontes de imaginación.
De modo que les invitamos a que lo vean con un espíritu tolerante y sin apuro. Para ello separamos el video en partes, de modo tal que puedan verlo también en diferentes momentos. Y si sienten que el relato se vuelve tedioso o les excede, supongo que también pueden saltar directamente hacia las conclusiones: aunque difícilmente tengan sentido pleno sin considerar todo el resto del relato, pero en una de esas les sirve para ver si les interesa el por qué alguien diría esas cosas, y entonces sí ver el trabajo completo. Eso lo dejamos a su criterio.
Introducción
Ahora sí, comencemos por el principio. ChatGPT es un servicio online y gratuito de diálogo con un programa (o “chat bot”), que implementa los modelos grandes de lenguaje natural GPT-3 y GPT-4, todo esto desarrollado por la organización OpenAI. Y ya solamente esa oración requiere que hagamos una pausa y la analicemos más en detalle.
En primer lugar, cabe la pregunta de por qué alguien querría voluntariamente tener un diálogo con un “chat bot”. No lo mencionamos antes, pero sí: la gente voluntariamente se pone a charlar con ese programa. Teniendo en cuenta que ese tipo de programas ya se encuentran presentes en nuestras sociedades desde hace tiempo, en lugares como “atención al cliente” o en “buscadores” más bien inútiles, y no son particularmente celebrados sino más bien todo lo contrario, cabe indagar por qué en este otro caso sí parece ser un fenómeno popular celebrado. Y la respuesta a esto es afortunadamente muy sencilla.
Sucede que los diálogos con ChatGPT son sorprendentemente sofisticados, al punto tal que no se siente como un diálogo con un programa sino con otro ser humano. Y no sólo eso, sino que este programa parece ser capaz de responder sobre cualquier cosa. Además, sus respuestas son productivas: une le puede pedir que escriba una canción, un programa de computadora, un argumento para una novela u otro proyecto multimedial, y lo realiza con inquietante facilidad y precisión. Y así como ChatGPT trabaja mayormente con texto, otras inteligencias artificiales permiten crear imágenes a partir de frases escritas, transformar imágenes en otras imágenes modificadas, y muchas otras tareas donde también sorprenden los resultados y la facilidad con la que parecen llegar a ellos.
Por supuesto que frente a ese fenómeno, las especulaciones sobre su potencial y su lugar en la sociedad son absolutamente legítimas, aún cuando tal vez un tanto superficiales. Más allá de qué tan cierto termine siendo lo que suceda con este desarrollo, está claro que, una vez vistos los resultados, no se trata de ninguna discusión ni idiota ni fantasiosa, sino que más bien se está tratando de dimensionar al fenómeno.
Pero ya vamos a tener oportunidad de ahondar en ese aspecto. Volvamos ahora a los detalles de aquella definición. ChatGPT es “un servicio online y gratuito”. “Servicio” se refiere ambiguamente a un modo de software y a una relación comercial: por un lado, en términos computacionales, “servicio” responde a “lo que provee un servidor”, donde “el servidor” es alguna computadora con algún programa funcionando. Pero por otro lado refiere al hecho de que allí se involucra una transacción comercial como con cualquier otro bien o servicio. De hecho, la aclaración de “gratuito” es muy pertinente al caso de eso último, porque también hay modos de uso de este mismo servicio que no son gratuitos. Algunos ejemplos de “servicios gratuitos” como este pueden ser al mismísimo buscador de Google, o cualquier servicio de e-mail gratuito como los históricos de Yahoo o Hotmail. Pero cualquiera de estos servicios también están disponibles en diversos formatos arancelados.
Allí se vuelve pertinente otro detalle: “desarrollado por la organización OpenAI”. Esta es una organización originalmente sin fines de lucro, que en 2019 mutó en una corporación bastante lucrativa. Su historia es fácil de acceder por internet, y no queremos dedicarle demasiado tiempo a los detalles, de modo que la resumimos muy brevemente. A mediados de la década pasada, OpenAI fué creada como organización sin fines de lucro y financiada por un grupo de reconocides empresaries, con el fín de concentrar y acelerar el desarrollo de la inteligencia artificial, y hacerlo de manera colaborativa con diferentes instituciones. Cabe aclarar que, en el contexto de la tecnología, y muy especialmente de la informática, “open” unánimemente remite a “open source”: que viene al caso precisamente de permitir acceder a los debates detrás de una tecnología y, en última instancia, cuando se trata de software, acceder también a su código original. Ciertamente, el nombre “OpenAI” y aquel espíritu colaborativo rememora todo eso. Pero cerrado ese paréntesis, OpenAI comenzó su historia en 2015 con una inversión de mil millones de dólares de parte de varias fuentes. Y en 2019 se convirtió en organización con fines de lucro, con otra inversión de mil millones de dólares, pero esta vez proveniente de una sola fuente: Microsoft. Y en Enero de 2023, después de diversas otras inversiones y “partnerships”, Microsoft anunció un plan de inversiones en OpenAI por diez mil millones de dólares.
Pero más allá del nombre de la empresa que lo creó, ChatGPT no es “open source” en absoluto, al ser un “servicio online” no se puede descargar y ejecutar en una computadora propia, y básicamente es el caballito de batalla de Microsoft para competir con Google, Amazon, Facebook, y otras empresas del área, en productos vinculados a inteligencia artificial.
Y con eso en mente, hagamos un poco de memoria: yo tengo 40 años, y desde Juegos de Guerra y Terminator me crié en un mundo donde la inteligencia artificial fue siempre parte de nuestra mitología, aún viviendo en un lugar del planeta absolutamente periférico. Un año antes de ChatGPT el mundo jugaba a hacer imágenes desde textos con DALL-E, unos años antes los deepfakes eran una amenaza que al final terminaron reviviendo actores y actrices fallecides, por esa misma época había películas como Her, o Ex Machina, o Trascendence, y salía a la calle una remake de Westworld, antes de eso los drones norteamericanos eran un tema al mismo tiempo que por internet veíamos a los robots esos de Boston Dynamics… ya hace rato que se insiste con la inminencia de la inteligencia artificial, y todos sus problemas. ¿Tan excepcionalmente radical es el cambio con ChatGPT? ¿Tan pendiente de ese cambio está la gente en todo el mundo, que de repente esto es un tema? El punto de estos comentarios es que, si bien es cierto que este software puede dar resultados sorprendentes, es igualmente cierto que buena parte de su popularidad se sostiene en una muy intensa campaña publicitaria.
Pero esto es una introducción. Ya veremos más en detalles algunas de las cosas que comentamos aquí. Antes de enredarnos en eso, volvamos a aquella primera definición, y a la parte de la que todavía no hablamos, que resulta ser la más importante: “implementa los modelos grandes de lenguaje natural GPT-3 y GPT-4”. ¿Qué es todo eso?
Que “implementa” significa que es algo que ChatGPT usa a nivel software. Es decir: sean lo que sean esos “modelos”, son en rigor componentes de software. Pero son algo más sofisticado que simplemente software, y aquí es donde aparecen las particularidades de esta forma de inteligencia artificial tan en boga.
“Modelos de lenguaje natural”, por ejemplo, remite a trabajos de la lingüística, donde desde hace ya más de 100 años se trabaja investigando los pormenores del lenguaje en sus múltiples dimensiones de análisis; e incluso existe formalmente el área de “lingüística computacional”, y hasta más exactamente la de “natural language processing”, o “procesamiento del lenguaje natural”. Allí, un referente histórico del área es Noam Chomsky, actualmente más reconocido como referente intelectual de izquierda estadounidense, pero que en su momento fuera vanguardia en la lingüística formal y en el camino hacia la actualidad pasó por múltiples áreas: filosofía, ciencia cognitiva, historia, política. Y lo primero que podemos decir acerca de la experiencia histórica de Chomsky es que la reflexión sobre el lenguaje casi inevitablemente deriva en reflexiones sobre la comunicación, la mente, la relación con la realidad, y lógicamente la política.
Sin embargo, GPT-3 y GPT-4 no son esa clase de “modelos” como los que hacía Chomsky en su momento en el MIT, y decenas de miles de científiques alrededor de todo el mundo luego. Estos modelos son otra cosa, mucho más relacionada con software, y de hecho con un modo muy particular de software. Son el producto de una serie de estrategias matemáticas aplicadas en software, que en su conjunto se llaman “Machine Learning”, o “aprendizaje de máquinas”. Es un área de inteligencia artificial que desde finales de los noventas ha ganado mucho impulso a través de inversiones y desarrollos tanto tecnológicos como científicos, y que hoy se muestra como la vanguardia en términos de resultados. Y tiene la particularidad de ser tan flexible que permite generar “modelos” para muchos casos de uso radicalmente diferentes entre sí: desde identificar e interpretar voces humanas, hasta emular la capacidad humana para detectar objetos, crear imágenes a partir de planteos, o cosas tanto más sofisticadas como banales como pueden ser bots para videojuegos. Esa clase de desarrollos de inteligencia artificial, en otros momentos podía requerir de años o décadas de trabajo coordinado entre científiques de múltiples áreas: pero Machine Learning viene a reducir todo eso a una lista finita de técnicas matemáticas e informáticas, aplicadas al consumo masivo de datos, para identificar y explotar patrones en esos datos. Y es precisamente de allí que se llaman “grandes modelos”: porque en rigor estas técnicas se pueden aplicar a conjuntos de datos pequeños sin ningún problema, pero los modelos como los de ChatGPT manejan una cantidad tal de datos que sólo pueden ser procesados por supercomputadoras o grandes infraestructuras, convirtiéndose en un desafío importante de ingeniería: que es a donde van a parar todos aquellos millones de dólares, además de usarlos en publicidad.
Lo que estamos viendo, entonces, no es el auge de la inteligencia artificial, sino del machine learning: un área muy particular de la inteligencia artificial, que hoy se roba la atención de todes. Y es muy importante entender esto, y sus detalles, antes de ponerse a hablar de sus posibles consecuencias o sus peligros. Por ejemplo, una de las diferencias más notorias entre los modelos científicos y los modelos de machine learning, es que los últimos no pretenden ni explicar nada ni dar cuenta de los pormenores detrás de aquello que se modela: donde Chomsky y compañía pretendían comprender y explicar el lenguaje, punto desde donde se pretendía además interactuar e intervenir en muchos temas relacionados, al Machine Learning esas cosas le son sumamente accesorias y se concentra fundamentalmente en resultados lo suficientemente productivos. Y para esto, Machine Learning aplica técnicas de estadística sobre sus datos, dando lugar a la identificación de patrones y la generación de resultados adecuados a curvas de distribución de indicadores en esos patrones. Los modelos de Machine Learning operan como “cajas negras”, a las que se les brinda un input y con eso ofrecen un output: si ese output es útil o válido, al modelo se lo considera exitoso, y el cómo exactamente se llegó a ese output será otro problema separado al de la productividad.
Machine Learning está permitiendo que, con una lista finita de técnicas, y utilizando hardware actualmente ya existente, lograr software mucho más “generalista” de lo que lograban inteligencias artificiales de antaño. Si bien tenemos computadoras que derrotan a campeones de ajedréz, o bien tenemos otras que traducen palabras o detectan cosas que se les programa detectar, ahora emergen inteligencias artificiales que parecen ser capaces de hacer muchas cosas más y sin un límite claro aparente. Y como nos tiene acostumbrades la tecnología, todo se siente que sucede demasiado rápido.
Entonces, con esta introducción ya planteada, vamos a ahondarnos un poco más en detalles de esta actualidad de la inteligencia artificial, que mantiene al mundo entre diferentes ansiedades. Y para ello, como es costumbre, vamos a darle contexto a la cuestión mediante un paseo por la historia: del tema, y de sus ideas.
El tren de la historia
La historia de la inteligencia artificial, como sucede con todo, es la historia también de otro montón de cosas. Y cuando se la pretende contar, los problema historiográficos comienzan a aparecer muy rápidamente. Por las dudas, mejor lo aclaramos desde el principio: mucho más que una historia exahustiva y meticulosa que se utilice como referencia, esto se pretende un relato coherente que permita a cualquier interesade ir a revisar las cuestiones por sus propios medios, al mismo tiempo que abre temas de discusión que nosotres pretendemos instalar. No miramos con buenos ojos que nuestro relato tenga datos falsos (si los hubiera), pero sí somos tolerantes con el hecho de que dejemos de lado mil cuestiones relacionadas, eventos, y personajes de diferente trascendencia en la historia real del tema. Tenemos plena conciencia de que un simple ensayo nunca va a poder abarcar ninguna cuestión por completo, y entonces el objetivo no es tanto hacer historia en términos rigurosos. Pero ello no quita que valoremos al rol de la historia como un eje fundamental para entender la realidad actual, y por ello la ofrecemos siempre como una parte constitutiva de nuestras propuestas de discusiones. Una historia rigurosa será tarea de historiadores e historiadoras, mientras que nuestra tarea aquí es otra.
Aclarado eso, si tuviéramos que ponerle un punto de inicio a la historia de la inteligencia artificial como la conocemos hoy, diríamos aquí que arranca con las dos grandes guerras a principios del siglo pasado. Aunque debemos ir más atrás en el tiempo para hablar de los eventos que llevaron a la primera y segunda guerra mundial, por razones que lamentablemente sólo pueden quedar claras después de tener presente al relato ya planteado. Pero les pedimos nos crean, y nos tengan paciencia: si no contamos algunas cosas que parecen no tener nada qué ver, lamentablemente no se va a entender tampoco lo que está pasando con la inteligencia artificial en toda su dimensión.
De modo que, como suele suceder en este canal, una vez más se trata de una historia de la modernidad. Y “modernidad” significa un montón de cosas diferentes dependiendo a quién se le pregunte. Hay un concenso generalizado de que se trata de un momento histórico, pero ese concenso muy rápidamente empieza a diluirse cuando se indaga en los pormenores de su definición. Por ejemplo, no hay muchas dudas de que en tanto momento histórico comienza con fenómenos culturales y políticos tales como el Renacimiento o la Ilustración, allá por los siglos XVII o XVIII; pero no hay un concenso preciso sobre un sólo evento, un sólo momento particular, un conjunto de eventos siquiera, o una fecha. Del mismo modo, hay personas que miden la modernidad en sus patrones culturales, otras personas en sus organizaciones económicas y políticas, otras en lineamientos filosóficos, y en su defecto hoy en día contínua un debate desde hace décadas al respecto de si la modernidad no ha efectivamente finalizado y estamos entonces en otro momento histórico diferente. Nosotres en este canal hablamos de una modernidad ya finalizada, pero muches intelectuales no consideran válido a ese razonamiento, o hasta lo consideran incluso dañino. De modo que es un concepto repleto de dificultades.
En cualquier caso, está claro que por aquellos siglos hubo un antes y un después en el mundo. “El mundo”, en principio, sería lo que coloquialmente se llama “occidente”; pero en rigor los eventos que sucedieron en Europa y sus colonias tuvieron impacto en el planeta entero. Y todo comenzó con los eventos que dieron lugar a grandes cambios políticos y culturales en Europa, inicialmente en relación a lo que fuera por aquel entonces el rol de la religión en la articulación de las sociedades. Múltiples fisuras en el status quo de por aquel entonces llevaron a múltiples fenómenos sociales, a veces encadenados, otras veces paralelos: como pueden serlo la emergencia del protestantismo contra la iglesia católica, del racionalismo en filosofía, o de un antropocentrismo más generalizado en diversas praxis humanas que diera prioridad al ser humano incluso por sobre los textos sagrados. Y las consecuencias fueron muchas: aparecieron la ciencia, el capitalismo, el estado republicano liberal, el industrialismo, y muchos otros eventos y conceptos que harían a este ensayo básicamente infinito si se pretendiera abarcarlo todo. Por eso mejor le prestamos atención a dos grandes eventos históricos, canónicos como puntos de inflexión: las revoluciones francesa y norteamericana, por un lado, y la revolución industrial por el otro.
La idea de que diferentes personas podían simplemente ponerse a pensar cómo funciona el universo, cómo puede funcionar de otras maneras, y qué en definitiva es bueno o malo, sin tener que rendir cuentas formalmente a ningún poder superior al caso de todo esto sino articulando las ideas entre pares de manera crítica, dió lugar a que los órdenes sociales de aquel momento fueran estudiados y criticados, dando a su vez lugar a la creación de órdenes sociales alternativos. Durante la revolución francesa, que duró unos diez años, el “antiguo régimen” fué cuestionado y rechazado en términos políticos, culturales, económicos, y religiosos. Por ese entonces ya se hablaba de “leyes de la naturaleza” (en contraste a los mandatos divinos) en todas las áreas del pensamiento, y las ideas de lo que más tarde fuera llamado “liberalismo” ya estaban lo suficientemente maduras como para empezar a requerir con fuerza articulaciones sociales que las pusieran en práctica. Y en el mismo momento que en Francia, aunque comenzando algunos años antes, en América se vivía una revolución paralela y similar contra la corona británica, que llevaría a la instauración de la primer democracia liberal en el mundo.
Y también en paralelo, y también algunos años antes de la Revolución Francesa, sucedía otro evento histórico en Europa profundamente transformador de las sociedades del momento, y del curso de la historia hasta la fecha: la revolución industrial. Esto tuvo su origen mayormente en Gran Bretaña, aunque fue un proceso que se extendiera durante décadas y se propagara por el resto de Europa, así como también a los Estados Unidos de América. Lo que sucedió fue que algunos desarrollos tecnológicos fueron implementados en procesos de producción, resultando en índices de productividad sin precedentes hasta la fecha, y con muchas otras consecuencias relacionadas: sorprendente generación de riqueza, impensable crecimiento poblacional, cambios drásticos en la logística y diagramación de pueblos que pronto pasaban a ser ciudades… el mundo comenzó a transformarse muy rápidamente.
Por ese entonces las ideas de Adam Smith ya eran influenciales, y representaban bastante el espíritu de la época: mediante el uso del pensamiento científico como fuerza liberadora, se daba al mismo tiempo una nueva explicación del universo, así como también justificaciones para transformaciones sociales futuras pensables. Y así, al mismo tiempo que aparecía la industrialización, en “la riqueza de las naciones” se discutían los supuestos límites en la producción de riqueza que por aquel entonces se comprendían como naturales o hasta divinos, y se articulaban los principios de lo que velozmente se tornaría ideología.
La Revolución Francesa fue entonces una revolución capitalista. Y sin embargo, curiosamente, de la revolución francesa nos queda también una categoría política hoy más bien antitética al capitalismo: “la izquierda”. Durante las sesiones de los cuerpos legislativos de aquella Francia, les conservadores (defensores del antiguo régimen, o bien resistentes a los cambios revolucionarios) se sentaban del lado derecho del establecimiento parlamentario, mientras que les revolucionaries se sentaban a la izquierda. Y así sucedió que la primer “izquierda revolucionaria” de la historia fue liberal y capitalista.
Pero muy pronto en la historia, apenas al llegar la siguiente generación, otra figura por lo menos tan influyente como Adam Smith se puso a discutir sus ideas, esta vez además con algunos datos empíricos extra de qué pasaba en el mundo con aquello de la riqueza y las naciones. Por supuesto nos referimos a Karl Marx, cuyos trabajos no sólo marcaron para siempre a la historia del pensamiento, sino que de hecho hasta el día de hoy es prácticamente sinónimo de “izquierda”. Y entre muchas otras cosas, lo que hizo Marx fué diseccionar y analizar en detalle al capitalismo, poniéndolo además en el contexto de su historia, y planteando otros horizontes de sociedades posibles muy diferentes a los propiciados por Smith. Marx dijo que la historia de las sociedades es la historia de sus conflictos entre clases sociales, que una característica fundamental del capitalismo es la propiedad privada de los medios de producción, que la división del trabajo que Smith leía como productiva era también profundamente alienante, y que básicamente la revolución francesa reemplazó una aristocracia por otra pero las clases sociales superiores e inferiores siguen estando allí: “libertad, igualdad, y fraternidad”, que era el slogan de la revolución francesa, podía ser posible sólo para los burgueses, y ni siquiera se daba entre ellos.
Y acá hagamos una breve pausa, para tomar un poquito de aire y pensar de qué estamos hablando. Hay dos hilos unificadores en este bosquejo de relato histórico. Uno de ellos es la impresión de que, casi de repente, en algún momento de la historia pareciera que algunas personas se pusieron a criticar el estado de las cosas, y eso convenció a muchas otras de tomar medidas drásticas al respecto. El segundo, es que las cosas empezaron a cambiar muy rápido, y muy radicalmente. Y esas son precisamente las dos sensaciones unánimes de la mordernidad. Encontrar una definición indiscutible de lo moderno es una tarea imposible, por la cantidad de factores que se requiere y los infinitos disensos: pero la influencia explosiva del pensamiento crítico, y la sensación de aceleración de la historia, han de ser unánimes. Y lo mencionamos casi como aviso: porque a partir de este punto al que llegamos, todo se vuelve todavía más sofisticado, más rápido, y mucho más explosivo.
Además, mencionamos a la religión casi como una cosa del pasado, pero la realidad es que no se fué a ningún lado, y de hecho acompañó a todo este proceso. Las religiones frecuentemente eran ya antropocentristas desde antes, en el sentido de que no era raro encontrar escrituras sagradas donde el ser humano era el hijo predilecto de los dioses, y entonces era elemental para cualquiera que todo lo demás en el universo existiera para ser sometido por la voluntad humana. Y este supremacismo antropocentrista se vió mayormente inalterado cuando las religiones comenzaron a perder poder ante el racionalismo y el liberalismo: no porque Dios exista o deje de existir, ni porque el mundo se volviera ateo (cosa que jamás sucedió), sino porque la humanidad se emancipaba de los dogmas escritos en textos sagrados e interpretados por elites religiosas para luego ser implementados como normas sociales. Reivindicar la inteligencia racional como característica suprema del ser humano se vivió como una experiencia profundamente liberadora.
Pero atención, que eso no sucedió por virtud y gracia del racionalismo solamente. Fueron múltiples condiciones las que dieron lugar a que cambios tan radicales y rápidos fueran posibles. Por ejemplo, la decadencia de un status quo que no respondía con adecuada pericia a los problemas de sus épocas. Pero también muchos descubrimientos, muchos intercambios culturales, muchos eventos históricos… hay hasta quienes indican como un factor importante al hecho de que en Europa se comenzara a tomar más café y menos alcohol, dando lugar a la proliferación de la actividad intelectual. En cualquier caso, las ideas asociadas al racionalismo traían resultados: explicaban cosas que hasta el momento eran difíciles o imposibles de explicar, resolvían problemas irresolubles, y brindaban horizontes de nuevas sociedades posibles. Y esa cuestión del futuro era tan estimulante, porque del racionalismo surgían no sólo explicaciones, sino también predicciones: aquello que eventualmente pasara a llamarse “leyes científicas”, eran nuevas formas de certezas sobre las cuales construir infinidad de cosas, y por lo tanto eran muy valoradas; razón por la cuál la actividad científica también comenzaba a gozar de más y más prestigio.
Así arrancó la modernidad: con mucho optimismo, y con una mirada más puesta en el futuro que en el pasado. Smith y Marx son apenas dos referencias contundentes y fáciles de citar, pero en realidad el mundo se revolucionaba por todos lados al compás de la ciencia y la tecnología, tanto antes como después de ellos. Y los mismos fenómenos sucedían en todas las áreas de praxis humanas: una división del trabajo similar a la del industrialismo de repente se replicaba en la especialización de las ciencias (que arrancaran siendo casi todas “filosofía”), una generación de personas se dedicaba a tareas que en la generación anterior no existían, un mundo que décadas antes era enorme comenzaba a sentirse cada vez más pequeño, y todo ello (con todos sus innumerables pormenores) al mismo tiempo alimentaba a las ciencias y filosofías e ideologías que seguían agregándole velocidad a esa rueda, generando en iguales cuotas ímpetus revolucionarios y resistencias más bien inquebrantables.
Al mismo tiempo que Marx, por ejemplo, aparecía Darwin. Darwin de repente dijo que el humano desciende de otras especies, que la razón de ello es algo llamado evolución, que toma millones de años (por lo cuál la tierra era mucho más vieja de lo que el común de la gente creía), y que la evolución además se rige por un mecanismo llamado “selección natural”. Esa “selección natural” se opone a la “selección artificial” (que sería aquella determinada por criterios humanos), y consiste en millones de años de variaciones pequeñitas y arbitrarias entre descendientes: dando lugar a diferencias entre sujetos, y eventualmente a la emergencia de diferentes especies. Las extinciones se explican porque, en situaciones de crisis (típicamente cambio climático, enfermedades contagiosas, o escases de recursos), esas diferencias pueden constituir ventajas relativas al contexto, y entonces así sobreviven los sujetos que mejor se adaptan al ambiente: “supervivencia del más apto”.
Todo eso de Darwin, lejos de cerrar ninguna cuestión anterior como la religión o la supremacía, las volvió todavía más virulentas. La religión y la ciencia ya no podían ser amigas, donde el texto de Darwin es un elogio de la diversidad les supremacistes interpretaron la “supervivencia del más apto” como un elogio de la competencia, la cuestión de la exclavitud pasó a estar científicamente fundamentada tanto a favor como en contra (les racistes cómodamente pueden afirmar que la gente de diferente color de piel es sencillamente otra especie, y por lo tanto no son seres humanos), y así aparecían nuevas y más urgentes razones para separar el trabajo intelectual en especializaciones, separar los grupos sociales a partir de creencias, o pretender más cambios radicales con iguales magnitudes de resistencias.
Y de cambio en cambio y revolución en revolución, se pasó volando el siglo XIX y el incipiente siglo XX encontró un mundo entre vanguardias tecnológicas e intelectuales y conservadurismos más bien medievales y recalcitrantes. Al mismo tiempo convivía gente que se rehusaba a resignar el uso del caballo como transporte con gente que pretendía hacer máquinas voladoras. En paralelo convivían feudalistas con monarquistas con capitalistas con socialistas. Y por ese entonces ya empezaban a hacer lío Freud y Einstein: uno diciendo que la racionalidad tenía límites más bien evidentes, y el otro pensando cosas raras sobre el tiempo y el espacio. Todo podía ser un evento histórico: desde una nueva forma de propulsión, hasta el descubrimiento de cómo funcionan las plantas, pasando por el rol de las mujeres en las sociedades o alguna nueva herramienta matemática. Y esto, por supuesto, tenía infinitas consecuencias sociales y políticas.
Una característica de la modernidad que pretendimos dejar al alcance de la vista con nuestro relato, es el hecho de que esas cosas llamadas “progreso” o “revolución” no eran una especie de “paso de página”. Hay una concepción ingenua de la historia, muy frecuente entre las personas que no reflexionan mucho al respecto de todo esto, por la cuál se imagina algo como lo siguiente: dado un hito de progreso, aquello anterior a ese progreso queda más o menos inmediatamente obsoleto y olvidado, ciertamente superado. Pero la historia se parece mucho más a un agregado de capas que a un salto de página: más que una vuelta de página en un libro, es algo más parecido a la acción de agregar capas de papel transparente, con tan sólo algunos componentes dibujados, sobre otras capas y capas y capas anteriores. El punto es que lo nuevo no elimina lo viejo, sino que conviven. Y entonces, si una persona vive problemas del siglo XVIII, los problemas del siglo XIX no quitan a aquellos problemas viejos sino que más bien ahora tiene problemas nuevos agregados. Y lo mismo va a seguir pasando en los siglos siguientes.
Cambalache
Y así llegó el siglo XX: un momento de la humanidad con iguales cuotas de maravilla y de horror. Cosas cuasi-mitológicas o hasta otrora divinas fueron logradas por la humanidad durante el siglo XX, y siempre bajo la figura del “progreso científico”. Por izquierda y por derecha, entre clases altas y clases bajas, en oriente y en occidente, la figura de la ciencia gozaba de un prestigio y una trascendencia difícil de comparar con ninguna otra institución humana del momento. De modo que todo lo que se hacía por aquel entonces intentó ser “científico”, y tratar de meter ciencia en cualquier actividad era el espíritu de la época. Y, por supuesto, en un contexto como ese, tanto para entender sus pormenores como para protegerla de usos espúrios o falsificaciones, la ciencia en sí fue estudiada cada vez más en detalle. Así nacían filosofías que plantearan metodologías para los quehaceres científicos, sus límites, o sus cualificaciones, bajo el nombre de “epistemología”. Para esta altura, no sólo la ciencia era prestigiosa, sino que el mecanismo inverso también se aplicaba: todo lo que no fuera científico era visto como alguna forma de razonamiento de segunda o tercera categoría, nada meramente racional estaba a la altura de lo científico, y las pruebas de ello eran las ya incontables manifestaciones del progreso. Ciertamente, la ciencia requería se le preste una atención especial.
Así que se creaban ciencias para todo, dividiendo más y más el conocimiento científico en ciencias “especializadas”. Y una de esas ciencias tenía como objeto de estudio los pormenores en la toma de decisiones a nivel estatal, para lo cuál se requerían analizar grandes cantidades de datos provenientes de paises enteros. Esta “ciencia del Estado” se llamó “Estadística”. Y si bien (como todas las otras ciencias) levaba siglos de hitos en su desarrollo en diferentes lugares del mundo y diferentes momentos históricos, dió grandes pasos en los primeros años del siglo XX y se consolidó como disciplina formal y autónoma. Pero las técnicas estadísticas, que nacieron en el contexto de utilizar a las por demás prestigiosas matemáticas en el proceso de toma de decisiones estatales, rápidamente pasaron a utilizarse como herramienta para el proceso de toma de decisiones de cualquier otro contexto: negocios, confirmación o refutación de hipótesis científicas, diagnósticos, construcción de tesis históricas o antropológicas, etc. Y en el corazón de la “toma de decisiones en base a la estadística” estaba la predicción de eventos futuros: mientras de la mano de la predicción de eventos futuros mediante técnicas matemáticas aparecían los “modelos” de como funcionaban ciertos objetos de estudio, ya fueran componentes de la materia o sociedades humanas. Modelos que podían ponerse a prueba. Modelos estadísticos.
En ese contexto, el análisis de datos, o a veces también llamados información, tuvo otro compinche con el cuál hicieron las veces de “dúo dinámico” de la historia científica y tecnológica del siglo XX: la informática, o “ciencia de la información”; otra disciplina también incipiente y también descendiente de las matemáticas, aunque más cercana a la tecnología, y por lo tanto la física, y la electrónica, y la ingeniería. Al mismo tiempo que aparecían necesidades de trabajar grandes cantidades de datos con grandes procesos matemáticos, aparecían sofisticados aparatos de vanguardia ingenieril que eran capaces de ejecutar procesos matemáticos mucho más rápido de lo que los seres humanos podríamos llegar a hacerlo. Y esto a su vez alimentaba al trabajo científico, que ahora tenía herramientas para trabajar sus complicadas hipótesis sobre la realidad, que requerían cálculos enormes para considerar las muchas variables involucradas en sistemas cercanos a lo real, y a su vez permitían producir predicciones que luego podrían ponerse a prueba. La existencia misma de computadoras generó una demanda inmediata en ciertos círculos muy especializados, y allí nacieron algunas de las hoy grandes empresas informáticas: como ser la otrora dominante IBM. Así, la estadística, de la mano de la informática, comenzaba a constituirse como un espacio de la ciencia y la tecnología tan prometedor como esotérico, y las fantasías sobre aparatos que tomen sus propias decisiones no tardaron en emerger en la cultura popular.
Aunque “aparatos tomando sus propias decisiones” tampoco era algo estrictamente vinculado a las estadísticas tampoco, ni a la informática. Si bien estadística era casi sinónimo de “toma de decisiones”, también existía otro concepto igualmente incipiente y persistente desde hacía ya mucho tiempo: “control”. Y como ya había radio, y ya había electrónica, emergieron ideas tanto teóricas como puestas a prueba de cómo controlar aparatos a distancia con diferentes fines: y si bien estos aparatos no tomaban sus propias decisiones, la fantasía de que pudieran eventualmente hacerlo y la problematización del cómo lograrlo era moneda corriente en esas áreas de la ingeniería. Un ejemplo paradigmático fue el llamado “telekino”: hoy nombre de lotería por televisión, pero por aquel entonces una combinación de los términos griegos “remoto” y “movimiento”. El telekino fue un sistema por el cuál se podían enviar comandos, mediante ondas de radio, utilizando un aparato transmisor hacia otro aparato receptor. Este aparato receptor tenía un componente llamado “memoria”, donde persistía temporalmente los comandos que se le enviaban, para eventualmente ejecutarlos de diferentes maneras luego de interpretarlos. Y las primeras pruebas exitosas en público fueron, precisamente, controlar un bote a distancia. Aquí no hay tanto ni informática ni estadística, sino más bien ingeniería electromecánica; pero sin embargo, alcanzaba ya sólo con eso para empezar a hablar de metáforas metafísicas sofisticadas como “memoria” o “interpretación”.
Es fácil imaginar que el espíritu moderno podía hacerse delicias de fantasías con estos desarrollos. Pero todos los cuidados del mundo no lograron evitar que la ciencia fuera utilizada, además de para maravillas, también para horribles desastres. Todo esto del control o la estadística no fueron la excepción. Y es que la ciencia y la tecnología nunca existieron aisladas de sus sociedades, y todas las fuerzas sociales e históricas interviniendo en ellas.
En las primeras décadas del siglo XX tuvo lugar un evento que resultó un cachetazo de realidad para los optimismos tecnológicos y cientificistas: la primera guerra mundial. Con todo lo que ya dijimos sobre el tren de la historia moderno, los detalles sobre la guerra son triviales y tienen poco sentido, mientras que las razones del conflicto fueron, como siempre, puramente humanas. Los paises de Europa entraron rápidamente todos en una misma guerra, y esta guerra tuvo como novedad muchos cambios en la forma de llevarse a cabo. Los modos de la guerra ya estaban influenciados por nuevas ideologías, nuevas morales, nuevas concepciones de lo social y lo nacional, o hasta de lo humano. Pero muy especialmente estaban influenciados por nuevas tecnologías. La ciencia y tecnología aplicadas a los actos de guerra dieron nacimiento a armamento tan novedoso como aterrador: ametralladoras, tanques de guerra, aviones de guerra, armamento químico, y explosivos poderosos de todo tipo. La devastación de la primera guerra mundial fue shockeante, lo cuál se expresó de forma más contundente en la cifra de muertos y heridos, que se contaban por decenas de millones: algo nunca antes visto en la historia de la humanidad.
Fue prontamente rotulada “la gran guerra”, y constituyó una aterradora contrapartida al optimismo de comienzo de siglo. La tecnología bélica fue protagonista central de uno de los eventos más oscuros jamás vividos en ningún otro momento que se tuviera registro, y detrás de esa tecnología estaba la constante y hasta ese momento “neutral” o hasta “benefactora” figura de la ciencia. No hubo nada de neutral en esa guerra: la ciencia y tecnología fueron decididamente contrarias a cualquier forma de beneficio de ninguna sociedad, cualquier forma de moral o ética ni académica ni religiosa, cualquier forma de “bien”; la ciencia fué antihumana. Aún cuando críticas a la ciencia y la tecnología pudieron existir desde siempre, fué después de la gran guerra que se comenzó a cuestionar con seriedad y contundencia al optimismo científico y tecnológico que se venía propagando e intensificando por todo el planeta desde el nacimiento de la modernidad. El único atisbo de optimismo luego de la gran guerra fue la ilusión de que esta habría sido la última, “la guerra que ponga fín a todas las guerras”.
Y una vez más, nada de esto detuvo al tren de la historia, sino que lo aceleró todavía más. El moderno aparato productor liberal que ya llevaba bastante tiempo explotando trabajadores hasta niveles francamente retorcidos, y sin nunca mostrar un límite concreto en el horizonte sino más bien prometiendo para siempre más de lo mismo, hizo más y más y más intensos los clamores de una nueva revolución. Pero esta vez no una capitalista, burguesa, comerciante, sino una obrera y socialista. El fantasma del socialismo sin dudas recorría Europa desde Marx mismo, pero estaba cada vez más cerca de dejar de ser inmaterial. Y así se llegó a la revolución rusa de 1917, que eventualmente llevara a la creación de la Unión Soviética en 1922, sobreviviendo no sólo al daño de la gran guerra sino a su propio conflicto civil. Esto, ciertamente, no tranquilizó a la Europa liberal, que se volvió furibundamente antirevolucionaria, y en ese caldo de cultivo nació también el fascismo.
Pero las heridas de la guerra no terminaron de sanar, y el planeta no llegó a olvidar: muy pronto llegó la segunda guerra mundial, cuyo desastre opacó incluso a la anterior, y hasta la hizo ver pequeña en comparación. Se pueden hablar horas y horas sobre los detalles sociopolíticos, históricos, económicos, e ideológicos del conflicto, tanto antes como después de que sucediera. Pero esto es un ensayo sobre inteligencia artificial, ¿recuerdan?. De modo que tenemos que concentrarnos en lo que nos importa. Y para el caso, no hay nada más elocuente que prestarle atención a cómo terminó.
El 6 y 9 de Agosto de 1945, los liberales y liberadores Estados Unidos de América, en consenso previo con sus parientes europeos del Reino Unido, lanzaron dos bomas atómicas sobre las ciudades japonesas de Hiroshima y Nagasaki, matando centenas de miles de civiles. Casi como si la devastación de las dos guerras no hubiera sido suficiente dolor, desamparo, y pánico, ahora el mundo podía ver de repente el absoluto colmo: armas de destrucción masiva, tan absurdamente poderosas y mortales que por primera vez en la historia de la humanidad aprendieron a compartir el mismo pesimismo fatalista y apocalíptico tanto gente creyente como gente atea; por primera vez, la humanidad se enfrentaba objetiva e incuestionablemente con la posibilidad de su propia extinción. Y no sólo eso, sino que la posibilidad venía de la mano de las “maravillosas” ciencia y tecnología.
Para muches, estos fueron los días donde la modernidad se terminó: no tanto porque sus prácticas en órdenes productivos o socioeconómicos hayan dejado lugar a otras diferentes, o porque las instituciones de la época hayan cambiado de alguna manera radical, sino por el hecho incuestionable de que a partir de ese momento ya nadie en el mundo volvió a ver a la ciencia y tecnología con los mismos ojos. Mientras la ansiedad nuclear llenaba el corazón de personas en todo el planeta, el optimismo se evaporó rápidamente, y la sensación unánime fue que al tren de la historia había que ponerle frenos. Para muches, estos días dan lugar al comienzo de una nueva “era atómica”, mientras que muches otres simplemente se refieren a todo lo posterior como “post-modernidad”. Muchas, pero muchas cosas sucedieron antes, durante, y después de la segunda guerra, vinculadas a ciencia y tecnología, y al cómo se relaciona eso con las sociedades. Y fue en esta era, con todo ese baggage que contamos y bajo ningún punto de vista aislada de ello, donde nació finalmente la inteligencia artificial.
Durante las dos grandes guerras, y especialmente durante la segunda, la informática y las disciplinas vinculadas a la “toma de decisiones” vieron grandes desarrollos. Es de conocimiento popular, por ejemplo, la figura de Turing (uno de los “padres” de la computación) descifrando mensajes nazis. Pero las matemáticas, estadísticas, y su compañera la informática, eran protagonistas silenciosas en muchas áreas. Lógicamente todo lo que remitiera a armamento novedoso tenía mucho de física involucrado, y frecuentemente requería cálculos muy rápidos, ya solamente por las urgencias del momento. Todes pueden imaginar la cantidad de cálculos que se necesitaron durante el Proyecto Manhattan, que diera lugar a las primeras bombas atómicas. Y no hacía falta tampoco irse tan a los extremos: ¿recueran al “telekino”, que se usó para controlar botes a control remoto a principios del siglo XX? El mismo ingeniero que lo creó intentó continuar sus investigaciones aplicándolo a torpedos. Fue antes de la primera guerra y no consiguió financiamiento, pero el cómo se usarían esas tecnologías era más o menos evidente para cualquiera, y de hecho dió lugar precisamente a la creación de los misiles teledirigidos durante la segunda guerra.
Pero la vanguardia tecnológica militar traía nuevos problemas a les ingenieres del momento, y uno de ellos fué una de las personas más importantes en la historia de la inteligencia artificial. Este hombre cuenta en sus libros cómo, por aquel entonces, se enfrentaba con un problema tecnológico complicado: los aviones de guerra comenzaban a ser demasiado veloces. Si los aviones eran demasiado veloces, ningún ser humano podía apuntarles con armamento antiaéreo para detenerlos. Y si eso era imposible, entonces no existiría manera de detener a los aviones, y no existiría pues zona segura contra ellos. El desafío de ingeniería que se enfrentaba, entonces, era desarrollar defensas automáticas, que detectaran a los aviones enemigos y tuvieran la capacidad de derribarlos, lógicamente apuntando y disparando a velocidades que ningún humano era capaz de ejecutar. Estos fueron problemas típicos, si bien de vanguardia, en una disciplina llamada ingeniería de control.
Este ingeniero entonces relata que, en sus investigaciones al respecto de cómo lograr esa defensa automática, tuvo oportunidad de reflexionar acerca de cómo funciona todo aquello que es autónomo. Es decir: los mismos principios que se aplican a una torreta antiaérea que apunta y dispara hacia aviones demasiado rápidos para la interacción humana, son principios de autonomía de sistemas que se pueden generalizar a cualquier otro sistema. Y rápidamente se dió cuenta que esos otros “sistemas” excedían a las máquinas, y también incluían a seres vivos. La mecánica fundamental estaba en los mensajes que se enviaban entre componentes del sistema, así como también las fronteras con los límites del sistema y las maneras de identificar variables de su contexto.
Por ejemplo, en el caso de la torreta, de alguna manera era necesario detectar los aviones, que a tales velocidades no se podía simplemente esperar a que vuele por encima sino que habría de ser detectado desde lejos: sensores adecuados eran necesarios, o caso contrario el avión era “invisible” a la torreta; pero luego era necesario también hacer interpretaciones de los datos de esos sensores, de modo tal que se anticipara la trayectoria del avión enemigo, y entonces se pudiera apuntar a los puntos de intersección correctos con los proyectiles defensivos. Nada menor, dicho sea de paso, especialmente teniendo en cuenta que era todo electromecánica, y las computadoras como las conocemos hoy no existían. Pero en esa aventura, una de las condiciones elementales que prontamente aparecían eran detalles tales como que no se puede apuntar con un sólo dato, sino que se necesitan varios: una historia de datos, guardados en alguna forma de memoria del sistema sobre la que luego se realizan operaciones que permitan predecir eventos futuros. En el corazón de estos mecanismos se encontraba, según este ingeniero, la noción de “bucles de retroalimentación”, o “feedback loops”, que refieren a ciertos ciclos de trabajo en los que las acciones de un sistema van calibrando acciones futuras en relación a los resultados de acciones en tiempos anteriores. Y esos bucles de retroalimentación se podían encontrar por todos lados en el universo.
El ingeniero en cuestión se trata de Norbert Wiener, y relata todo esto en la introducción de su primer libro: “Cybernetics: Or Control and Communication in the Animal and the Machine”, publicado en 1948, apenas tres años después de los bombardeos nucleares. Ese libro constituye la fundación formal de una nueva disciplina científica llamada Cibernética. Y cuando usamos una palabra como esa, intuitivamente y en seguida nos damos cuenta que dejamos de divagar por la historia social y política del mundo y ya estamos yendo al grano. Pero en realidad la cibernética venía desarrollándose desde hacía tiempo, y ahí es donde importa mucho la historia de la ciencia. Wiener cuenta cómo su libro fue el producto de años de discusiones técnicas y filosóficas con científiques de diferentes áreas, poniendo especial énfasis no sólo en matemáticas o física o ingeniería, sino también muchísimo en medicina. Sucede que Wiener veía a la ciencia misma (y sus científiques) como sistemas, y también vió la necesidad de comunicación y retroalimentación entre ellos, para lo cuál constituyó un lenguaje común inter-disciplinario que permitiera encontrar problemas cibernéticos en múltiples áreas. Y entonces, entre las muchas repercusiones del trabajo de Wiener, la Cibernética tuvo la característica de ser la primera ciencia formalmente inter-disciplinaria.
La historia de la ciencia era importante, porque desde la epistemología se decían constantemente un montón de cosas, y entre ellas ya se había llamado la atención acerca de la sobreespecialización de las ciencias que tal vez podía estar formando científiques con conocimientos demasiado especializados: un efecto similar a la alienación del trabajo que Marx supiera denunciar en su época. Y esto se había hecho más, y más, y más notorio con el paso de las décadas, a medida que aparecían diferentes especialistas en diversas disciplinas que se permitían sostener teorías basadas en tecnicismos que parecían ignorar casi cualquier otra dimensión de análisis, muy especialmente la histórica y política. Por supuesto, todo esto sólo se veía profundizado frente a la urgente pregunta de cómo podía ser que la ciencia hubiera tenido el rol que tuvo en las dos guerras. Y aunque al marxismo canónicamente se lo suele acotar a “teoría económica” o “teoría política”, constituye en sí también una rama de la epistemología, muy enfática en lo que respecta al rol de la historia en el desarrollo de los sistemas económicos y sociales.
Es decir que en paralelo a que gente como Wiener reflexionaba sobre el rol de la historia en los sistemas de comunicación y control, las escuelas marxistas de pensamiento llamaban la atención sobre el rol de la historia en el desarrollo de la ciencia y la sociedad; así como también Wiener desarrollaba un lenguaje trans-científico y una teoría inter-disciplinaria al mismo tiempo que desde el marxismo llamaban la atención sobre la alienación en la sobreespecialización. Y estos debates no fueron casualidad. Sucede que el marxismo seguía y sigue siendo muy influencial tanto en filosofía como en ciencias humanas de todo tipo, incluyendo a la economía pero excediéndola por mucho. Pero además, en el marxismo seguía existiendo una alternativa a la cosmovisión liberal que se expandiera desde las revoluciones francesa y norteamericana: una que se pretendía más humanista y más justa, en medio de un mundo donde la humanidad se veía en peligro y la calamidad llegaba antes que cualquier justicia. Tan poderoso era el marxismo en el pensamiento del momento, que dividió al mundo en dos, cuando luego de la segunda guerra se instauraron los Estados Unidos de América y la Unión de Repúblicas Socialistas Soviéticas como dos superpotencias mundiales en pugna por una hegemonía ideológica mundial, dando lugar a la llamada “guerra fría”.
La guerra fría era una época tan novedosa como inquietante. El campo de batalla pasó muy velozmente de lo estratégico productivo a lo psicológico, y de repente todo lo que se pensara o se dejara de pensar era sospechoso de ser aliado o enemigo, occidental u oriental: capitalista o comunista. Las otras ideologías como el fascismo o el anarquismo rápidamente perdían centralidad y cuerpo para dar lugar a un infinito combate ideológico mundial como nunca se había tenido registro. Fiel al espíritu moderno, la guerra fría era una experiencia nueva e intensa y se metía por la fuerza en la vida de cada persona de las maneras más impensadas (aunque siempre compulsivas), como ya había pasado con tantas cuestiones modernas antes. Aunque para esta altura, aquel optimismo moderno de otras épocas era mucho más difícil de encontrar por ningún lado.
Y la cibernética es hija de su época. En su introducción a “Cybernetics”, Wiener predecía cómo las máquinas autónomas venían a reemplazar al trabajo humano, por dos razones. La primera era la obviedad de que las máquinas podían tener regímenes de rendimiento que los seres humanos eran incapaces de implementar ni sostener: como sucedía con aquella torreta defensiva contra aquellos aviones tan rápidos. Pero además, las máquinas no se cansan, no se deprimen, no hacen huelgas, no hay que pagarles un salario… son, en las propias palabras de Wiener, trabajo esclavo. Y también en palabras de Wiener, teniendo todo aquello en cuenta, en términos de costos es imposible para los trabajadores asalariados competir con trabajo esclavo, y encima uno con la potencialidad de ser más productivo. De modo que, relata también Wiener, se acercó a contarle estas cosas a diferentes líderes sindicales de su momento, para que los trabajadores pudieran al menos estar al tanto de lo que se venía: pero, aunque lo trataron cordialmente y lo escucharon, no parecían tener herramientas intelectuales para asimilarlo en toda su complejidad, ni entonces comprender nada de esto como algo que requiera la atención de los sindicatos; las urgencias eran otras.
Insisto en que eso sucedió en 1948. Tómense por favor un momento para reflexionar qué pudo haber pasado en el camino para que hoy, año 2023, tanta gente se muestre sorprendida por la inteligencia artificial y la inquietud laboral como si fuera alguna súbita novedad. Porque es muy, muy importante este detalle, y después vamos a hablar sobre eso.
Como fuera, Wiener no era un tipo al que no le importara qué iba a suceder con la sociedad. Él pretendía que la cibernética fuera una fuerza fundamentalmente liberadora. A esa altura ya no se podía ser ingenuo con las consecuencias de los desarrollos científicos y tecnológicos. Entonces, de aquella anécdota vinculada al sindicalismo y el valor del trabajo, concluyó que la solución sería cambiar a un sistema donde el principio rector no fuera la competencia, ni el andar comprando y vendiendo cosas; una vez más, en curiosa sintonía con las típicas interpretaciones sobre la sociedad de cualquier marxismo vulgar. Y no fué la última coincidencia, ni mucho menos. Después de la trascendencia que tuvo su libro “cybernetics”, escribió otro al poco tiempo, orientado hacia un público más general, y concentrado precisamente en el impacto social de su trabajo. Este segundo libro se llamó “el uso humano de seres humanos”, en sospechosa sintonía con el célebre concepto de Marx, crítico hacia el capitalismo, de “explotación del hombre por el hombre”.
¿Acaso Norbert Wiener era un marxista? No, no lo era. Wiener era un científico, un filósofo, un intelectual. Sus planteos no eran el producto de un pliegue y subordinación políticos hacia un lado de un conflicto, sino el resultado de sus propias experiencias y reflexiones. Era un librepensador: algo eminentemente mucho más liberal que marxista, muy especialmente por aquel entonces. Pero en tanto que libre, no tenía ningún problema en cuestionar los límites o hasta fracasos del capitalismo: él no tenía compromiso alguno con el capitalismo, a pesar de la ya insistente propaganda que pretendía asimilar los conceptos de capitalismo y de libertad. Y esto es algo que en un mundo polarizado e ideológicamente competitivo es muy difícil de comprender. En América en general, y muy especialmente en Estados Unidos, la influencia del marxismo fué mucho menor a la que se experimentó en Europa y Asia: América siempre fué mayormente liberal. Eso no es nuevo: el marxismo como movimiento político suele ser profundamente eurocéntrico, y al caso alcanza con revisar las opiniones de Marx mismo sobre figuras hoy canónicas de “izquierda” en América, como Simón Bolivar. Y el punto es que, además de marxismo, en América siempre tuvimos otras “izquierdas”, otres revolucionaries diferentes a les de Europa. En particular, Estados Unidos tiene mucho un concepto que hoy suena casi oximorónico, pero que si contemplamos sus orígenes históricos no tienen nada de raro: “izquierda liberal”.
Wiener era ciertamente “de izquierda”: levantó la voz contra el racismo, contra el anti-semitismo, contra los abusos ecológicos, contra el financiamiento militar, y contra el anti-humanismo capitalista. Pero Estados Unidos nunca fué un buen lugar para ponerse a criticar al capitalismo, y menos todavía lo era por ese entonces, cuando la guerra fría se volvía más y más virulenta. Al poco tiempo de publicado su segundo libro, en Estados Unidos emergían el Macartismo y la segunda ola de “miedo rojo”: dos tendencias conspiranóicas muy intensas que operaban bajo sospechas constantes de que cualquiera pueda ser comunista, de que ser comunista era ser un agente enemigo, y de que secretamente estos agentes comunistas estaban infectando las estructuras estatales norteamericanas.
¿A qué viene esto de historia y marxismo y tantas otras cosas que no parecen tener mucho qué ver con nada? A que cuestiones políticas del momento fueron profundamente dañinas en la capacidad de Wiener para conseguir financiamientos para sus investigaciones en cibernética, y de esa manera sucedieron otro montón de cosas. Por un lado, muches empezaron a tener reparos en quedar asociados a la figura de Wiener, razón por la cuál tomaban distancia. Y por el otro, mucha gente seguía de una manera u otra profundamente interesada en los planteos de la cibernética, que en ningún momento dejó de mostrarse como una disciplina seria y poderosa: razón por la cuál comenzaron a plantear diferentes áreas de estudio más especializadas que la cibernética, que en la práctica competirían con ella en la búsqueda de financiamientos para las investigaciones. Sistemas de control, ciencias de la computación, teoría de juegos, y otros espacios de las ciencias y las ingenierías, eran revalorizados o creados en el contexto del auge de la cibernética. Y entre ellos tuvo lugar la creación de un área de estudio nueva, hija directa de la cibernética, pero esta ya con el único objetivo de replicar la inteligencia humana por medios tecnológicos: “inteligencia artificial”.
Es irónico que una disciplina concebida para combatir la sobreespecialización termine condenada a la sobreespecialización, ¿verdad?. Pero es más irónico todavía si consideramos que en buena medida sucedió “por ser de izquierda”, y al mismo tiempo miramos cómo le fué en el hipotético paraiso izquierdista que debía ser la Unión Soviética, en ese momento con Stalin y Lysenko. Allí, la cibernética fue vista con sospecha y sometida al aparato de propaganda anti-occidental, razón por la cuál rápidamente se la caracterizó de “pseudo-ciencia”. Ese es un término técnico de la epistemología normativa, que se utiliza para distinguir qué es ciencia y qué no lo es: algo que, como mencionamos antes, era de suma importancia y por muchas razones. Hoy nosotres sabemos, por el paso del tiempo, que tanto “occidente” como “oriente” fueron tan reaccionarios como dogmáticos en muchas cuestiones, incluida esta; pero por aquel entonces esas cosas todavía eran discutidas, y que en la Unión Soviética desacreditaran a la cibernética le hizo más daño que favores a Wiener.
Y entre paréntesis, ya sea por lysenkoismo o por macartismo, esta historia nos hace pasar por una pregunta: ¿quién controla a la ciencia? Tal vez para no ser paranoiques corresponda no un quién, sino un cómo. Y tengan en cuenta que en un mundo con cosas como bombas nucleares y gas mostaza asesinando a decenas de millones de personas, y viviendo básicamente en un estado de constante ansiedad y pánico gracias a ello, esta no era ninguna pregunta ociosa. ¿Cómo es eso de que una ciencia prospere o deje de prosperar por motivos políticos? ¿Cómo prosperan entonces las ciencias? ¿No eran autónomas y libres y queseyó?
Como sea, a mediados de la década de 1950 nace “inteligencia artificial” como disciplina académica. Y con las iteraciones de experimentos sorprendentes, si bien humildes para nuestros estándares actuales, no tardó en conseguir financiamiento del Departamento de Defensa: ese al que Wiener le escapaba después de él mismo haber formado parte de los esfuerzos de la segunda guerra. Pero aquellas cosas que sucedían alrededor de máquinas y matemáticas en el prestigioso MIT no eran las únicas que sucedían alrededor de la inteligencia artificial. Todas las ciencias en todo el planeta avanzaban de manera tan sorprendente como convulsionada, con diferentes intereses. Y en este momento de la historia, todo empieza a retroalimentarse.
Por ejemplo, la lingüística y la filosofía del lenguaje tuvieron sus propias revoluciones durante estos tiempos de guerras y modernidad tardía. Y desde esas áreas tenían un montón de cosas para decir sobre la sociedad y el ser humano: cómo pensamos, cómo nos comunicamos, cómo eso nos hace humanos. Nutrido de ello fue que emergió la jóven figura de Noam Chomsky en los mismos años que nacía la inteligencia artificial.
Realmente no hay forma de hacerle justicia a todo lo que pasaba por ese entonces: al mismo tiempo que aparecía la pastilla anticonceptiva, la iglesia católica se amigaba con la evolución darwiniana, se utilizaba el primer corazón mecánico en un ser humano, y aparecía la televisión a color; la biblia junto al calefón, nunca mejor dicho. Todo se mezclaba con todo: ese era el clima de época. Turing podía publicar textos sobre máquinas que piensan, pero también sobre morfogénesis celular, o sobre problemas matemáticos que probablemente no le importaban ni a los matemáticos. La guerra fría era aterradora, pero poquito a poquito el clima de posguerra comenzaba a sentirse más y más ameno en la medida que progresaban los esfuerzos de reconstrucción (léase keynesianismo y redistribución) y la ciencia y tecnología volvía a dedicarse más a las maravillas que a los desastres.
De hecho, aquella cuestión del macartismo no duró mucho qué digamos, y a los poquitos años ya podía haber otro McCarthy como referente de la inteligencia artificial: irónicamente, esta vez uno criado explícitamente comunista y con muchos amigos soviéticos declarados. Y del mismo modo, al morir Stalin, rápidamente la Unión Soviética revalorizó a la cibernética y más bien se volvió furor. No debería extrañar a nadie que, el mismo año, mientras por un lado se reconciliaba con Darwin, la iglesia católica también exigía a les científiques que eviten concentrarse en estudiar al alma: casi como negociando a plena conciencia de lo que se venía en el futuro. Y esto era todavía 1953.
Los problemas de Wiener pues, y de financiamiento de la cibernética, no fueron solamente por sesgos ideológicos; o al menos no de ese tipo que todes conocemos. La cuestión del generalismo e interdisciplinareidad era también muy costosa, porque el financiamiento generalmente está sujeto a resultados, y la cibernética estaba más apurada en crear cuerpos intelectuales que den lugar a costumbres científicas novedosas antes que en máquinas que jugaran ajedréz. Lo cuál, por supuesto, no quitaba que querían máquinas que jugaran ajedréz: ¿quién no quiere máquinas que jueguen ajedréz? Pero la manera de conseguir financiamiento para eso ciertamente no es ponerse a cuestionar teoría del valor y de relaciones laborales. Ejemplificar este problema con aquellos comentarios sobre el trabajo puede ser elocuente, pero el otro sesgo del que hablaba antes pasaba por otras cuestiones: por ejemplo, les cibernetistes encaraban el estudio de la inteligencia artificial curioseando la jóven noción de “redes neuronales”, a partir de un modelo de neurona y de la aplicación de técnicas matemáticas e ingenieriles para articular diferentes relaciones entre ellas, poniendo foco en una idea general de inteligencia y en la comunicación entre componentes de un sistema. O bien se concentraban en sistemas auto-organizados, programación evolutiva, biónica, o computación biológica, por mencionar algunos temas. Todo esto era caro, lento, y mucho más difícil de aplicar o explicar que el simplemente hacer una máquina con algún uso particular. Ahí hay un sesgo mucho más instrumental que capitalista o comunista. Y si a eso le agregamos la carrera espacial, es fácil esperar sesgos de financiamientos.
La carrera espacial es útil para apreciar cómo en la historia podemos ver sesgos compartidos por la Unión Soviética y los Estados Unidos. Los mismos sesgos afloran independientemente de los principios ideológicos canónicos, cuando la competencia escala hacia el supremacismo. Y el supremacismo de posguerra, encarnado en la mismísima guerra fría, pasó a manifestarse en la idea de “qué proyecto de sociedad es mejor para la humanidad”.
Para les supremacistes, no hay coexistencia: sólo hay sometimiento y subordinación, cuando no directamente exterminio. Y el siglo XX fué una era dorada del supremacismo. Es fácil pensar en fenómenos como el nazismo, y es fácil también ver la competencia globalizadora entre el capitalismo y el socialismo, pero en el camino se nos escapan muchas cosas si no prestamos atención. Por ejemplo, a principio de siglo era furor el fordismo, que se pretendía la mejor manera de articular la producción: y cuando alguien dice “la mejor manera”, lo que está haciendo es desvalorizar cualquier otra, dando lugar a que rápidamente se entiendan como “equivocadas” u “obsoletas”. Por supuesto que el fordismo fracasó miserable y rápidamente, generando con aquel optimismo de “descubrimiento del método definitivo” una crisis de acumulación y sobreproducción como nunca se había visto. Pero eso de los “modos definitivos” pasaba por todos lados, constantemente: método definitivo de hacer ciencia, modo definitivo de organización de la sociedad, forma definitiva de entender al ser humano… mil y una veces, la humanidad se obstinó en pretender ponerle un fín a la historia en la fantasía de haber entendido todo lo que se debía y podía entender. Todas esas veces se volvió urgente establecer aquellas grandes ideas, y la urgencia siempre fué la excusa perfecta para intentar establecerlo por la fuerza. Así, la razón instrumental fue un sesgo inter-ideológico que se encontraba por todos lados y durante el siglo XX se volvió el mejor amigo de los supremacismos.
Pero la interdisciplinareidad era una idea que no tan lentamente se convertía en fenómeno primero, tendencia luego, y finalmente en movimiento. No es que alguna de estas tendencias “fracasaba” o las otras “prosperaban”: a todas les iba más o menos bien si se las miraba con el paso del tiempo. Por ejemplo, a la década de la fundación de “inteligencia artificial” hubo una segunda ola de cibernética, al mismo tiempo que el constructivismo radical de Piaget gozaban de mucho prestigio. Para ese momento Wiener ya había muerto, pero muchas otras personas alrededor de todo el mundo se sumaban a las prácticas e ideas de la cibernética. Sin embargo, esta segunda ola cibernética estaba más lejos de lo tecnológico (que seguía acaparando el financiamiento) y mucho más cerca de las ciencias humanas. Para esta altura, estas cuestiones ya desbordaban los ámbitos especializados, y para finales de los sesentas se comenzaba a filtrarse en otra área de la que todavía no dijimos casi nada: la cultura.
La revolución televisada
Desde esclavos eficientes hasta gente desafiando a los dioses, pasando por demonios haciendo lo que se les antoja, la historia está llena de registros de criaturas o dispositivos como los que hoy llamaríamos robot, androide, o cyborg. Estas cosas aparecen ya en los cuentos de Homero, y siempre que se escarba esta historia aparecen El Golem y Fránkestein. Aunque este último merece una rápida mención, por ser considerado por muches el primer trabajo de ciencia ficción. No es casual que el subtítulo sea “el prometeo moderno”. Fránkestein ya tenía a la ciencia y la modernidad como eje central de su trama, más allá de lo que dijera al respecto. Y el fuego prometéico de Fránkestein era la electricidad: esa cosa tan esotérica que allá por el siglo XIX permitía fantasear tantas cosas, y hoy da vida a la inteligencia artificial.
La ciencia ficción, depende a quién le preguntes, se pretende más especulación cientificista que literatura en sí; no es que no fuera literatura, o el medio que se pretenda (cine, teatro, y demás), sino que la especulación sobre el futuro de la humanidad de la mano de la ciencia y la tecnología sencillamente no es secundaria. La ciencia ficción en general tiene algunos temas recurrentes, que por supuesto serían grandes hitos de la ciencia y de la humanidad si algún día fueran logrados: inmortalidad, viajes en el tiempo, viajes por el espacio, etcétera. Entre ellos están también la creación de vida artificial, y otras cosas que sucederían con la humanidad si acaso la comenzáramos a modificar por medios tecnológicos. Fránkestein de nuevo, claramente. Y si medimos a Fránkestein con esa vara, yo diría que algunos detalles se le escaparon, pero en líneas generales no estaba tan desviado en lo que se venía: tanto los desarrollos científicos, como algunas reacciones sociales vinculadas a ellos, y algunos comportamientos de la comunidad científica también.
El Doctor Fránkestein no fue el primer “científico loco” ni mucho menos: ya por el 1500 había personajes de ese estilo. Y viceversa también: científiques reales y cuerdes se ponían a imaginar cosas, las escribían, y esas ficciones claramente han de valer algo en esta historia. Pero es común que se ponga en Fránkestein un antes y un después, que francamente es cómodo para nuestro relato. Y las especulaciones cientificistas sobre futuros posibles, así como las novelas y cuentos inevitablemente imbuídas del espíritu moderno, no hicieron más que crecer desde aquel momento.
No nos interesa aquí ser minucioces en el recuento de items y condiciones de la ciencia ficción, porque es un trabajo que le queda muy grande a este ensayo. Pero sí nos es importante mostrarla como hija predilecta de una modernidad que afectaba directamente a las culturas de todo el mundo. Todas la eras tuvieron y tienen sus mitos y relatos, así como también diferentes roles para las diferentes artes, y diferentes medios técnicos y tecnológicos. La modernidad aceleró la heterogeneidad de medios técnicos a partir del desarrollo tecnológico de la imprenta, que a su vez tuvo impacto y contexto político en las incipientes ideas liberales, que a su vez daban lentamente lugar a una idea de arte más cercana al entretenimiento que a la artesanía o la filosofía, a su vez influenciado por los costos de materiales y legislaciones de propiedades intelectuales, dando lugar por esa vía nuevas técnicas y tecnologías… Es una historia enorme, que visto desde lejos nos permite abstraer sistemas retroalimentándose entre la política, la cultura, la filosofía, el arte, la ciencia, y la tecnología, entre muchos otros y con todos sus pormenores. Y así, para el siglo XX, “de repente” teníamos radio, y cine, y hasta televisión, donde los “géneros” se volvían una idea cada vez más difusa, y cada vez tenían más vínculos con sus “medios”.
Y además de “géneros” nuevos, aparecían también conceptos nuevos, propios de su época. La ciencia ficción no daba solamente historias sobre el futuro de la humanidad o lo que hacen “científicos locos”, sino también personajes de fantasía que convivían con las sociedades actuales y daban lugar a conflictos de todo tipo: meta-humanes, más coloquialmente conocidos como “super-héroes”. Entre las tantas fantasías que la ciencia y la tecnología nos permitían, una de las más insistentes era la posibilidad superar los límites del ser humano, literalmente. Y así emergieron extraterrestres que vienen a la tierra a defender el estilo de vida americano, supersoldados creados por la ciencia del momento para combatir al nazismo, millonaries industrialistes que usaban su fortuna e inteligencia para combatir al crimen y la injusticia con tecnología de avanzada, víctimas de accidentes en experimentos científicos que terminan luego con resultados tan inesperados como espectaculares y dramáticos, mutantes a los que la evolución darwiniana les permitía hacer cosas que en otras épocas hacían los semidioses, o incluso hasta dioses mismos que ahora pasaban a tener una explicación acorde a las sensibilidades modernas y podían vivir aventuras a la luz del día sin perjuicio de ninguna escritura sagrada.
Todas esas ideas que en otros tiempos eran raras si no impensables, en el siglo XX eran ya sentido común. Y rápidamente en ese sentido común también se instalaron otros dos personajes mitológicos de nuestra era: la máquina consciente de sí misma, y el ser humano con partes maquínicas en reemplazo de las biológicas; o bien la inteligencia artificial y el cyborg, en términos ya más contemporáneos.
Los medios impresos pasaban de texto a imágenes, y del blanco y negro al color, del mismo modo que llegaban noticias y radioteatros hablados en la misma época que llegaba también el cine a las ciudades, y así Fránkestein y su critatura era cada vez menos un producto de la imaginación y más una imagen concreta. Lógicamente esto no hizo más que acelerarse cuando, además, apareció la televisión.
Estas cosas suenan más bien inocuas o hasta irrelevantes, pero tienen consecuencias importantes en las sociedades. Por ejemplo, en diferentes oportunidades hablamos de cierto optimismo moderno, especialmente en lo que respecta a la ciencia y la tecnología. En realidad, si miramos un poquito más en detalle, esos optimismos frecuentemente tuvieron sus fuerzas contrarias que les dieran cierto balance: corrientes conservadoras, pesimismos, o hasta experiencias fallidas, de todo tipo (ideológico, religioso, antropológico, etcétera). Pero ahí se vuelve notorio un componente estructural de la modernidad, que todavía hoy vivimos con mucha intensidad, y en otras épocas difícilmente podía existir o lo hacía en dosis muy limitadas: una especie de activa desconexión intergeneracional más bien sistémica. No queremos tampoco extendernos mucho en esto, por las mismas razones que no quisimos ahondar en otros temas, pero es necesario mencionarlo de una manera u otra: en la modernidad, cada generación de seres humanes parece querer romper con la historia y dar lugar a un mundo radicalmente nuevo. Hay un ímpetu por formar parte de una fuerza de cambio tanto a nivel social como mundial, y esto sucede en izquierdas y derechas por igual. En eso se mezclan un poco de supremacismo, y otro poco de la experiencia aletéica en el conocimiento científico y el trabajo intelectual; pero también tiene qué ver con ese impulso del tren de la historia, esa aceleración aparentemente indetenible desde el siglo XVII, de la que por muchas vías se estimula a las juventudes a formar parte.
A veces es el ímpetu a formar parte de la historia, haciendo algún descubrimiento o desarrollo que cambie algo para siempre: curar una enfermedad, explicar algo inexplicado, solucionar algún problema sistémico. Otras veces es por “salir de la pobreza”, donde te invitan a meterte en una universidad y aprender cosas que luego te permitan acceder a “un mejor trabajo”, y allí une accede a tantas ideas tan sofisticadas y transformadoras. Pueden ser también cosas más mundanas, como simplemente la búsqueda de poder, o incluso el mero seguir la corriente de la época. En todo caso, cuando une comienza esos caminos, las influencias culturales cobran especial centralidad, y nos sirven al mismo tiempo como metáforas para entender y horizontes para seguir. Así fué que la carrera espacial tuvo al menos tanta influencia de Julio Verne y compañía como de intereses geopolíticos, y así fué también que durante la segunda guerra hubo intentos legítimos de crear supersoldados y explorar la modificación física de seres humanos y animales en general, con diferentes fines.
Si une se pone a pensar esas influencias entre cultura, ciencia, política, y tantos otros sistemas, siempre aparece la pregunta por “el huevo o la gallina”: es decir, cuál vino primero en la historia. Pero desde una perspectiva cibernética, esa pregunta importa poco para explicar las relaciones entre sistemas: lo que importa son los ciclos de retroalimentación entre sí. La búsqueda por el “primer” componente, el más elemental de todos, frecuentemente es la búsqueda por aquél que permite regular todo, el que controla a los demás: pregúntenle sino a cualquier marxista por el rol de la política y la historia, o bien a cualquier liberal por el rol de la autonomía de las personas y los intercambios comerciales. Pero es inconscientemente una búsqueda supremacista: la cibernética nota que, una vez que los sistemas están inter-relacionados, se aplican estrategias de control sobre cualquiera de las varialbles involucradas sin necesidad de que ninguna sea más importante que las otras. Eso no quiere decir que no haya diferentes importancias: pero son contingentes, y tienen qué ver con diferentes relaciones antes que con naturalezas de las variables. Y frente a eso se puede apreciar fácilmente cómo la cibernética, lejos de tratar de concentrarse tan sólo en “inteligencia artificial”, o en el problema epistemológico de la interdisciplinareidad, o en ciencia y tecnología siquiera, más bien se mostraba como alguna forma de lineamiento ideológico, y entonces sus ancestros son mucho más el liberalismo y el marxismo que la computación.
Y la cibernética no era la única que se manejaba con esta clase de ideas. “Ciencias de la complejidad”, “ciencia del caos”, diferentes tipos de “holismos”… en diferentes lugares del mundo y bajo el amparo de diferentes disciplinas, se tomaba consciencia de las relaciones entre problemas y sistemas abstractos, y lo complicado que resultaba intervenir en ellos, mientras se vivía bajo la sombra de los eventos recientes y la necesidad urgente de poner en contacto a la ciencia con la sociedad. La interdisciplinareidad era en buena medida parte del espíritu de la época, y su implementación llevaba a muchas ideas transformadoras. Aunque también se presentaba como una amenaza para algunos círculos de poder. Y ahora que ya hablamos de tantas cosas y llegamos hasta la cultura, si la cibernética es la heroína de nuestro relato histórico, es un buen momento para introducir también a nuestro villano.
Mencionamos casi al pasar que el fordismo había fracasado miserablemente, ¿verdad?. Bueno, en realidad ese fué un evento importantísimo en el siglo XX: la gran crisis de 1930. En la década de 1920, mientras Europa vivía de revolución en revolución y en paises otrora centrales ahora había inseguridad alimenticia generalizada, en Estados Unidos se dió un proceso de sobreproducción y acumulación de capital en pocas manos como nunca antes; amparado este último en una posición privilegiada frente al desastre Europeo, y en un montón de fantasías. Las ciudades seguían creciendo de la mano del industrialismo, que fantasiaba con un crecimiento infinito del valor de sus acciones, y una expansión infinita de sus mercados y mejoras técnicas y quién sabe qué más. Todo esto generó situaciones de especulación y crédito hoy a todas luces ridículas, y para 1929 esa burbuja de optimismo finalmente reventó llevándose con ella el valor de casi todo.
En esas dos décadas, 1920 y 1930, el liberalismo en general estaba en crisis, y muy especialmente en su acepción económica. La necesidad de los Estados de intervenir en la producción y el comercio era absolutamente clara para cualquiera, y al mismo tiempo que el empresariado no era visto como motor universal de ningún progreso también sucedía que el marxismo era una opción muy presente. El liberalismo, en definitiva, perdió muchísima influencia ideológica por estos años, y con ello mucho poder político. Y ya fuera por intervención estatal o por revolución marxista, los intereses de les entonces liberales se veían en profunda crisis, de modo que comenzaron rápidamente a organizarse al caso.
No es lo mismo la defensa del liberalismo que la defensa del capitalismo. Por ejemplo, en respuesta al liberalismo decadente de su tiempo surgió el keynesianismo, que prometía en el consumo y la distribución las bases de un “capitalismo bueno”: una idea muy necesaria cuando en la vereda de en frente están las hordas obreras con rastrillos y antorchas. Y al keynesianismo lo conocemos todes. Pero la historia de la reacción liberal es casi tan opaca como la historia de la cibernética.
El primer gran hito surge de los Estados Unidos, de la mano de un periodista y escritor llamado Walter Lippmann. Este señor publicó un libro llamado “An Inquiry into the Principles of the Good Society” en 1937, y un año más tarde se daría lugar en París al “Coloquio Walter Lippmann” donde hablaría de aquello que publicó en ese libro. Asistieron un montón de figuras relevantes del momento a esa convención, donde tuvieron oportunidad de debatir al respecto de la situación del liberalismo en ese momento y las reformas necesarias para adecuarlo a un mundo muy diferente al de siglos anteriores. Y hacia el final discutieron el nombre que tendría esta nueva y refrescada iteración de liberalismo: triunfó el poco sorprendente término “neo-liberalismo”.
El gran enemigo de Lippmann era el colectivismo: no importaba mucho si el enemigo era el fascismo o el comunismo, el punto era prestarle atención a las libertades individuales, y el colectivismo atentaba contra eso. Y, hasta acá, nada nuevo bajo el sol: lo mismo que diría cualquier liberal que conozcan. Lo curioso de Lippmann en ese contexto es que, y presten atención a esto, estaba rotundamente en contra del libre mercado. Si, así como escuchan: la parte “neo” en ese “neoliberalismo” naciente era esa diferencia radical con el viejo y vetusto liberalismo de siglos anteriores. Lippmann podía pasar cientos de páginas hablando mal de sus enemigos ideológicos, pero cuando hablaba de cómo debía ser la sociedad liberal, no dudaba un segundo: el estado debía intervenir, porque el libre mercado generaba absolutos descalabros de poder en la sociedad. Así que el neoliberalismo nació básicamente keynesiano.
Ese opaco hito histórico del liberalismo fué puesto bajo la lupa en algunas oportunidades por diferentes intelectuales que estudiaran al liberalismo. Pero ciertamente el neoliberalismo que conocemos se parece poco a eso de Lippmann, y del mismo modo cuando se busca su origen aparece otro evento histórico diferente, ya pasados diez años más. En 1947 se crea un grupo de pensadores dedicados a interpretar los principios de la “economía occidental” y cómo adecuarlos a su contemporaneidad. Este grupo sería uno de los que más tarde se conocerían como “think tanks”, y reunió a las figuras más importantes del liberalismo del momento, de las que Lippmann ya no formaba parte. Y este grupo ya no tenía los reparos de Lippmann: así como la libertad de expresión, y cosas como la “sociedad abierta”, defendían también al libre mercado. Se trata de la Mont Pelerin Society, o MPS, que sí es el origen canónico del neoliberalismo como lo conocemos.
La cibernética nació al mismo tiempo que el neoliberalismo. Y el MPS no fué el único think tank que apareció, sino apenas el primero, y si se quiere el más prestigioso. Y pregunta para la clase: ¿creen que los think tanks neoliberales tuvieron problemas para conseguir financiamiento? Por supuesto que no. Estos think tanks tuvieron no solamente recursos económicos, sino también muchas ideas con las que trabajar: formaban parte del mismo clima de época donde la inter-disciplinareidad y la complejidad eran cosa en boca de todes. Así, se ocuparon no solamente de la economía, sino de todas las dimensiones de su actualidad: política, ciencia, cultura, historia… nada quedó fuera de su alcance.
De hecho, la inteligencia artificial también nació bajo el ala de otro think tank: la RAND corporation, creada en 1948. Pero la cibernética captó el interés no sólo de la RAND corporation, sino también del MPS, fundamentalmente de Friedrich Hayek. Hayek participó de convenciones de cibernetistas en la década de 1960, interesado en la noción de “organismo o sistema auto-organizado” para aplicarla a la idea de “mercado”: eventualmente llegó a decir que aquella famosa “mano invisible del mercado” era un mecanismo cibernético.
Y esto no era algo que solamente podía ver un liberal: en la Unión Soviética, cuando la cibernética finalmente fué reconocida y comenzó a gozar de mucho prestigio, comenzaron a desarrollar un plan de economía sin moneda, utilizando terminales computarizadas distribuidas por todo su territorio, que mediante la actual infraestructura telefónica tendrían capacidas para compartir información en tiempo real con un centro de cómputos centralizado, así como también capacidad para comunicarse entre sí, y de esa manera realizar pagos de forma electrónica. Eso era en 1962, y el sistema se iba a llamar OGAS. Por si no entendieron: los soviéticos pudieron tener internet, email, google, y mercado pago, todo bajo control estatal, en la década de 1960. ¿Qué pasó con eso? Para 1970 el partido le bajó el pulgar negándole financiamiento, y si le creemos a los comentarios que encuentro al respecto parece que fué fundamentalmente porque iba a depender del ministerio de estadística en lugar del ministerio de economía, lo cuál generó desconfianzas desde este último.
Las aventuras izquierdistas de la cibernética no terminan ahí, y apenas un año después Salvador Allende contrata cibernetistas para crear el proyecto de gestión estatal del gobierno socialista democráticamente electo chileno: cybersyn. Este sería un sistema más orientado a la toma de decisiones en general antes que a la estricta gestión económica. De hecho, era un sistema con múltiples componentes, donde uno de ellos pretendía obtener en tiempo real información acerca de cómo se sentía la población en general, y más exactamente qué tan felices eran: lo mismo que hacen hoy facebook y amazon. Y la persona contratada para estar al frente de este desarrollo se llamaba Stafford Beer, un cibernetista que trabajaba áreas a las que nadie jamás relacionaría con socialismo: administración de empresas, y gestión de recursos humanos. A diferencia del OGAS soviético, cybersyn no sólo llegó a entrar en funcionamiento (aunque no en su totalidad), sino que además fué exitoso en resistir algunas pruebas bastante duras para cualquier sistema de por aquel entonces: fué capaz de permitir organizar la logística industrial durante un período intenso de lockouts patronales. Más tarde no logró sobrevivir a asaltos de grupos comandos y a bombardeos, pero esa es otra historia.
Y tanto la idea de resistir bombardeos, como también todas aquellas ideas vinculadas a la comunicación, el extender la mente humana, el conectarse, y las preguntas por el conocimiento, llevaron por estos mismos años a la creación de ARPANET: la naciente red internacional de computadoras occidental, que inicialmente conectó a los Estados Unidos con Inglaterra y Francia, casi rememorando los orígenes revolucionarios modernos. Y también por la misma época Marshall McLuhan hablaba de “aldea global”, y de cómo los medios de comunicación y la interconexión iban a tener qué efectos sobre las sociedades de todo el mundo.
Se puede apreciar cómo la cibernética claramente no era “inteligencia artificial” per sé, y que la excedía por mucho. Y que, de hecho, no tenía tanto qué ver con computadoras: “recursos humanos” ciertamente no se trata sobre eso. Pero también queda claro que su impacto era profundo, aún cuando otras disciplinas obtuvieran mejor y más estable financiamiento. Tanto es así que ya en la década de 1960 se había acuñado el término “cyborg” en la literatura popular, referido primero al concepto de un ser humano mejorado con componentes tecnológicos, y más tarde al de “organismo cibernético”. No muchos años después de eso, ya se hablaría de “cyberpunk” como género. La cibernética ya era parte integreal de la misma cultura en la que convivían los superhéroes y superheroinas con los conflictos ideológicos y los tiempos modernos.
Mientras tanto, la historia de la inteligencia artificial, si bien tiene mucho de filosofía y ciencias exactas, también es una historia muy ligada al desarrollo del hardware computacional, que para este entonces estaba en su adolescencia: bastante grandecito como para hacer de cuenta que necesitaba pañales, pero al mismo tiempo con muy pocas competencias para una vida de adultez. Y fue exactamente en la misma época donde esa historia le dió un impensado hermanito menor a la inteligencia artificial: los video juegos. En 1962, en el mismo MIT donde convivían Wiener con Chomsky con McCarthy con Misnky, y tantas otras figuras importantes de este relato, aparece “Spacewar!”, el primer juego de computadora conectado a una pantalla de tubos catódicos.
Antes de spacewar hubo otros juegos, donde el más notable probablemente sea “Tennis for two”, que mostraba un juego de tenis desde una perspectiva lateral y en una pantalla de osciloscopio. Tanto en “Tennis for two” como en “Spacewar!” se podían apreciar algunas implementaciones físicas: como ser la trayectoria de la supuesta pelotita de tenis, o bien incluso la atracción gravitacional de la estrella en medio del espacio de batalla. Antes de estos juegos existieron otros, donde se podía jugar ta-te-tí o nim, aunque estos no tenían pantalla. Sin embargo, muy tímidamente, estos aparatos que se suponían para jugar, de inmediato empezaron a mostrar que en realidad eran más bien para simular.
Esto podría haber sorprendido al publico general, o quizás incluso a inversores, pero no al ámbito tecnológico, por ese entonces ya inmersos en la carrera espacial. Carrera que comenzara como estrategia militar muy vinculada al desarrollo de misiles, pero que temprano en la década de de 1950 se convertía en un horizonte para la humanidad y un componente central de la competencia ideológica. E, irónicamente, también otra esquirla de la segunda guerra mundial: fueron los nazis quienes avanzaron con la misilistica durante la guerra, y una vez finalizada se repartieron esos conocimientos entre la Unión Soviética y los Estados Unidos. Y también fué durante la segunda guerra, y con fuertes hitos históricos nazis, que se trabajó en la propaganda: el influenciamiento de la población general con discursos meticulosamente calibrados. Los cohetes y la propaganda ya existían antes de la segunda guerra, pero como todo lo demás que relatamos estas dos otras cosas también subieron sus órdenes de magnitud novedosos, dando lugar a nuevos fenómenos relativos a esas escalas. Como fuera, en la primera mitad de la década de 1950 salían publicaciones soviéticas contándole al pueblo que la exploración espacial era inminente, mientras desde Estados Unidos respondían con exactamente las mismas premisas pero articuladas por Disney. Para 1957, la Unión Soviética ponía en órbita al Sputnik 1, el primer satélite artificial de la humanidad, y meses después de eso ya se hablaba en la cultura popular de “beatniks”. Un año después nacía la NASA, en 1961 Gagarín se convertía en el primer ser humano en el espacio, y en los mismos sesentas aparecía Star Trek en las televisiones estadounidenses: donde la utopía liberal era encarnada por una pacífica federación de planetas sin comercio ni dinero ni ambiciones de conquista, y con mucho para decir sobre los problemas sociales del momento. Para 1969, Neil Armstrong era el primer ser humano en pisar la luna. Las computadoras y sus parientes no estaban para nada disociadas de eso, y así teníamos en 1965 a “perdidos en el espacio”, donde un robot era el mejor compañero de un grupo de cosmonautas, y a “2001: odisea en el espacio”, donde la exploración espacial se muestra como parte de la evolución humana y la inteligencia artificial encarnaba a un memorable villano.
Todo influenciaba a todo: el aleteo de una mariposa fascista durante la segunda guerra en Europa podía generar un terremoto cultural en la televisión americana o soviética dos décadas más tarde. Y todo se retroalimentaba: la propaganda establecía intereses públicos, que a su vez establecía tanto clamores populares como especulaciones financieras y mercantiles en inversionistas de todo tipo, lo cuál le daba a los muchos grupos de investigación estrategias para conseguir financiamientos, que a su vez resultaban en teorías y tecnologías novedosas que daban lugar a nuevas fantasías, y el ciclo parecía nunca acabar. Todo esto era una máquina muy difícil de calibrar, con consecuencias también difíciles de medir. Todo lo que contamos en estos párrafos parece más bien felíz, pero en la misma década también se vivió la crisis de los misiles cubanos y el asesinato de Kennedy, con todas sus consecuencias. Lo cuál es un relato mayormente enfocado en Estados Unidos y la Unión Soviética: no estamos diciendo casi nada sobre Europa, Asia, África, ni ningún otro lugar del mundo. El punto de todo esto es precisamente tratar de dar una idea de la magnitud, la cantidad, la densidad de eventos que se vivían en los cincuentas y sesentas, a la luz de maravillas y a la sombra de catástrofes.
En 1963, Martin Luther King Jr. escribía una frase célebre y característica de aquello último: “Nuestro poder científico ha sobrepasado a nuestro poder espiritual; tenemos misiles dirigidos y hombres mal dirigidos”. La traducción hace que se pierda el juego de palabras entre “guided” y “misguided”: pero si le damos una pequeña vuelta de tuerca y decimos “misiles teledirigidos”, muy fácilmente podemos llamar la atención sobre la televisión y lo que ya hacía sobre la gente. Eso sólo emperó con el tiempo, y diez años más tarde, en 1976, la hoy clásica película Network lo supo decir con mucha más contundencia.
Cualquiera fuera el caso, los setentas van todavía más rápido, y los eventos suceden con más densidad. Al mismo tiempo que se prometía un nuevo mundo de maravillas, tanto la Unión Soviética como los Estados Unidos seguían sumando crímenes a sus prontuarios. Wiener ya está muerto, y el otrora comunista McCarthy que fundara la inteligencia artificial lentamente se volvía un conservador republicano, desencantado luego de presenciar personalmente la invasión soviética a Checoslovaquia. El mismo desencanto vivía gran parte del pueblo estadounidense con los pormenores de la guerra de Vietnam; y casi como si una guerra fría entre superpotencias planetarias no fuera suficiente paranoia, entre el asesinato de Kennedy y el Watergate de Nixon, la presencia de los servicios de inteligencia estadounidenses era tan intensa en la cultura popular como la figura de la stasi nazi de antaño o la siempre amenazante KGB soviética.
Para los setentas, en la televisión estaba la mujer biónica, y en el MIT y aledaños ya se hablaba de “hackers”, mientras aparecían también los arcades y las consolas hogareñas de video-juegos, con el pong a la cabeza del fenómeno cultural. Pero en el mundo de las computadoras, muchos de los juegos eran basados en texto, con lo cuál debían comprender comandos cercanos al lenguaje natural, y de hecho eventualmente adquirieron el nombre de “aventura textual”. Esas aventuras podían ir desde explorar calabozos de fantasías tolkenianas, hasta combates contra el imperio Klingon en el universo Star Trek. No tardaron mucho en aparecer experimentos de mundos tridimensionales y experiencias inmersivas. Todo esto era parte de un doble juego retroalimentado entre nuevas generaciones con sus propias culturas apropiándose del uso de computadoras, abaratamiento de los componentes y técnicas de fabricación, matrícula en las universidades tecnológicas, y financiamiento de los grupos de investigación, entre tantos otros vectores de influencia que se disparaban para todos lados.
En los setentas, también, la competencia espacial entre Estados Unidos y la Unión Soviética había finalmente dejado lugar a la cooperación, firmando tratados que regularan la proliferación armamentística en el espacio, y de hecho colaborando en la construcción de la estación espacial internacional. Pero estos eventos esperanzadores significaban poco en otros frentes, donde la guerra no tan fría continuaba de manera despiadada. Uno de esos frentes fue América: antes territorio colonial europeo, y ahora patrio trasero de los Estados Unidos. La experiencia de la revolución cubana había influenciado a muchos grupos de izquierda revolucionaria en toda América del centro y del sur. En muchos paises se intentaba aplicar el foquismo como estrategia revolucionaria, con diferentes resultados aunque mayormente sin el éxito deseado. Sin embargo, Chile mostraba una experiencia novedosa a nivel mundial: un socialismo electo por vías democráticas y en plena continuidad del orden institucional previo; es decir, un socialismo no revolucionario. Su revolución no sería la toma del poder por las armas, sino precisamente un intento de ingeniería sustentable y pacifista, donde la cibernética tuvo un rol central. Pero las reacciones a todo esto no tardaron en aparecer, y así fué que en esta década a mi región le tocó padecer el Plan Condor: una estrategia contrarevolucionaria, neocolonial, y hegemonizadora, articulada a sangre y fuego por los Estados Unidos sobre el resto de América. El Cybersyn de Allende fué destruido luego del derrocamiento violento de su gobierno, y con Pinochet en el poder se utilizaba a Chile como sede de un experimento exactamente inverso al inmediatamente anterior: la instauración del primer gobierno explícita y estrictamente neoliberal.
A primera vista no parece, pero este es un punto de inflexión en la historia de la inteligencia artificial del que rara vez veo a alguien tomar dimensión. Sin el Plan Condor no habría neoliberalismo como lo conocemos, por un lado, pero ya el más elemental sentido común permitía fantasear incluso por aquel entonces las consecuencias geopolíticas que podría tener el éxito de un sistema como Cybersyn. La cibernética era la teoría que daba lugar a una nueva vanguardia socialista. En lugar de eso, y como reacción, a partir de aquí comienza la propaganda neoliberal más virulenta, cuyas consecuencias seguimos viviendo.
Mencionamos la guerra de vietnam, pero no fué la única “proxy war” de por aquel entonces: también sucedió en esta época la llamada “guerra de Yom Kipurr”. Esta última no duró años sino poco menos de tres semanas. Sin embargo, fue suficiente para detonar una crisis vinculada a la energía. Sucede que en toda esta historia casi no hablamos, ni del resto del mundo por fuera de las dos superpotencias, ni de la cuestión de la energía. Y sucede que estos puntos ciegos también afectaban la visión de quienes tomaban decisiones por ese entonces. Kissinger, por ejemplo, cuenta que el foco en Vietnam tuvo como consecuencia que no le prestaran tanta atención al oriente medio, en especial la unión entre Arabia y Egipto. Para esta época la producción de petróleo en Estados Unidos comenzaba a declinar, mientras que su maravilloso “modo de vida americano” con tantas maravillas tecnológicas requería cada vez más petróleo. Y luego de aquella corta guerra de Yom Kipurr, los paises árabes establecieron un embargo de petróleo sobre los paises que habían ayudado a Israel en la guerra. Es irónico hablar de Estados Unidos como víctima de un embargo, pero eso efectivamente sucedió, y derivó en una crisis que tuvo su respectiva reacción. De hecho, no fué la última crisis de la década vinculada a la energía.
Los setentas se vivieron con mucho descontento en Estados Unidos y sus aliados. Las cuestiones sociales de décadas previas, especialmente las vinculadas a la guerra, se cruzaron más tarde con las consecuencias de la crisis energética, donde la opulencia debió dejar lugar al uso racional de la energía, y de repente se vivió más que nunca una competencia por recursos en el día a día cotidiano. En ese contexto se dió un cambio radical de política internacional en eso que se llamaba “occidente”, pero que más bien eran Estados Unidos e Inglaterra. Y el neoliberalismo fué la bandera de cambio cultural e ideológico con la que se respondería a las crisis energéticas, que eran ciertamente una muestra de debilidad en términos imperiales. Fue en ese momento cuando todo lo que fuera social-democracia y keynesianismo comenzaron a ser vistos como estrategias políticas ingenuas e insostenibles, y se estimularon políticas agresivas de sesgo liberal en economía, pero con todo un aparato cultural moral y cuasi-religioso que sostienen al neoliberalismo hasta hoy en día.
La figura icónica de este giro neoliberal es Margaret Thatcher, la llamada “dama de hierro” británica. Ella fué la figura carismática y pintorezca detrás de la que se abroqueló todo un aparato ideológico que, desde el libre mercado como representante de “la libertad”, estimulaba todas las formas de competencia que pudieran ejercerse en la sociedad, haciendo las veces de un darwinismo social hiper-individualista. Llegó a decir cosas como “no hay sociedad, sólo individuos”. Y en el corazón de esta propuesta ideológica globalizadora, se encontraba la frase “no hay alternativa”, al mismo tiempo resistiendo cualquier intento de considerar de nuevo ni al keynesianismo ni a nada que remotamente tuviera qué ver con el marxismo. Una vez más, se planteaba que la humanidad había llegado al modo definitivo de organización de la sociedad.
En ese contexto, el “modelo chileno” de los “chicago boys” se pretendió exportar para todos lados, y se convirtió en bandera de éxito del neoliberalismo. No sólo se decía que era un éxito en economía, sino que se afirmaba elocuentemente que esa era la manera en que “occidente” se debía defender de la amenaza soviética y marxista: llevando las premisas liberales hasta el extremo. Por supuesto, ese extremo no era producto de ningún librepensamiento, sino más bien un discurso distribuido por aparatos de propaganda muy bien lubricados y financiados, probablemente para admiración a Goebbels. Y en el proceso de instaurar este milagro, cualquier muerte violenta en América del Sur y América Central por parte del estado se atribuía sin excepción a la reacción contra las guerrillas, así como cualquier peripecia económica era sencillamente no haber aplicado suficientemente en profundidad las premisas neoliberales.
La crisis energética, a su vez, daba lugar a la exploración de otras tecnologías, y así volvía a aparecer la esoteria nuclear que décadas antes diera lugar al nacimiento de la “era nuclear”. Los proyecto de reactores nucleares comenzaron a proliferar, y no sólamente en Estados Unidos. Francia era otra potencia nuclear, que por ese entonces entendió cómo podía vender esa tecnología a cambio de petroleo a los paises de medio oriente. Aunque para final de la década ya había pasado el primer gran desastre nuclear en Estados Unidos, y pocos años después sucedió el soviético: dos hitos que, entre muchos otros, pusieran rápidamente fín a las fantasías de progreso rápido de la mano de la energía nuclear. Y la energía nuclear daba centralidad a una de las muchas disciplinas y movimientos influenciados por la cibernética: el ambientalismo, que cada vez se mostraba mejor organizado en todas sus dimensiones; académica, política, cultural. Para ese entonces ya se empezaba a hablar de la nunca exitosa hipótesis Gaia, donde cada pequeño componente del planeta podía ser entendido como parte de un sistema homeostático autopoiético o superorganismo: lo cuál puede entenderse como una forma de vida en sí, y por lo tanto el planeta estaría vivo.
A esta altura la inteligencia artificial también estaba por todos lados, y por ejemplo los video juegos ya pasaban a ser “single player”. No lo dijimos antes, pero los videojuegos originales eran generalmente para dos o más jugadores: no tenían una inteligencia artificial a la cuál derrotar. Eso fué cambiando con los años. Y de hecho para ese entonces ya habían sucedido hitos sorprendentes para el público general. ELIZA fue el primer chatbot, y logró confundir a más de une que pensó estuviera hablando con una persona real. Ya trabajaban modelos de lenguaje natural para interactuar con personas, habían comenzado estrategias de reconocimiento de imágenes, lógicamente había brazos robóticos haciendo diferentes tareas, y bueno… el icónico proyecto de la máquina que juega ajedrez continuaba sus pasos lentos hacia el triunfo. Todo esto llenaba de optimismo a la gente del gremio, lo cuál quedó anotado para la historia en un comentario que Marvin Minsky hiciera a la revista Time en 1970: “entre tres y ocho años vamos a tener máquinas con una inteligencia artificial general comparable al ser humano promedio”.
Como pasó con tantas otras tendencias optimistas antes, siendo la energía atómica la entonces más reciente, la burbuja explotó pronto, hacia mediados de los setentas. Allí comienza un período conocido como “el primer invierno de la inteligencia artificial”, donde esa área de investigación y desarrollo perdió financiamiento de manera sensible y determinante. Parece ser unánime que la explicación detrás de eso sea una horrible subestimación de los problemas involucrados por parte de les líderes intelectuales y técnicos del momento, lo cuál llevó a pobres o nulos resultados, y por lo tanto al distanciamiento por parte del ecosistema inversor. Pero no fué el único problema.
Inteligencia artificial, a diferencia de la cibernética, era además muy dependiente de la capacidad computacional del momento, la cuál apenas podía servir para algunos pocos casos muy específicos y minúsculos de inteligencia artificial. Y por supuesto había también muchas críticas académicas en términos filosóficos de todo tipo, dado que hablar de “inteligencia” todavía hoy es por lo menos laborioso, con lo cuál el optimismo era cuestionable. Sin embargo, como frecuentemente sucede en los espacios sobreespecializados y gozosos de financiamiento, las críticas eran mayormente desestimadas bajo el sesgo tecnócrata de “no entienden los temas”. Estas cosas solamente empeoraron con el paso de los siguientes años, dando lugar a peleas entre los mismos académicos del gremio. En 1976, por ejemplo, en respuesta a un intento de uso de chatbot primitivo como psicoterapeuta, Joseph Weizenbaum publicó el libro “computing power and human reason”, llamando la atención acerca de cómo el uso de inteligencia artificial de manera equivocada podía quitarle valor a la vida humana. O incluso el mismo Minsky había escrito un paper donde criticaba conceptos claves de las redes neuronales, luego de lo cuál casi ningún proyecto de redes neuronales obtuvo financiamiento por al menos unos 10 años. Fueron años donde muchas de esas cosas sucedieron unas tras otras, y más que “invierno” yo lo llamaría “baldazo de agua fría”.
Pero esta década tiene otra breve historia paralela de guerras comerciales y revoluciones tecnológicas: la guerra de las calculadoras. Y si antes se nos había colado medio oriente en el relato cuando hablamos de petróleo, acá vamos a abrir la puerta un poco al lejano oriente. La tecnología de los setentas podía no tener lo que hacía falta para una inteligencia artificial como la de fantasías, pero no por eso se quedaba quieta. Mientras nacían la cibernética y el neoliberalismo y ya no me acuerdo cuantas otras cosas más en 1948, también se inventaba el transistor: invento absolutamente revolucionario, si bien sólo para entendidos, y en su tiempo un poco caro y difícil de justificar comercialmente. Pero hacia finales de los sesentas hubo muchos avances en el área de semiconductores, y eventualmente tuvo lugar la creación del microchip y el microcontrolador, de la mano de empresas como la ya entonces instalada Texas Instruments, o la todavía jóven Intel. A partir de ese momento los precios de los componentes cayeron radicalmente, pero todavía más espectaculares eran las reducciones de tamaño y los requisitos de energía. Así fué que se empezaron a crear aparatos personales de cálculo, de muy bajo precio en comparación a iteraciones anteriores, y tan pequeños que hasta llegaban a ser de bolsillo: nacían las calculadoras. Es el momento donde las empresas japonesas de microelectrónica comenzaban a hacerse notar. Pero las calculadoras se pusieron de moda, saturaron sus mercados, y los precios cayeron en picada, haciendo que casi todas las empresas involucradas fueran a la quiebra y quedaran pocas sobrevivientes bien instaladas en la industria microelectrónica.
Esa guerra tuvo varias esquirlas, de la que nos interesa prestar atención a una. Del lado de Estados Unidos, al comienzo de esta ola de semiconductores y nuevos formatos, un emprendedor de la electrónica llamado Henry Edward Roberts comenzó a vender kits para que aficionados pudieran armar su propia calculadora. Era algo más bien de nicho, pero muy bien visto en esos círculos, de modo que resultó ser una inversión interesante, y por un momento breve también viable. Hasta que muy pronto Texas Instruments implementó una estrategia muy agresiva en el mercado de las calculadoras, y en poco tiempo estaba ofreciento un producto mucho mejor que Roberts a una fracción del precio. Roberts tuvo serios problemas económicos por esto, y decidió enfrentarlos apostando todo o nada: otro proyecto, mucho más riesgoso. Así fué que Roberts fundó su empresa MITS, donde creó una de las primeras computadoras personales para aficionados, hoy legendaria: la Altair 8800. El proyecto resultó sorprendentemente exitoso, y entre los aficionados que se sumaron a MITS estaban dos jóvenes estudiantes de la Universidad de Hardvard: Paul Allen, y Bill Gates. Los servicios de Allen y Gates fueron contratados por MITS, y no tardaron mucho en tener problemas con Roberts por derechos de autoría y licencias del software con el que trabajaban (un intérprete del lenguaje BASIC): y le hicieron un juicio a Roberts que finalmente este último perdió. La historia de Roberts tuvo un muy extraño final felíz que les invito a curiosear por internet, pero al caso de esta historia lo que nos importa es no sólo la creación de la computadora personal, sino este otro evento vinculado al software, que en 1975 daba lugar al nacimiento de la empresa Microsoft.
Apenas un año después, en 1976, también de la mano de dos jóvenes traviesos y llenos de energía, se fundaba otra empresa que marcaría buena parte de la historia por venir en esa misma área: Steve Wozniak, y Steve Jobs, fundaban Apple y lanzaban al mercado la microcomputadora Apple 1. Aunque fué su sucesora, la Apple 2, la que realmente marcó a fuego la naciente cultura computacional hogareña del momento.
Hacia finales de los setentas, con tanta burbuja explotando por todos lados y tanta crisis de todo tipo, el excepticismo permeaba más a las sociedades que cualquier ya lejanísimo optimismo de posguerra, y el neoliberalismo parecía ser el único capacitado para explotar y capitalizar el momento: libremercado, emprendedurismo, y competencia como regulador de todo, sin ninguna otra alternativa. Con lo cuál, los ochentas arrancaron con renovados ímpetus coloniales e imperialistas en Occidente, mientras los soviéticos tambaleaban por sus propios problemas internos.
Esos juguetes maravillosos
Bien tempranito en los ochentas, Japón se sube al escenario principal de esta historia. Estaba en sus planes el desarrollo de computadoras que dieran lugar a máquinas capaces de interactuar con el mundo como lo hacen las personas: conversar, entender imágenes, razonar sobre diferentes temas, y todas esas cosas que hoy están dadas como obvias, pero por aquel entonces eran pura fantasía. Y cuando digo que esto estaba en los planes de Japón, me refiero al gobierno de Japón, que invirtió centenas de millones de dólares en que esto fuera posible. Parece que les japoneses se tomaban en serio eso de los robots gigantes y cosas por el estilo. La cuestión es que de la mano de las inversiones japonesas se terminó el primer invierno de la inteligencia artificial, y volvió el veranito.
Para ese entonces las computadoras y los robots y las inteligencias artificiales ya estaban por todos lados en la cultura. Star Wars, por ejemplo, con arturito y tripio, ya tenía varios años. Y en 1982 salía a la calle “Blade Runner”, arquetípica del cyberpunk, donde los detectives se dedicaban a distinguir entre humanes y replicantes, y ya quedaba claro que la diferencia entre ambos tenía mucho de convención. También 1982 es el año en el que nací yo, así que a partir de este momento es también mi historia. Y, de hecho, los videojuegos ya tenian una presencia tal que se comenzaba a hablar de “generación pac-man”.
Pero las cuestiones más truculentas de la época no se iban tampoco a ningún lado, y convivían con todo esto por más optimismo nippon que le metiéramos. Así podemos ver en 1983 a Juegos de Guerra, donde les científiques de inteligencia artificial financiades por el departamento de defensa crearon a WOPR: un sistema computacional que, mediante unos juegos de computadora que eran al mismo tiempo simulaciones, aprendía a tomar decisiones para luego asistir en el proceso de toma de decisiones militar, y al que un adolescente con un modem tuvo acceso y casi detona una guerra mundial termonuclear como si fuera un juego más. WOPR finalmente resulta aprender cosas serias, y llega a la conclusión de que la única forma de ganar ese juego era no jugarlo: “¿no preferís jugar ajedréz?”, termina diciéndole al adolescente.
Nunca terminé de entender esa fijación con el ajedrez que hay en el ecosistema de la inteligencia artificial. Como fuera, no era una época de optimismo, y ya al otro año teníamos el hoy ejemplo canónico de inteligencia artificial villana: en 1984, de la mano de la mente afiebrada de James Cameron, llegaba a los cines Terminator. Allí se cuenta la historia de un organismo cibernético enviado desde el futuro por una inteligencia artificial que destruyó la civilización y lucha en el año 2029 contra lo que queda de la humanidad. Esa inteligencia artificial se llama Skynet, y somete al mundo a fuerza de un ejército de máquinas, al mismo tiempo estas últimas inteligentes y bajo su control. El terminator enviado al pasado era precisamente una de esas máquinas, y una vez más el problema era, entre otros, distinguirlo del resto de los mortales, porque se hacía pasar por humano. Y si bien lo del ajedrez se me escapa, está más bien claro que eso de tener problemas para distinguir humanes de máquinas habría de ser por aquel paper tan influyente de Turing, donde discutía precisamente eso.
¡Que miedo que me daba terminator! Tenía tan buenos efectos especiales, tan realista era, que algunas partes no las podía ni mirar: como esa donde el exterminador se sacaba un ojo. Yo por supuesto ví la película años más tarde porque tenía apenas dos años cuando salió, y no estoy seguro si en casa teníamos televisión siquiera: pero así como seguía dándome miedo años después, no importa cuántos años pasen se sigue hablando hoy en día de Skynet como un ejemplo de en qué puede terminar la inteligencia artificial si se vá de las manos. E irónicamente, por esa vía, la gente sigue teniéndole miedo al terminator.
Mientras tanto, en el mundo real, las redes neuronales volvían a ser un tema, de la mano de más teorías y de nuevas técnicas de fabricación de harware. Esta segunda ola de inteligencia artificial confluía tanto con les veteranes de la guerra de las calculadoras, como también con les jóvenes del emprendedurismo informático, y el ímpetu de las grandes empresas por mantenerse en un ecosistema muy cambiante y cada vez más competitivo. Texas Instruments, NEC, Motorola, Hewlett Packard, Western Digital, Toshiba… había muchos jugadores en el área del hardware, y las áreas de investigación y desarrollo vivían el momento con una tensión mezcla de carrera contra el tiempo y de película de espionaje: el registro de patentes era la métrica no sólo de los desarrollos inmediatamente futuros, sino también de los valores de las empresas en los mercados. Cualquier descubrimiento, cualquier técnica nueva, podía revolucionar y volver a revolucionar el estado de cosas de un año para el otro. Y en este escenario, las incompatibilidades de todo tipo entre dispositivos hacían un río revuelto óptimo para pescadores.
Con “incompatibilidades de todo tipo” me refiero a cosas como el sistema operativo, los periféricos que se utilizaban, los formatos físicos de esos periféricos, los conectores, las disponibilidades en qué mercados, y muchos otros detalles más. Había tecnología: pero era tramposo elegir los componentes. Y en esa situación se dió una combinación de factores que marcó la historia de la computación de manera tan impredecible como inaudita.
Fue así que en el año 1981, la prestigiosa y muy bien establecida IBM, lanzó a la venta la “IBM PC”, entrando formalmente a ese mercado de hasta entonces “microcomputadoras”. E IBM fué tan lúcido como despistado en este movimiento. Por un lado, desarrolló una “arquitectura abierta”: la PC permitía agregar, quitar, o reemplazar componentes, que incluso podían compartirse entre diferentes computadoras. Para eso, básicamente tuvo que normalizar o estandarizar diferentes aspectos de la construcción y puesta en marcha de computadoras. Lo cuál a su vez permitió la posibilidad de que la competencia, además, pudiera fabricar “clones”: computadoras que no eran de IBM, pero que se adecuaban a esos estándares. IBM no era una empresa de microcomputadoras, pero tenía prestigio: apostó a que por esa vía sus productos serían tentadores, y que su competencia se vería desvalorada. Y en esa aventura, a los pocos años, la gente ya no preguntaba si una computadora tenía tales o cuales características antes de comprarla: la pregunta unívoca era si la computadora era “IBM compatible”.
Eso por supuesto fué un triunfo de IBM, que logró ponerse en el centro del mercado. Pero, irónicamente, con toda esta lucidez, cometió errores que llevaron a que hoy nadie vea computadoras marca IBM en los estantes de ningún negocio de computación. O, más que errores, tal vez accidentes poco felices.
El primero de ellos estuvo mediado por la elección del procesador. Por aquel entonces estaba lleno de procesadores de 8 bits, bastante accesibles, y bastante poderosos para las prestaciones del momento. Pero había también procesadores de 16 bits, mucho más poderosos: aunque también mucho más caros, y que por detalles tecnológicos eran incompatibles con dispositivos pensados para procesadores de 8 bits. Entonces IBM eligió el proceador Intel 8088: un procesador de 16 bits que, a cambio de sacrificar algunas prestaciones, permitía utilizar también algunos dispositivos pensados para procesadores de 8 bits, abaratando así muchos costos. Y el segundo de ellos fué el sistema operativo. Por aquel entonces, lo más cercano a un sistema operativo estandarizado para microcomputadoras era “CP/M”. Pero IBM no logró convencer a la empresa dueña de “CP/M” de que trabaje con ellos, de modo que trabajó con otra empresa con la que ya tenía relaciones previas: Microsoft. No era una empresa de sistemas operativos, y se dice que Bill Gates no estaba muy de acuerdo con meterse en ese mercado, pero al final sí aceptaron adecuarse a los tiempos y requerimientos de IBM, que eran demandantes. Aunque, para sorpresa de IBM, Microsoft no pidió más dinero del que se le ofreció, como se esperaba hiciera en la negociación del contrato: en lugar de dinero, exigió cobrar regalías por cada venta del sistema operativo por parte de IBM, y el derecho de poder vender ese sistema operativo a otras empresas además de a IBM.
Piensen un segundo en ello: esas “otras empresas” no existían; todavía no existía la PC. Y del mismo modo, las regalías serían un porcentaje, pero el negocio grande sería de IBM. Y entonces IBM aceptó. Lo que sucedió después fué que el éxito de la estrategia de IBM hizo que la competencia de dividiera en dos: quienes hacían “clones de PC IBM”, y quienes hacían sus propios productos con otras arquitecturas. De esos últimos, el único que sobrevivió fue Apple: todos los demás que no se subieron a la ola fueron rápidamente sometidos por lo que terminó siendo un tsunami. Y la sorprendente consecuencia fué que la compatibilidad creada por IBM permitió que muchas empresas nacieran o crecieran vendiendo “IBM compatibles”, que no tenían nada de IBM, pero sí tenían siempre un procesador Intel y un sistema operativo Microsoft que permitieran ambos correr los programas que usaban todas las “IBM compatibles”. Es irónico que al proyecto de la “PC”, internamente, bajo secrecía de sus características, IBM lo llamaba “Project Chess”, o “proyecto ajedréz” en español: casi como si estuvieran jugando al ajedréz con el mercado. Pero fueron Microsoft e Intel quienes hicieron imperios tecnológicos en ese juego, mientas IBM perdió toda centralidad con los años.
Pero nos estamos adelantando. Por los ochentas, esto de las PCs influenció mucho algunos fenómenos culturales, aunque más bien en sectores hogareños y en áreas laborales más parecidas a oficinas administrativas que a grandes fábricas o laboratorios. Por aquel entonces todavía se usaba hardware y software especializado en lugares como las universidades. Unix, por ejemplo, era muy utilizado, pero no era “un juguete” como las PCs ni nada particularmente barato. Esa cosa que Microsoft le hizo a IBM con los derechos de ventas era algo con lo que anteriormente le había hecho aquel juicio a MITS, y de hecho una cuestión bastante instalada en la jóven industria de sofwtare. Sucede que el software tiene una materialidad medio rara para lo que es el comercio de “bienes y servicios”: se puede copiar, por ejemplo, sin costo alguno más que comprar otro diskette para escribirlo. Con lo cuál el valor de un “original” es cuestionable. Pero las empresas que vendían software pretendían cobrar dinero por cada copia de ese software, independientemente de que no agregaran ningún valor ni hicieran ningún trabajo en el proceso de copia, e independientemente de que ese proceso ni siquiera deba ser llevado a cabo por ellos.
Con esto en mente, Bill Gates mismo escribió una carta abierta en 1976 a la comunidad de “aficionados a las microcomputadoras”, explicándoles que si seguían pirateando la versión de BASIC que venía Microsoft, eso iba a desincentivar la innovación y cosas por el estilo. Para 1981, Gates tenía bien en claro que esa práctica social colaborativa llamada por sus detractores “piratería”, no podía ser detenida ni con buenos ni con malos modales sino con poder, y si pretendía hacer dinero en serio necesitaba otra estrategia que “vender software”. El secreto era vender el software, pero no a usuarios finales solamente, sino primero y principal a fabricantes: quienes sí están sujetos a regulaciones y controles que imposibilitan la piratería. Y ni siquiera venderlo: regalarlo también en algunos casos, a instituciones estudiantiles, de modo tal que se formen como técnicos en esos sistemas que él vendía, y luego determinen los mercados laborales vinculados a software. Gates ya tenía claro, antes que IBM, que el vector de éxito de una empresa de software estaba en el control de la cultura, y para ello atacó de diferentes maneras a trabajadores y a empresas.
Pero no fué ni el primero ni el último: Unix y otros tenían prácticas similares, especialmente en las universidades y sus laboratorios de investigación. Uno de esos laboratorios era el de Inteligencia Artificial del MIT. Y, entre paréntesis, ahora que ya mencionamos inteligencias artificiales villanas: ¿están familiarizades con el meme de que las impresoras son aparatos demoníacos, que hacen lo que se les antoja y que todo el mundo las odia? Búsquenlo si no lo conocen, le va a dar mejor sentido a la siguiente historia. Sucedió que Xerox, en una de esos regalos que tan magnánimamente realizan las empresas a las universidades, le dió una impresora laser al laboratorio de inteligencia artificial del MIT. De hecho, era la primera impresora laser que se utilizaba por fuera de las instalaciones de Xerox misma: para ese contexto, era como que te regalaran una Ferrari prototipo más o menos. Sucedió que la impresora estaba conectada a la red del laboratorio, y se mandaban a imprimir cosas desde diferentes lugares físicos. La gente que mandaba a imprimir no estaba frente a la impresora mientras imprimía: estaba en otro lado. Y, como ya sabemos, las impresoras se traban. Esta en particular se trababa bastante frecuentemente. Eso en la práctica significaba que une podía estar una hora esperando para que luego se trabe de nuevo y tener que esperar otro rato, o bien que quede trabada y nadie se entere por mucho tiempo, y cosas de esas.
Entonces a una persona que trabajaba ahí se le ocurrió modificar el software de la impresora, para que cuando se trabe avise a la gente así alguien podía levantarse e ir a destrabarla. A todes en el laboratorio le pareció una buena idea: todes sabían programar, y tenían en el laboratorio sus propios sistemas a los que podían adecuar, así que no había problema por ese lado. Pero sí había un problema: no tenían el código del software de la impresora, por lo tanto no lo podían modificar. De modo que esta persona fué a pedir el código del software a Xerox, y para su profundo disgusto e indignación Xerox se lo negó. Y esta experiencia fué otro de esos aleteos de mariposa que después termina en cualquier cosa más o menos épica.
Esa experiencia llevó a esa persona a reflexionar. Y llegó rápidamente a la conclusión de que su experiencia no era la de simplemente cruzarse con algún imbécil irracional, sino que más bien era reflejo de un fenómeno cultural muy dañino y bastante instalado, tanto en ese como en otros ámbitos. Reflexionó que en este caso era algo más bien trivial, pero que en términos sistémicos era más bien un cancer para la sociedad: una empresa podía decirle a la gente que se adaptara a sus reglas, en lugar de permitirle a la gente adecuar los aparatos de los que supuestamente es dueña. Y rápidamente pudo ver muchos más ejemplos de esto, por todos lados.
La persona en cuestión era Richard Stallman, y esa es la historia de cómo en el laboratorio de inteligencia artificial del MIT nació la antítesis de lo que ya eran tipos como Gates. Stallman organizó gente cercana después de aquella experiencia con la impresora, y creó un movimiento político y filosófico dentro de la informática que sigue activo hoy en día. Para eso, también creó un proyecto de orden técnico que le diera cuerpo a sus planteos políticos: el proyecto GNU, que consistía en un sistema operativo compatible con Unix, pero “libre”, al que todes tendrían acceso al código y podrían tanto modificar como compartir. Y para eso, el proyecto GNU también necesitaba un marco legal, frente a lo cuál creó la licencia GPL, que les programadores podrían elegir como mecanismo legal de gobernanza cultural de sus trabajos. Renunció a su trabajo en el laboratorio, para que el MIT no pudiera disputar sus derechos de propiedad intelectual sobre el proyecto GNU, y fundó otra organización que le diera cobijo: la Free Software Foundation, o fundación software libre.
Para eso era 1985. Los ochentas ciertamente fueron el gran momento de la computación, y el veranito de la inteligencia artificial tuvo su parte en ello. Pero, como todes sabemos hoy con el diario del lunes, Japón no obtuvo sus máquinas que hicieran muchas cosas como les humanes, si es que siquiera hacían alguna: una vez más, esa burbuja explotó. Aunque esta vez lo hizo extrañamente por el eslabón más fuerte. Sucedió que la investigación y experimentación en inteligencia artificial se llevaba adelante en hardware y software más bien especializado, y frecuentemente mucho más caro que cualquier microcomputadora. Por esa razón, de hecho, Stallman tuvo la relación que tuvo con Unix, en lugar de con CP/M. Pero para la segunda mitad de los ochentas, las antes microcomputadoras pasaron a ser todavía más poderosas que aquellos otros aparatos tan caros, así como también su software mucho más versatil. La flexibilidad y comunidad de la PC derrotó rápidamente a los nichos, que dejaron de tener sentido.
Japón no era el único financiando inteligencia aritificial: el gobierno de los Estados Unidos también. Y en la misma época que las PCs superaban al hardware y software especializados, el Departamento de Defensa decidía que no era el momento de la inteligencia artificial, y que mejor se concentraban en cosas un tanto más materiales e inmediatas. Y entonces, el ímpetu comercial en el área decayó en picada, y con él parte del prestigio de la inteligencia artificial. Aunque esta vez tenía algunos resultados, si se la considera en términos académicos. De esta experiencia, una de las líneas que quedaron retomaba a la cibernética, y desde allí se afirmaban diferentes cosas. Por ejemplo, que una inteligencia sin cuerpo es una estrategia poco realista, y que entonces había que concentrarse más en el área de robótica para construir inteligencia artificial. O que en lugar de hacer humanes, había que hacer insectos: poner al ser humano como métrica de la inteligencia era un horizonte innecesariamente lejano.
Para finales de los ochentas, Japón tendría que conformarse con el maravilloso y espectacular florecimiento de los videojuegos, del que se convirtió en vanguardia y referencia. Los arcades estaban llenos de títulos de todos los géneros: desde nuevas versiones de Pong y Pac-Man, hasta simuladores realistas de aviones de combate, pasando por carreras de autos o peleas callejeras. Las técnicas de hardware y software aplicadas al mundo de los videojuegos no hacían más que proliferar y sorprender a grandes y chiques por igual. En paralelo, en 1983 Nintendo lanzaba la NES, revolucionando el mercado de consolas hogareñas, y hacia el final de la década ya estaba pensando la siguiente revolución de la mano de los muchos y rápidos avances tecnológicos y la gran demanda popular.
Pero a finales de esta década sucedieron los dos eventos que marcarían a fuego el futuro de mi generación, casi como en un sólo movimiento de dos tiempos. Del primero tengo recuerdos claros. En mi casa no teníamos televisión, y nos enterábamos las cosas por radio. Un mediodía que mi mamá me estaba cocinando un almuerzo, se interrumpió la transmisión habitual para dar una noticia urgente: el locutor decía con voz emocionada que había caido el muro de Berlín. Mi mamá también celebró contenta, aunque más tímidamente que el locutor. Yo reflexionaba incrédulo a quién podía importarle una pared en un país remoto. Pero el segundo fue mucho más opaco, menos espectacular y significativo para esa actualidad: 1989 fué también el año donde aparecieron los primeros proveedores privados de conectividad a la recién creada Internet. La “red de redes” fue, efectivamente, una unión entre varias redes previas: algunas financiadas por entidades gubernamentales y/o públicas, como la antes mencionada ARPANET, y otras redes también de orden privado que se fueron armando con el paso de los años y con diferentes fines. 1989 fue el año donde el comunismo soviético mostró un estado de agonía terminal, con él se iba también la ya normalizada guerra fría, y con ello se auguraba un mundo finalmente conectado: una aldea global, de hegemonía neoliberal.
Resistance is futile
Si hay algún lugar donde el optimismo ya no estaba puesto en 1990, era en la inteligencia artificial. De hecho, más bien el pesimismo estaba puesto ahí. Arrancaba la década con una nueva generación de aquella utopía liberal de Star Trek, donde ahora los otrora antagonistas y representantes de Rusia en la serie (los Klingon) eran ya parte de la federación, pero aparecían nuevos extraterrestres a dar dolores de cabeza: los Borg, que no pretendían ocultar su relación directa con la cibernética, y que amenazaban con asimilar absolutamente todo en el universo. Los Borg eran interesantes porque planteaban a la cibernética como una vía de unificación, ya no sólo de la humanidad, sino incluso interespecies. Además de que a los Borg se los mostraba como el límite de lo alcanzable en términos de desarrollo tecnológico. Pero todo ello era visto como algo triste, malo, infelíz: los Borg eran agresores, que sometían a las demás especies integrándolas por la fuerza a su colectivo, quitándoles para siempre su individualidad y privacidad. “La resistencia es futil” decían estos mostros con voz robótica, mientras caminaban lento como si su velocidad no les importara, y terminaban metiéndole nanomáquinas a cualquiera que atraparan. Era casi como que el viejo fantasma comunista del colectivismo ahora además criaba zombies tecnológicos o algo así. Y era igualmente interesante que plantearan la experiencia de la asimilación Borg como la entrada a un espacio mental de unificación, donde ya no había angustias ni dolores ni padecimientos: pero así y todo era algo malo, porque era alguna forma de mentira de acuerdo al guionista del momento.
Y estas cosas no eran aisladas de Star Trek ni mucho menos: la década más tarde terminaba con Matrix, donde las máquinas del futuro esclavizaban a la humanidad encerrada en una simulación imposible de distinguir de una realidad; otra vez las máquinas sometiendo a la gente, otra vez también la cuestión de distinguir lo real como si eso fuera a salvar a la humanidad de algo. Las fantasías tecnológicas eran frecuentemente aterradoras a esta altura, pero ya pasaban a tener algo fuertemente vinculado a lo psicológico, a lo cognitivo, lo espiritual si se quiere.
Pero volviendo al planeta tierra, en 1990 la dictadura militar de Pinochet es la última en dejar el poder en mi región. Las nuevas democracias nacían bajo la múltiple presión de las heridas abiertas por el plan condor, el desbalance de poder en la guerra fría, y la ola hegemonizadora neoliberal a nivel planetario. Para 1991 la Unión Soviética ya no existía más, y en su lugar estaba la Federación Rusa, lógicamente con infinitos conflictos internos entre las fuerzas separatistas, las reformistas, y las resistencias afines al orden soviético. De modo que la década arrancó con todo, y “no hay alternativa” parecía mucho más sentido común que slogan. Es irónico que los Borg fueran colectivistas, porque “la resistencia es futil” tranquilamente pudo haber sido una bandera neoliberal.
Como fuera, todas las dictaduras militares en América dejaron paises pobres y pueblos aterrorizados: pero la televisión decía que todo era una fiesta por el fín de la guerra fría, que la macroeconomía ahora iba a inevitablemente crecer y derramar riqueza, que las importaciones iban a dinamizar los mercados internos y traer felicidad, y que el mundo no nos iba a dejar caer porque se acabaron los conflictos ideológicos. De hecho, se hablaba de “fín de la historia” como un evento ya alcanzado. Chile era ejemplo para el mundo, por sus números macroeconómicos: como si no fuera el país más desigual de la región, y como si su pueblo no viviera sufriendo. Pero todos los sufrimientos del momento se sostenían bajo alguna promesa de nueva era, y el giro neoliberal durante los noventas se vivió con mucho de aventura para gran parte de las sociedades de todo el planeta, con el hedonismo individualista como bandera.
Por supuesto eso duró poco. Y por supuesto eso tampoco llegó nunca al espíritu de absolutamente todes ni mucho menos: los optimismos eran costosos de sostener frente a tantas promesas rotas de décadas anteriores, y tantas experiencias tan dañinas. Esto se veía en la fuerte presencia de movimientos contraculturales desde el momento cero de la década de los noventas. Discos exitosos de Nirvana convivían con películas donde Donald Trump decía ser el soltero más codiciado por las mujeres; los héroes de Holliwood se volvían burlones y sobrecarismáticos e inverosímiles mientras los superhéroes en historietas pasaban a ser cínicos y nihilistas hasta lo deprimente; la cultura en general se vivía como una gran farsa, un gran simulacro de progreso social, donde algunes hacían esfuerzos por mostrar una cruel realidad vedada a los sentidos. Y todo esto, tal vez más que nunca, se movía al compas tecnológico.
Yo era todavía muy jovencito, así que los videojuegos me impactaban muy íntimamente: eran una marga generacional fortísima, y encima me tocó vivir una especie de era dorada. Los juegos de arcade, de consola hogareña, y de computadora personal, seguían tres vías diferentes, tres ecosistemas casi completamente aislados, más allá de las esporádicas coincidencias o hasta puentes entre ellos. Los ruiditos y tonos monofónicos de otras épocas ahora daban lugar a voces digitalizadas, bandas de sonido orquestales y futuristas, e historias muy sofisticadas en términos filosóficos y políticos. Las interfases gráficas eran cada vez más espectaculares, y todo era cada vez más nítido, más grande, más rápido: más surreal. Nuevas tecnologías aplicadas en hardware daban lugar a la posiblidad de aplicar nuevas técnicas de software, y ese juego se retroalimentaba una y otra y otra vez año tras año. Y se notaba en todos los títulos de todos los sistemas disponibles. El progreso tecnológico se sentía ya solamente sin salir de casa.
Y los videojuegos por supuesto son apenas un caso particular, un síntoma si se quiere, de algo más sistémico. ¿Recuerdan Terminator? Resulta que por aquel entonces, cuando James Cameron planeó Terminator, el guión original contemplaba a dos terminators que viajaban en el tiempo: uno el ya para entonces clásico organismo cibernético humanoide con esqueleto metálico, pero el otro muy diferente. Cameron quería usar un terminator tecnológicamente mucho más avanzado: uno hecho de metal líquido, y con la capacidad de ser metamorfo. Aquel problema de detectar si era o no un ser humano seguía ahí, pero esta vez el enemigo era todavía más aterrador. En 1984, la tecnología no permitía ni a los efectos especiales más avanzados hacer algo como eso en el cine de modo tal que fuera verosimil. Pero para 1991 sí fué posible, de la mano de los avances en gestión gráfica computacional, y en hardware dedicado al caso. Así se dió vida al T-1000, que fuera el villano de Terminator 2.
Y aquí es importante deternos un segundo. ¿Por qué no era posible en 1984 hacer al T-1000, pero en 1991 si lo era? Está claro que había computadoras más potentes pero, ¿eso era todo? ¿Sólo “potencia” era el problema? Si revisamos detalles detrás de la creación del T-1000 para el cine, vemos datos muy descriptivos de la situación tecnológica. Por ejemplo, que procesar 15 segundos de animación del T-1000 podía llevarle 10 días a las computadoras del momento. Ciertamente era un desafío técnico importante, no hay dudas. Pero, ¿no podía simplemente hacerse lo mismo en 1984, y que en lugar de 10 días tardara un mes? A todas luces eso sería muchísimo más caro, pero… ¿imposible?
El detalle es que no era un problema enteramente de potencia de hardware. Había mucho de cultura, de diseño, de formación de mano de obra calificada, que tenía qué ver con la mera posibilidad de que a alguien se le ocurriera hacer cosas como esas. “Metal líquido metamorfo” no era cosa de “animación computarizada fotorealista” en 1984, sino más bien de historietas. No había software simulador de “metal líquido metamorfo”, más allá de que hubiera o no hardware más o menos potente. No había, de hecho, trabajos generalizados en la industria cinematográfica vinculado a eso. Las simulaciones físicas existían, y con ello las ecuaciones matemáticas involucradas, pero eran áreas muy especializadas: no era “animaciones para películas”. Eso fué cambiando muy velozmente durante los ochentas, de la mano no sólo de Holliwood sino también de los videojuegos. Gente como James Cameron empujaban esa área de las artes hacia ese lado, pero en otras áreas había otras personas con pasiones similares. Y en el medio estaba el conocimiento técnico, tanto en la tecnología como en la mano de obra. Aquellos financiamientos en inteligencia artificial daban lugar a máquinas que calcularan mejor y más rápido, dando lugar a algoritmos nuevos, dando lugar a usos nuevos de esas tecnologías, todo en perpetuo ciclo de retroalimentación.
Y ya mencioné los videojuegos, pero esta historia requiere traer un ejemplo canónico del caso. Si Terminator 2 abría una nueva era superadora en términos de efectos especiales, entre los muchos cambios revolucionarios dentro del ambiente de los videojuegos, uno de ellos ciertamente tendría mucho más impacto del que nadie imaginaba. Como tantas otras historias de la época, dos jóvenes apasionados e inteligentes y llenos de energía se dedicaron a lo suyo y lograron armar una empresa exitosa. Si Apple es la historia de dos Steves, esta es la historia de dos Johns: John Romero, y John Carmack, eran las cabezas detrás de ID software, que en 1993 creaba el videojuego “Doom”. No era el primer “first person shooter”, o “juego de disparos en primera persona”, pero sí el más revolucionario sin lugar a dudas. En parte, porque tecnológicamente era superador a todo lo visto hasta el momento. Y en parte, porque sus avances tecnológicos lo hacían tan dinámico que la interacción con él se volvía adictiva. El juego era rápido, muy rápido, especialmente para ser un juego tridimensional. Y al respecto hay cosas muy pertinentes para decir.
Primero y principal, los avances tecnológicos del Doom no eran de hardware, sino de software. Ciertamente, el hardware de su época permitía cosas, que Carmack supo explotar muy bien y de maneras novedosas. Pero las novedades eran algoritmos rápidos, estrategias de simulación experimentales y exitosas, optimizaciones computacionales variadas y muy eficientes. Romero le puso los condimentos culturales que le dieron contacto con la sociedad del momento, pero Carmack había logrado hacer que el trabajo 3D dejara de ser algo para computadoras especializadas y carísimas y pasara a ser algo a lo que la PC hogareña podía aspirar. Hay literalmente libros escritos sobre el impacto cultural del Doom, así que quien quiera seguir esa línea puede ir a revisarlo: acá le vamos a prestar atención a este detalle de cómo las mejoras de software abrieron puertas impensadas pocos años antes.
Se le llama “renderizar” al proceso de, digamos, ejecutar la línea de producción de programas que realizan millones de cálculos para ir generando imagen tras imagen en una animación 3D. Es decir: una persona programa una serie de directivas, las ejecuta, espera que terminen de procesarse, y luego puede ver el producto final. Aquello que dijimos que tardaba 10 días para lograr una animación de 15 segundos del T-1000, era un proceso de renderización, o “render”. Para el T-1000 se utilizaron computadoras especializadas, con hardware dedicado a algunos de esos procesos, y con software ad-hoc para implementar diferentes cosas: simulación física del metal líquido, simulaciones físicas de la luz (sobre el T-1000, sobre otras cosas de la imagen, etc), efectos de refinado de detalles, reflejos en superficies reflexivas, sombras, interacciones físicas entre objetos virtuales, interacciones físicas entre objetos virtuales y reales, proyección de resultados entre acciones, y tantas otras cosas. Los gráficos tridimensionales son millones y millones de cálculos, y requieren niveles excepcionales de tanto pericia técnica y como capacidad artística. Y para aquel entonces, también una voluntad digna de campeones: la gente que hizo al T-1000 trabajó jornadas de 24 horas, haciendo cosas como dormir al lado de sus equipos mientras esperaban ver los resultados de sus pruebas de renders, corriendo contra reloj para cumplir con los tiempos pautados a riesgo de perder su empresa y vivir endeudados el resto de sus vidas. Para muches, el T-1000 era una estupidez fantasiosa de Holliwood; para otres, como yo, era un absoluto triunfo de la ciencia y la tecnología y el arte.
Pero el Doom hacía esa clase de cosas en tiempo real, y en hardware hogareño. Tómense un segundo para tratar de concebir una idea de lo que eso significaba. Por un lado, el juego era tan adictivo, que no necesitó mucho tiempo para convertirse en un fenómeno cultural de escala. Pero otro otro lado, además, era tecnológicamente tan virtuoso, que se convirtió también en un objeto de estudio inquietante para muchas áreas.
El secreto detrás del Doom eran un montón de usos inteligentes de los recursos, y especialmente concentrarse en los resultados. Por ejemplo, donde el T-1000 era un render realista, el Doom tenía renders mucho menos realistas pero mucho más rápidos. Era “suficientemente bueno” como para dar lugar a una inmersión en ese mundo virtual tridimensional, y desde allí generar un vínculo con nuestros sentidos tal que de repente nos veíamos tratando de controlar ráfagas de adrenalina inducidas por la excitación o el miedo. El Doom había logrado espacios claustrofóbicos, combates cuerpo a cuerpo contra hordas de demonios, laberintos llenos de trampas, situaciones que parecían inescapables y que se sentían como un gran logro superar… todo eso no era simplemente “3D”, sino que requería mucha calibración al cómo nuestros sentidos perciben la realidad, independientemente de si era o no “realista” lo que se estuviera mostrando.
Una de las claves detrás de ello es entender algunos detalles de nuestros sentidos vinculados a la vista. Nótese que hablé de múltiples sentidos, aún cuando sólo hablo de “la vista”, que se supone sea “un” sentido. Sucede que, si bien los sistemas de renders tridimensionales realizan cálculos en espacios virtuales también tridimensionales, lo que producen en realidad es de dos dimensiones: una imagen, una animación, una película, son todas cosas que vemos en un paño o un papel, una pantalla, una proyección sobre una pared, todo de dos dimensiones. Lo que vemos con nuestros ojos es efectivamente bidimensional: pero lo que hacemos con ello luego de verlo, a través de nuestro aparato cognitivo, genera efectos de tridimensionalidad. Entonces, está perfecto intentar hacer un render realista implementando en software todas las leyes de la física que se conozcan en un momento dado, y dejar luego que las computadoras trabajen por días para generar una animación: pero también une puede concentrarse en que en realidad no vemos, ni las tres dimensiones, ni todas las leyes de la física, sino algo bidimensional sobre lo que luego hacemos un trabajo cognitivo. Y ahí se pueden aplicar algunos trucos de magia que no requieren tanto poder computacional.
De hecho, el Doom ni siquiera era 3D. Su motor gráfico eventualmente fué catalogado como “2,5D”, porque en realidad eran dos dimensiones utilizadas de formas muy inteligentes, logrando efectos tridimensionales. Por eso funcionaba tan bien incluso en el hardware de la época. Y eso abrió la cabeza de muchas personas, en diferentes áreas.
Pero aquella clave era una sola de ellas. Hay otra, también importante para esta historia. Si nos concentramos en cómo funcionan las imágenes computarizadas bidimensionales, la expresión más simple es la de una grilla con celdas, donde cada celda es de algún color, y entre todas forman luego una imagen cuando se vé a la grilla desde lejos. Esas celdas de la grilla se conocen popularmente como “pixels”, y es la métrica típica con la que hoy se miden a las cámaras fotográficas de los teléfonos móviles. Sin embargo, esa grilla es en rigor también una matríz en términos matemáticos, y si tomamos los valores de cada pixel podemos entonces realizar álgebra de matrices sobre ellos: tanto en una matríz estática, como en la relación entre diferentes matrices. Ese último es el caso de las animaciones computarizadas: una matriz traz otra hacen a los antiguos fotogramas de celuloide en el cine, o las páginas de la animación manual en papel. A su vez, las estrategias para trabajar matrices típicamente involucran técnicas de obtención de diferentes datos: rangos de valores medios, variaciones, máximos y mínimos, frecuencias de aparición o no de ciertos datos, etc. Eso lleva a otros datos, como ser curvas de comportamientos, sobre los cuáles se pueden aplicar cálculos provenientes de otras disciplinas poco relacionadas con videojuegos o terminators, como ser el análisis de señales o la estadística. Y cuando se trata de computación, frecuentemente el desafío no es tanto implementar estas herramientas matemáticas en software y hardware, sino el cómo implementarlas de modo tal que respondan suficientemente rápido.
El Doom tuvo muchas de esa clase de optimizaciones implementadas a nivel software. El T-1000 necesitaba realismo antes que velocidad: más bien, necesitaba “velocidad suficiente” para los tiempos de los contratos, pero luego de eso todo el realismo posible. Mientras que el Doom necesitaba “realismo suficiente”, pero que luego los algoritmos funcionaran lo más rápido posible, de modo tal que el juego no fuera lento (o que fuera jugable siquiera en primer lugar). Son situaciones inversas, pero complementarias: ambos universos de problemas aprenden el uno del otro. Como decíamos antes sobre aquellas matrices, los renders generan imágenes que son al mismo tiempo matrices, y hacen las veces de los fotogramas de antaño en celuloide. De modo que a esa velocidad de generación de imágenes se la comenzó a medir en “frames per second”, o “cuadros por segundo”, casi siempre abreviado con la sigla “FPS”: donde esos “cuadros” son precisamente las imágenes generadas. El mismo software en diferente hardware va a trabajar a diferentes FPS. Y, en principio, mientras más FPS, mejor para la experiencia visual, al menos en el mundo de los videojuegos. Pero esto tiene muchas relaciones con estándares de hardware también: por ejemplo, los estándares de funcionamiento de los televisores (y más tarde los monitores) ponen condiciones a cuántos cuadros por segundo puede mostrarse en la pantalla, y entonces existen algunos horizontes de trabajo más o menos compartidos por todes. Era típico que las películas o programas de televisión se vieran en 24 FPS, y que ahora los videos por internet tengan 30 FPS, por diferentes cuestiones históricas; pero también es típico que hoy en día se pretenda que los videojuegos rindan a 60 FPS estables, lo cuál depende mucho del hardware donde se ejecute el videojuego. Aunque por aquel entonces cualquier programador de videojuegos estaría más que satisfecho con 24 FPS seguramente.
Mientras esta clase de cosas pasaban en las industrias vinculadas a los renders tridimensionales, un pequeño cónclave de ingenieres de hardware se reunía en California a debatir algunas ideas. Estamos hablando de gente que trabajaba en el diseño de microprocesadores, gente que hacía software de gestión gráfica, gente que venía de lugares como IBM o Sun Mycrosystems. Y debatían cuál sería la siguiente ola de cambios en el ecosistema tecnológico computacional de su era. Concluyeron que los avances de la computación general (es decir, la computación que se regía por una unidad central de proceso, o CPU) iba a dejar lugar a dispositivos solidarios, que trabajen en paralelo en cómputos más especializados, como ser computación orientada a gráficos. Eso era así porque las CPUs tenían sus límites, y la computación más especializada era realmente mucho más exigente de lo que ninguna CPU podía esperar rendir. Por ejemplo: todes hemos visto a nuestras computadores enlentecerse mientras estaba realizando alguna tarea, cualquiera fuera; imaginen pues si la ponen a realizar las tareas de render del T-1000, y tenemos que esperar durante días para poder mientras tanto responder e-mails. La respuesta a eso, decían estes ingenieres, era agregar partes extra a las computadoras, que aliviaran el trabajo del CPU cuando de tratara de algunos trabajos particulares. Y el caso de los renders para generar imágenes bidimiensionales era uno que se volvería evidentemente necesario. El Doom se salió con la suya, porque no tenía las exigencias que le pusieron al T-1000; pero esas exigencias existían en muchos espacios, donde difícilmente podían usar los trucos de magia que implementaba el Doom, y sin la capacidad de proceso adecuada nunca iban a florecer. Esa era, precisamente, la historia de la inteligencia artificial, que ya en varias oportunidades había sido traicionada por la realidad del hardware de su época.
Pero estes ingenieres notaron un detalle importante: los videojuegos se cruzaban con problemas computacionales bastante avanzados, mientras al mismo tiempo gozaban de un ecosistema de hardware suficientemente estandarizado, así como también una alta demanda de consumidores. Esa unión de factores era muy rara históricamente, y una oportunidad única para montar un espacio de investigación y desarrollo en computación de alto rendimiento que, a diferencia de lo que sucedió con la inteligencia artificial, esta vez fuera sostenible en el tiempo. La presencia de fenómenos como el Doom no hizo más que confirmar y solidificar esta hipótesis. Y de esa manera nacía en la primera mitad de los noventas la empresa NVidia, que utilizaría a los videojuegos como terreno fértil para la experimentación que diera lugar a la siguiente era de la computación más avanzada y exigente. Una vez más, esta empresa no sería ni la primera ni la última: esa clase de hardware especializado ya existía. Pero del mismo modo que experiencias como las del Doom daban la pauta de que en los videojuegos había una veta sostenible de experimentación, experiencias como las del T-1000 daban la pauta de que el hardware del momento apenas estaba en sus inicios.
En paralelo a todo eso, el hardware y software computacional peleaban otras batallas. ¿Recuerdan la estrategia de Bill Gates para hacer exitoso a su software? Bueno, eso rápidamente le trajo problemas con la justicia, y hasta directamente con el gobierno de los Estados Unidos. Resulta que Microsoft hizo unas cuantas cosas de moral más bien nula durante su “trabajo conjunto” con IBM. Primero, IBM le encomendó que creara otro sistema operativo para sus IBM PCs: el sistema OS/2. Microsoft lo hizo, e IBM comenzó a vender computadoras con ese sistema: pero Microsoft continuó vendiendo DOS y Windows por su cuenta, con lo cuál se convirtió básicamente en su propia competencia, y por esa vía no favoreció particularmente a IBM. De hecho, muy rápidamente renunció a continuar su trabajo sobre OS/2, frente a lo cuál la gente que había invertido en desarrollos sobre ese otro sistema operativo se encontró súbitamente a la deriva. Luego Microsoft hizo cosas como cobrarle licencias de DOS a los fabricantes aún cuando estos vendieran PCs sin ese sistema operativo. ¿Vieron ese sticker que viene en sus computadoras, que dice “compatible con Windows”? Bueno, para que los fabricantes pudieran poner ese sticker, que por aquel entonces era importante (recuerden que la gente comenzó a preguntar si la computadora era compatible antes de preguntar sus prestaciones), Microsoft no te homologaba el dispositivo sin pagar una licencia del sistema operativo. Y esto tenía como consecuencia que no se pudiera competir con Microsoft en términos de precios: otras empresas que hacían sistemas operativos, y se los daban gratis a los fabricantes, no se beneficiaban luego con una reducción de precio en la computadora, que valía lo mismo con o sin DOS/Windows. El colmo de esto eran las implementaciones alternativas de DOS: donde Microsoft vendía MS-DOS, otras empresas vendían otros, siendo el más conocido DR-DOS. Sucedió que Microsoft implementó secretamente código para que programas de ellos no funcionaran en DR-DOS, aún cuando tecnológicamente no había ningún impedimento. Y, del mismo modo, Microsoft implementó mucho código no documentado en sus sistemas, donde se aplicaban en software formas alternativas (y frecuentemente más eficientes) de resolver problemas computacionales, de modo tal que sólo su software (o algunos casos de terceros especialmente seleccionados) implementara estas mejoras, y pareciera entonces que su software funcionaba mejor que la competencia.
Las prácticas anticompetitivas de Microsoft dieron lugar a decenas de juicios, con centenas de millones de dólares en juego, y se convirtieron en un ícono de la empresa. Microsoft una y otra y otra vez aplicó todas las estrategias pensables para que su competencia fracasara, abusando del monopolio de software que logró montándose en la estrategia de estandarización que aplicó IBM en los ochentas. El software de Microsoft se convirtió en el estandar de-facto porque, antes de cualquier calidad de sus productos, se concentró en activamente eliminar a su competencia a fuerza de explotar e imponer su monopolio. Muchas empresas lucharon y fracasaron, mientras otras temían represalias de Microsoft si se atrevieran a hacerlo. Y los juicios contra Microsoft eran frecuentemente bien fundados, Microsoft los perdía, debía pagar sumas importantes por ello, y para cualquier empresa con escrúpulos podría haber significado una profunda vergüenza que manchara a su marca. Sin embargo, Microsoft jamás dejó de insistir en sus prácticas anticompetitivas, que ya eran su bandera en la década de 1990: esta empresa nació parásita de otras, y rápidamente se convirtió también en sometedora y depredadora.
Y las prácticas anticompetitivas eran de diferente naturaleza. A veces presionar a fabricantes de hardware, como mencionamos antes: piensen que fabricar hardware es una aventura cara, y si se ponen en riesgo las ventas se pone en riesgo también una bancarrota temprana, de modo que Microsoft tuvo ahí una vena jugosa desde temprano. Pero también sucedían otras cosas. Por ejemplo, pretendía cobrar licencias de software, y vender software: pero de repente también metía software gratis que viajaba junto con otro, no te lo cobraba, y te decía que era todo un mismo producto. Eso último fue el caso, por ejemplo, cuando salió Windows 95: que en realidad sería un “Windows 4.0” corriendo sobre un “MS-DOS 7”, pero hacía de cuenta que era todo una sola cosa (en lugar de vender Windows y DOS por separado, como en iteraciones anteriores). Esto quitaba del mercado a cualquier competencia de Windows que corriera sobre DOS. Del mismo modo, eventualmente comenzó a agregar Internet Explorer a Windows, haciendo que todo link a internet encendiera Internet Explorer, y que nadie entonces fuera a descargar otro browser web. Aunque hay muchos detalles que se le escapan al común de la gente, por ser detalles técnicos y comerciales. Por ejemplo, era típico que Microsoft comprara software en lugar de programarlo: ese era el caso con el mismísimo DOS. Y fué el caso también con Internet Explorer, que se lo compró a la empresa Spyglass. Spyglass había acordado con Microsoft un acuerdo similar al que Microsoft había antes acordado con IBM: regalías por las ventas de Internet Explorer. Pero luego Microsoft lo incluyó gratuito como parte de otros productos, con lo cuál Spyglass no veía un centavo. Esto lógicamente fué visto como una estafa de Microsoft, que fué llevado a juicio y perdió. E historias como esas tiene literalmente cientas.
Pero nunca le importó a Microsoft perder esos juicios multimillonarios. Gates siempre supo que el dinero vá y viene, pero hay cosas mucho más directamente vinculadas a la estabilidad del poder político y social que el poder económico. Una de ellas es la cultura. El dinero era por supuesto muy importante, pero no importaba cuántos juicios perdiera Microsoft si seguía en el centro de la cultura del software de las PCs: porque ningún fabricante era suicida, y porque la comunidad de usuaries y obreres del software también tenían mucho qué perder quedando aislades al no usar software de Microsoft. Nunca iba a caer Microsoft de su lugar de privilegio, a no ser que grupos tan heterogéneos como fabricantes de hardware, usuaries, y trabajadores del software, se unieran en un sólo movimiento. Y aquí es donde la oscura lucidez de tipos como Gates fundan imperios: por vías culturales, dominan la infraestructura de su momento. No necesitan ser dueñes de las fábricas de hardware, ni tener a les usuaries como sus dependientes empleades, para que todo funcione en beneficio exclusivo de elles, porque las infraestructuras también tienen determinismos culturales a los que las personas se adecúan. Y si hablamos de “infraestructura”, hablamos de “medios de producción”.
El software ya era un modo de apropiación de los medios de producción computacionales en la década de 1990. Stallman ya había sabido ver esto en la década anterior, y precisamente se puso a construir una cultura alternativa que diera lugar a otras formas de apropiación de los medios de producción. Todo esto por supuesto está planteado acá en términos abstractos, y en realidad hay otras dimensiones involucradas, donde la económica es siempre una de ellas: Microsoft controlaba la cultura del software, en buena medida, con dinero. Otra dimensión de problemas es el marco legal: los juicios que serían absolutamente ruinosos para otres, Microsoft los perdía los juicios pero podía sobrevivirlos. Llegó, de hecho, a estar muy cerca de caer: un juez dictaminó una vez que a Microsoft había que dividirla en dos empresas. Pero ahí es donde el dinero se vuelve una herramienta adecuada, por vías del lobby y la propaganda: a ese juez lo recusaron, pusieron a otro más afín a Microsoft, y el juicio justo sucedió durante el momento de transición desde Clinton hacia Bush; este último expresó su deseo de no separar a Microsoft en dos, y de poner fín a ese proceso lo antes posible. Pero eso sucedió más adelante: en los noventas, Microsoft era visto mucho más como un matón comercial que vinculado a ninguna política de estado.
Cualquiera fuera el caso, mientras la competencia comercial a Microsoft fracasaba miserablemente porque Microsoft jamás jugó limpio, la competencia cultural y política nunca dejó de organizarse, y todas aquellas artimañas de Gates y compañía llevaban bastante agua hacia ese otro molino. El proyecto GNU era prestigioso en los círculos adecuados. Y si bien su presencia en la cultura no era nada de magnitud, sí lo era en los ámbitos académicos vinculados a la computación. GNU no se formó en el mercado comercial de las PCs, sino en el ecosistema intelectual y de formación técnica de les trabajadores de la informática. Era básicamente una línea de organización gremial obrera. Que yo sepa, Stallman nunca lo planteó de esa manera, pero en la práctica nunca dejó de ser eso: parte derechos de propiedad sobre el producto del trabajo, parte estrategia de desalienación con respecto al producto del trabajo, parte organización de les trabajadores en una contracultura que garantice la posibilidad de control comunitario. Y esto no era ninguna juntada de pensamientos felices, sino una organización con cuadros técnicos de primer orden, intercediendo en puntos neurálgicos del ecosistema computacional.
Por ejemplo, Stallman mismo era parte del comité técnico que en los ochentas discutió un estandar de interoperabilidad entre sistemas operativos: formas de funcionamiento que los sistemas operativos debían honrar para poder ser homologados como compatibles con ese estandar, lo cuál luego les brinda un terreno seguro de trabajo a quienes programaran software para esos sistemas operativos. Este estandar se llamó finalmente POSIX. Piensen, por ejemplo, aquel problema que tuvo la gente que programó para OS/2 cuando Microsoft dejó de darle soporte: todo su software se volvió prácticamente inutil, y estaban obligades a programar para MS-DOS o Windows. Stallman, entre otres, ya estaba viendo cómo luchar contra esas cosas. O bien piensen en aquello de si DOS y Windows viajaban juntos o separados, o si se incluia o no a Internet Explorer, y etcétera. Desde el minuto cero, el proyecto GNU describió a su sistema operativo como un conjunto de diferentes componentes individuales, pero que se articulaban en su conjunto de diferentes maneras. Lo que pasó luego fué más bien evidente: mientras una persona con Windows luego debía comprar otro software por separado, dado que Windows simplemente se encargaba de dar un sistema base, GNU ya venía con mucho software disponible incluido. Esa modularidad explícita en rigor lo heredó de Unix, y fué uno de los puntos clave por los que se decidió a ir hacia esa concepción del software. GNU, entonces, no tenía esa clase de competencias comerciales como las que se vivieron entre IBM, Microsoft, Spyglass, y tantas otras empresas. Se aprecia rápidamente como Stallman veía las mismas cosas que Gates, pero se paraba en la vereda de en frente.
Como fuera, GNU tenía sus problemas: generalmente de orden técnico, pero son problemas que todes quienes alguna vez militamos algo conocemos también en el ámbito político. El proyecto GNU era llevado adelante mayormente por ingenieres y estudiantes que programaban en sus tiempos libres para el proyecto, sin fines de lucro. Eso le dió al proyecto diferentes velocidades. En algunos casos lograba implementaciones de software experimental innovador y de mejor rendimiento que sus contrapartes comerciales, o bien frecuentemente se adelantaba a los lanzamientos comerciales de algunas tecnologías (GNU tuvo interfaz gráfica antes que Windows, por ejemplo). Pero otras veces el trabajo era laborioso, muy especializado, y sin una dedicación exclusiva francamente lento. Este era el caso con el kernel, que es un componente del sistema operativo dedicado a interactuar con hardware: otro software le pide interacciones con el hardware al kernel, el kernel las realiza, y luego devuelve el resultado a ese otro software que se quedó esperando la respuesta del pedido. Eso requiere conocimientos de hardware que no siempre está disponible: frecuentemente se trataban de información protegida bajo secreto comercial, o bien no distribuida por los fabricantes. Entonces les ingenieres y estudiantes debían hacer ingeniería inversa: especular cómo funcionaba un hardware, y probar diferentes estrategias, para ver si lograban una comunicación adecuada con el kernel. Usualmente a esos softwares que hacen eso se los llama “drivers”, o “controladores” en español, y el kernel establece la manera en que los drivers deben funcionar. Los drivers son luego provistos por los fabricantes de hardware. Pero como los fabricantes eran siempre entidades comerciales, por lo general realizaban drivers sólo para software de orden comercial: léase, mayormente Microsoft. Y tanto el kernel como los drivers eran un punto de desarrollo lento en el proyecto GNU.
Así fué que en 1991, en una lista de mails, un jóven estudiante de ingeniería dice haber creado un kernel. En su mensaje decía que “no era nada serio y profesional como el proyecto GNU”, sino que lo hizo exclusivamente como ejercicio de aprendizaje. Ese jóven era Linus Torvalds, y su kernel se llamaría Linux. Y dado que el proyecto GNU era agnóstico en cuanto a su kernel, y que Torvalds accedió a distribuirlo bajo licencia GPL, rápidamente hubo una retroalimentación entre ambas iniciativas, y comenzaron a aparecer versiones del sistema operativo GNU con el kernel Linux. Sistema operativo que se distribuía de forma gratuita, con todas las funcionalides incluidas, y al que cualquiera tenía acceso a su código fuente. Esto fue muy interesante en el ambiente estudiantil y académico.
Durante los noventas, ese ecosistema paralelo al de Microsoft tuvo sus propias batallas internas. Linux compitió con otros kernels, tales como Minix, bajo debates vinculados a arquitecturas de software y cuestiones comerciales. Torvalds, de hecho, también discutió con la fundación Software Libre, y por momentos quitó la licencia GPL del código de Linux; eventualmente revirtió ese cambio. Pero a su vez el proyecto GNU tenía sus propias discusiones y luchas. GNU, por ejemplo, no era el único sistema operativo gratuito y popular en ámbitos académicos y técnicos: así como GNU era un descendiente de Unix ideado por gente mayormente del MIT, en la universidad de Berkeley tenían otro llamado BSD. Para 1993 se creaba FreeBSD, que era una versión libre de BSD aunque no con licencia GPL (bajo control de la fundación Software Libre) sino una licencia propia de ellos. La fundación Software Libre funciona como organismo homologador de la condición de “software libre”, pero no responde legalmente por todas las licencias sino sólo por las GPL. Estas cosas daban lugar a fricciones y fragmentaciones, aunque también a trabajos paralelos. Por ejemplo, el ecosistema BSD rápidamente se convirtió en el referente de arquitectura para redes computacionales, y se sigue usando en servidores de alto rendimiento hoy en día. Pero pasaban cosas en este ecosistema como que tanto BSD como GNU tenían implementaciones de software de redes mucho antes que DOS o Windows, además de que su software funcionaba frecuentemente mucho mejor.
Una de las fricciones internas fue el nombre mismo del movimiento y la fundación: “free software”. Por algún accidente de los lenguajes, en inglés “free” significa ambiguamente tanto “libre” como “gratis”. No son lo mismo: gratis es una relación con el costo en términos monetarios, pero libre es una relación con sus características de distribución y acceso al código. Libre puede sonar muy lindo, pero gratis no era una palabra que les comerciantes de la informática tomaran a la ligera: y si ambas palabras eran la misma, las confusiones estaban siempre a flor de piel, y con ellas las infinitas polémicas y desconfianzas. Con eso en mente, en algún momento se comenzó a hablar de “open source”, o “código abierto”, dentro del movimiento software libre, para tener una mejor relación con el ecosistema comercial. Pero eventualmente, la gente del “open source” se separó de la fundación software libre, y armó su propia organización: la OSI, o “open source iniciative”. Esta última ponía mucho más énfasis en el acceso al código que en los derechos de distribución de copias, ni en la gratuidad.
Gates, que no era ningún idiota, no dejaba pasar estas cosas sin hacer nada al respecto. Microsoft sistemáticamente implementó modificaciones en su software que lo hicieran incompatible con el funcionamiento de su competencia, y en el caso particular de GNU se encargó de implementar una versión rota y divergente de los lineamientos establecidos en POSIX. Pero hacia finales de los noventas, el continuo avance de GNU y el software libre en general llevó a que Microsoft los estableciera como su principal enemigo y de hecho su mayor amenaza: porque si el ecosistema de la programación terminaba adecuándose a esa cultura, Microsoft muy rápidamente perdería su centralidad y debería también adecuarse. Esto quedó demostrado en documentos filtrados que fueron presentados en cortes de Estados Unidos, aceptados como pruebas legítimas de prácticas antimonopólicas, y aceptados por Microsoft como documentos reales: los llamados “documentos de Halloween”. En los documentos hablaba de cosas como pácticas evangelistas que debían llevar a cabo representantes de Microsoft en puntos claves del ecosistema informático, así como también pago de sumas de dinero para comprar voceros de organizaciones con presencia mediática influencial en las decisiones mercantiles y políticas vinculadas a la informática.
Estaba claro que Microsoft era una organización con foco en la cultura, tal y como lo eran también la fundación Software Libre y el proyecto GNU. Hacia finales de los noventas, la rivalidad entre ambos ya era explítica, y Microsoft no pretendía jugar limpio tampoco contra esto. Como parte de su estrategia cultural, comenzó una campaña de desacreditación de GNU y la fundación software libre. Aunque algunas de estas estrategias comunicacionales fueron, si bien a simple vista disparatadas, en realidad bastante inteligentes. Por ejemplo, comenzó a hablar de “Linux” como su principal rival, pero siempre sin decir nada sobre GNU: de modo que no se ponga foco en darle publicidad al proyecto de Stallman, sino al desarrollo tecnológico de Torvalds, al mismo tiempo corriendo el foco y explotando los conflictos internos en la comunidad. Después, llamó a linux “comunista”: al mismo tiempo implicando que es anti-estadounidense y anti-occidente, y que Microsoft en realidad es el camino de lo estadounidense. ¿Vieron cómo los anticomunistas nunca dicen “capitalismo”, sino que plantean al comunismo como una especie de enemigo externo antinacionalista? Bueno, esas cosas son fáciles de usar en la propaganda. Y eventualmente hasta tejió vínculos con los círculos open source: donde esos vínculos frecuentemente tenían que ver con sumas de dinero.
Pero las dos técnicas más características de Microsoft tenían incluso nombre. La primera es FUD, que son las siglas de “fear”, uncertainty, and doubt”, o “miedo, incertidumbre, y duda” en español, que básicamente consistía en divulgar rumores con mentiras que afectaran las decisiones de tomadores de decisiones: usuaries, empresaries, universidades, estados. Y la segunda, de la que popularmente se conoce como modus operandi de Microsoft, se llama EEE: las siglas de “embrace, extend, extinguish”, que en español significa “adoptar, extender, y extinguir”. Este malévolo comportamiento funciona de la siguiente manera: cuando Microsoft no puede competir con algo, simplemente hace su propia versión de ello. Por ejemplo, un sofware libre servidor de correo electrónico funciona tan bien, que nadie va a comprar el de Microsoft. Entonces Microsoft implementa, en un software no libre, los estándares que implementa aquel otro software. Frecuentemente luego lo distribuye de manera gratuita, para que la gente lo pruebe. Y con incompatibilidades previamente puestas por Microsoft mismo en sus propios sistemas operativos, de repente el nuevo software es el único que funciona en sistemas de Microsoft. Esa es la parte de “adoptar”, o la primera “e”. Pero luego, además de implementar lo que fuera que implementaba aquel anterior, le empieza a agregar cosas: a veces cambios opcionales, otras veces funcionalidades agregadas, las cuales sólo funcionan con otro software de Microsoft. Esa es la parte de “extender”. Y finalmente, a fuerza de dominar los mercados, eventualmente discontinúa ese software, lanza una nueva versión esta vez con costo para quienes quieran usar todas las funcionalidades, y esta nueva versión además es incompatible tanto con la anterior como con aquel otro software libre. Esa es la parte de “extinguir”, o la tercera “e”. Para ese momento, les usuaries ya todes utilizan servicios de Microsoft que no tienen contrapartida en el mundo del software libre, y entonces no tienen más opción que adecuarse a las reglas de Microsoft si pretenden seguir haciendo lo que venían haciendo con sus computadoras.
Básicamente Microsoft, en los noventas, era un gigante en medio del ecosistema computacional cobrando peaje, y cualquiera que quisiera pasar por ahí debía enfrentarse a él por la fuerza: ya fuera que hiciera hardware, software, o que quisiera cambiar algo en esa cultura. De modo que esa clase de peleas en el mundo de la informática proliferaron, y todo se peleaba con Microsoft. Pero no eran las peleas que llegaban a ojos de los consumidores masivos. Los ojos del mundo estaban puestos, ya no tanto en la PC en sí como hardware, sino en su cada vez más nutrida cantidad de casos de uso de software, en especial con el advenimiento de Internet. Ahí se dió la guerra de los browsers, donde Netscape Navigator competía con Internet Explorer por ver quién estandarizaba qué componentes de la World Wide Web, y cómo lo lograba. Microsoft hizo lo que era rutina: explotar su monopolio. Pero Netscape no bajó los brazos y dió pelea, de una manera que sorprendía a amigues y enemigues, sobreviviendo durante años en paralelo a que prosperaban sus acciones legales sobre Microsoft. Una de esas batallas fué la creación del lenguaje de automatización de páginas web: javascript, que fuera creado por Brendan Eich, de Netscape. Microsoft contraatacó con su propia versión ligeramente incompatible, llamada jscript, y con su propio lenguaje privativo, llamado visual basic script. Las herramientas de programación de Microsoft eran compatibles con los lenguajes y dialectos de Microsoft, y para programar para una web completa era necesario duplicar esfuerzos.
Apple en ese momento estaba al borde de la quiebra. Ya había echado a Steve Jobs en 1985, y para esta altura terminaba aceptando cosas como meter Internet Explorer de browser por defecto en sus sistemas operativos, a cambio de algo de dinero de Microsoft. Apple podía hacer su propio hardware y su propio sistema operativo, pero además de enfrentarse a las mismas trabas culturales por parte de Microsoft a las que se enfrentaba GNU, también tenía que lidiar con los problemas comerciales (que GNU no tenía, porque no era un proyecto comercial), y al universo de problemas de fabricación de hardware. El software Microsoft, con Windows a la cabeza, era inesquivable del mismo modo que lo era el hardware Intel. A esa unión se la conoce como Wintel, y ponían las reglas del mercado. Otras empresas como AMD, por ejemplo, competían contra Intel en la creación de microprocesadores y chipsets de motherboards. Apple debía enfrentar lo peor de ambos mundos, y llegó a estar muy cerca de no poder contarla.
Mientras tanto, IBM simplemente dejó de pelear, y buscó refugio de tanta masacre comercial en otro lado. Todavía existían espacios donde la PC era considerada “un juguete”, y entonces apostaban por hardware y software de otras características. Los servidores, por ejemplo: que frecuentemente eran versiones más sofisticadas de la misma tecnología de las PCs, aunque a veces podían tener hardware especializado. Pero la vanguardia en esos aparatos que “no son un juguete” eran las mainframes, por un lado, que básicamente eran servidores para regímenes de prestaciones excepcionalmente altos, y por el otro lado las llamadas supercomputadoras: grandes computadoras dedicadas a realizar cálculos matemáticos de extrema complejidad. En ese contexto, IBM continuó algunos proyectos que venían de la época del veranito japonés de la inteligencia artificial: los llamados “sistemas expertos”, que fueron una estrategia de implementación de inteligencias artificiales ya no generales sino específicas. Y fué allí que la humanidad llegó finalmente a la más absoluta de las glorias: en 1997, el sistema experto “Deep Blue” de IBM, lograba derrotar al gran maestro Kasparov en ajedréz.
Ciertamente las supercomputadoras no eran ningún juguete, y se usaban para las más serias de las cosas. Pero, para variar, finalmente la inteligencia artificial tenía un éxito rotundo en ALGUNA de sus ambiciones. Y esto, por supuesto, le dió impulso nuevamente a la cuestión. Aunque, en realidad, la inteligencia artificial nunca se había ido a ningún lado. Sucedió que para la década del noventa, les científiques y técniques vinculados de cualquier forma a esa área ya habían aprendido a no decir en voz alta sus fantasías y a regular sus discursos si pretendían continuar teniendo trabajo. No precisamente porque el clima fuera hostil, sino porque las fantasías sobre inteligencia artificial habían llevado ya a tantas decepciones y bancarrotas que ciertamente a esa altura no eran la mejor estrategia para estimular la investigación. De repente había sintetizadores de voz, reconocimiento de caracteres, robots industriales de todo tipo, reconocimiento de lenguaje natural, software que analizaba datos, predicciones económicas, y tantas otras herramientas mediadas por diferentes formas de inteligencias artificiales, si bien mínimas, reales. Ganarle a Kasparov podrá haber tenido buena prensa, pero en todas las áreas las computadoras estaban cada vez haciendo más cosas.
Y la realidad virtual también estaba por todos lados, y al mismo tiempo que los juegos 3D proliferaban a pesar de ser mucho más feos que los 2D, en la tele los hackers se metían en mundos virtuales desde una cabina telefónica y andando en patineta o algo por el estilo. Lo tridimensional era un imperativo, difícil de rastrear para mí en su origen concreto, pero omnipresente. Y constantemente se mezclaba la idea de “3D” con “realista”: una línea que ya venía desde Terminator y tantas otras películas. Por alguna razón, el clima de época era algo así como que la tecnología 3D de alguna manera se iba a volver indistinguible de la realidad, y entonces íbamos a poder vivir experiencias inigualables. Matrix nos llamaba la atención sobre eso.
Pero en esa época el verdadero optimismo estaba puesto en internet. Se vivía como una especie de nuevo continente que los cybercolonos del cyberespacio irían a cyberpoblar. Y compartía esa fantasía capitalista y neoliberal de que, como la economía, siempre podía seguir creciendo: ahora gracias a la virtualidad. Lo primero era tener una identidad: te registrabas una cuenta de e-mail, o usabas siempre el mismo nombre en internet, sin importar mucho que tuviera nada qué ver con tu “nombre real”. Pero eso de la identidad, a la hora del comercio, significa “marca”. Y en internet, las marcas debían tener un nombre de dominio atractivo, contundente, central. Así empezó una bufonezca competencia entre marcas por registrar nombres de dominio, y de emprendedores intentando montar su negocio en internet. Estamos hablando de la época donde Homero Simpson creaba la empresa “compumundo hipermegarred”, y Bill Gates se la terminaba comprando aunque no se entendiera bien a qué se dedicaba. Esas cosas sucedían: en Argentina estaba “elsitio.com”, que básicamente tenía todo el potencial del universo para ser, efectivamente, un sitio de internet. De modo que la gente se conectaba a elsitio para… conectarse a un sitio, porque internet era tan primitiva que cualquier cosa era un evento. Si quieren degustar un poco del espíritu de aquella época, les recomiendo unos minutos en “zombo.com”.
Por supuesto todo este optimismo una vez más terminó en vergüenza, y a eso se le llamó “la burbuja punto com”. Los precios de los sitios web se inflaron tanto que eventualmente, cuando les inversores empezaron a pedir sus dividendos, nada resultó valer lo que decía valer. Esta vez el optimismo no tuvo nada de científico, y apenas algo de tecnológico, sino que fué enteramente comercial y financiero: como tantas otras burbujas de menor embergadura que ya se empezaban a volver rutina desde la hegemonía neoliberal. Y del mismo modo, como tantas otras burbujas, tuvo sus ganadores.
En 1994, Jeff Bezos tiene 30 años de edad y funda la empresa Cadabra, a la que pronto le cambió el nombre porque un abogado la confundió con la palabra cadaver. Este señor era ante todo un comerciante, y no se quería perder esa oportunidad histórica de hacer comercio en internet. Así que se puso a analizar ese todavía inexistente mercado, y llegó a conclusiones. Decidió que vendería libros, y que su empresa necesitaba un mejor nombre, así que la llamó Amazon, inspirado por la amazonia y el río amazonas. En cuestión de meses le empezó a ir bien, y para finales de los noventas ya aparecía en la revista Time como la persona que popularizó al comercio online.
La web era jóven, y tenía mucho por crecer todavía. Preparados para “el boom de los sitios web”, muches comenzaron a montar datacenters en todo el mundo, llenos de servidores que pasarían a ser la infraestructura del incipiente nuevo milenio. Y hacía falta aprender a navegar en estas aguas: para eso teníamos buscadores de sitios web, entre los cuales se destacaban el poderoso Yahoo y el mucho más eficiente Altavista. El mundo académico no cerraba tampoco los ojos a nada de esto.
Así, una vez más aparece en este relato la aventura de dos jóvenes estudiantes de una prestigiosa universidad, los cuales esta vez estudiaban las características formales de internet. Y en esto sí había ciencia. Uno de estos jóvenes interpretó a internet desde la teoría de grafos, e hizo otras interpretaciones sobre la naturaleza de los hipervínculos, y llegó a conclusiones como que los vínculos eran entre otras cosas una métrica de importancia de un sitio web, y por lo tanto podrían realizarse búsquedas de sitios de modo tal que se ordenen los resultados a partir de su importancia. Esa clase de ideas les estudiantes ahora podían ponerlas a prueba en el vanguardista sistema operativo GNU/Linux, y a partir de allí confirmar algunas hipótesis que luego les permitieran fundar otros desarrollos sobre ellas, o bien incluso conseguir financiamiento para sus proyectos. De esa manera, en 1998 aparecía en internet el novedoso, minimalista, y extrañamente eficiente buscador Google, de la mano de la empresa homónima fundada por Larry Page y Sergei Brin.
Y el mismo año sucedía un evento impensado para muches imbuides del espíritu de la época. Después de décadas de políticas neoliberales, pobreza, deuda externa, y crisis tanto social como política, en Venezuela elegían a Hugo Chavez como presidente, dando inicio al proceso que desde ese país llamarían Revolución Bolivariana: un extraño nuevo foco de socialismo, inquietantemente cernano geográficamente a los Estados Unidos, y con el amparo económico del recurso natural mejor cotizado. Lo cuál era al menos curioso, porque los conflictos ideológicos habían terminado hacía ya casi diez años atrás con la caida de la Unión Soviética, y de hecho se había terminado la Historia. ¿Acaso en Venezuela llegan tarde las noticias?
La década terminaba entonces con crisis económica tanto en el espacio como en el cyberespacio, triunfos de la inteligencia artificial que en realidad se sentían como amenazas para la humanidad, un mercado informático que más bien parecía un hervidero, y un fín de la historia que cada día iba perdiendo los colores fluorescentes en camperas y patinetas para dar lugar a fantasías de cyberpunk distópico de caras sobrias, con música anticapitalista, y temáticas de liberación de la humanidad. Algo raro ciertamente estaba sucediendo.
Vencedores vencidos
Por alguna razón cultural que en retrospectiva me cuesta mucho identificar su origen, me crié con la noción de que en el año 2000 llegaría el fín del mundo. Un poco las ficciones apocalípticas colaboraban con esas cosas, otro poco también el ambiente de superstición y misticismo en el que crecí se la pasaba hablando de inminentes anticristos y presencias demoníacas y profetas… cosas como esas. Supongo que todo eso terminó marcando una vara de expectativas muy altas porque, que yo recuerde, la llegada del año 2000 debe haber sido uno de los eventos más aburridos de la historia.
Creo que nada puede ser más presentativo de eso que el nunca buen Y2K. Se suponía que, al segundo exacto de cambio de siglo, una infinidad de sistemas informáticos de toda naturaleza podría fallar, porque su manejo de los años en las fechas era en dos caracteres en lugar de cuatro, y entonces en lugar de pasar del año 1999 al 2000 se pasaría del 99 al 00: situación para la que el software podría no estar preparado, y tener entonces comportamientos impredecibles. Estamos hablando desde cajeros automáticos hasta aviones o centrales nucleares. El Y2K se volvió un tema en los últimos años del milenio pasado, y era capaz de causar bastante tensión. Comenzaron a salir a la venta productos con etiquestas que indicaban “compatible con el año 2000”, las cuales termiban apareciendo en aparatos como bicicletas o licuadoras. Al final no era para tanto, y causó más vergüenza que desastre; aunque seguramente tengamos que agradecer a centenas de miles de gente que se ocupó antes de tiempo de que nada serio finalmente sucediera.
Para ese entonces yo ya me presentaba como programador. Ya había hecho programitas de todo tipo, mientras buscaba ser hacker y hacer videojuegos, pero al mismo tiempo algún empleo que me permitiera autonomía económica. Tenía 18 años, y mucho optimismo puesto en mi inteligencia y en la programación. Recuerdo, por ejemplo, que hacia finales de los noventas ya había hecho mis pequeños y humildes experimentos caseros con inteligencia artificial.
Hacía cosas como escanear los textos impresos de la facultad, pasarles un proceso de reconocimiento de caracteres, obtener así archivos de texto plano con el contenido de los libros, y luego delegarles esos textos a un sintetizador de voz que me los leyera. Durante largas horas entrenando personajes de videojuegos, dejaba de fondo a la computadora leyéndome los libros de la facultad mientras yo jugaba. Y de la misma manera improvisaba algunas formas de interactuar con la computadora directamente hablándole: me había programado mis propias automatizaciones para los juegos que a mí me gustaba jugar, a las que les agregué comandos de voz. Hoy decimos que los aparatos son inteligentes si hacen cosas como esas, pero yo las improvisaba hace más de 20 años con mi PC Pentium 2 con Windows 2000.
Y también había tomado todos mis logs de IRC, que pesaban un par de megas, y los había procesado de modo tal de lograr filtrar palabras únicas, para luego guardarlas en una lista en texto plano que hiciera las veces de base de datos. Luego eso sería consumido por un programa, que cargaría esa lista de palabras en memoria, y con ellas generaría textos: sentencias simples, oraciones. Mi programa generaba lo que en otros contextos llamaríamos “cadaver exquisito”: una sucesión de palabras al azar. Le agregué al programa algunas reglas sintácticas improvisadas, para que las oraciones fueran de alguna manera cercanas al lenguaje natural, y luego podía pasar algunas horas diciéndole al programa que me generara textos arbitrarios. Me decía a mi mismo que era “para buscar inspiración”: esperaba automatizar el trabajo de “tener ideas”, particularmente para pensar textos literarios.
Aunque secretamente buscaba cosas mucho más ambiciosas, para ser sincero. Estaba al mismo tiempo curioseando la manera de poder dialogar con la computadora, por un lado, y por otro la manera de modelar al concepto mismo de conocimiento. Si lograba suficiente precisión en esas aventuras, imaginaba poder automatizar la extracción de conocimiento desde internet o desde textos escaneados, y luego hacerle preguntas a mi programa. Imaginaba por esa vía poder superar mis propias limitaciones humanas en términos de conocimiento, por vías de la automatización de obtención y procesamiento de datos. Aunque también suponía que luego, con alguna pequeña vuelta de tuerca, podría programar algunos procesos cognitivos de modo tal que le pudiera delegar trabajo intelectual a la computadora, pudiendo así lograr cosas imposibles. Por ejemplo, de mínima podía simplemente pedirle a la computadora que hiciera algunas cosas que me permitieran ganar dinero sin demasiado esfuerzo. Pero de máxima podría pedirle que me diseñara estrategias para lograr cosas de ciencia ficción, como ser la inmortalidad. En el medio de esos dos extremos, estaba la idea de automatizar la ciencia: que mi computadora fuera capaz de generar hipótesis al respecto de problemas que yo le planteara, y luego accediendo a todo el conocimiento online y generando simulaciones pudiera poner a prueba ella misma tales hipótesis, todo de manera automática sin más que mi sola orden: básicamente, fantaseaba con programar un oráculo o algo por el estilo.
También imaginaba poder programar interfaces de usuario tridimensionales para mi computadora. Básicamente, pretendía tomar cualquier mapa de algún juego tridimensional de moda, y convertirlo en mi entorno de escritorio, que ya sería más bien un espacio virtual de trabajo. Pensaba interactuar con programas y sus ventanas de la misma manera que jugaba al Doom: caminando por ese espacio virtual, e interactuando con él de maneras que yo mismo determinara. De hecho, no veía problema alguno con permitir convertir a mi computadora en un espacio compartido de trabajo, tal y como los juegos online permitían a la gente conectarse y jugar juntes.
Por supuesto no logré ninguna de esas cosas, y me quedé más bien en los cadáveres exquisitos. Pero usaba ese programa bastante frecuentemente, porque ya lo había integrado a un muy primitivo entorno de escritorio creado por mí mismo para reemplazar al de Windows: lo mío era básicamente una pantalla negra, con un cursor titilante que iba escribiendo cosas al estilo Matrix. Y sucedió que ese prorama un día me generó la siguiente frase: “vivimos en los brazos del sueño”. Esto suena trivial, pero ese día fué como una revelación epifánica para mí: me quedé leyendo esa frase una y otra y otra vez, casi compulsivamente, tratando de entender lo que estaba sintiendo al leerla. Por un lado, yo sabía muy bien que ese programa no era inteligente. Pero por otro lado parecía haberme dicho algo tan profundo, tan poética y filosóficamente significativo, que no podía quedar tranquilo sin ponerle una explicación racional al cómo podía ser que de allí surgiera algo como eso. A ver si me entienden: yo hice a ese programa, yo creé esa frase, con toda su extraña sabiduría. Esa noche fué una montaña rusa emocional. Pero finalmente pude llegar a una conclusión que se sintió tan correcta como reveladora: el texto no significa nada, y el significado es un efecto, un suceso, un fenómeno, que ocurre adentro mío. No era el texto, ni su intención, ni su autor, sino lo que yo hago con él, conscientemente o no, lo que me llamaba tanto la atención. Lo cuál me llevó a reflexionar sobre la composición de nuestro aparato psíquico, la relación con aquellas sensaciones tan intensas vinculadas a la experiencia de revelación, la comunicación, y tantas otras cuestiones que eventualmente me terminaron llevando a estudiar Letras: una carrera mezcla de literatura y lingüística.
Por aquel entonces, mientras yo fantaseaba todas esas cosas con mi humilde computadora hogareña, ya no en mi Quilmes natal sino en Massachusetts, Marvin Minsky se preguntaba por qué llegaba el 2001 y todavía no existía Hal 9000. Reflexionando un poco en retrospectiva, quizás nací en el barrio equivocado. Como fuera, esa pregunta de Minsky se podía responder de muchas maneras. Estaban quienes decían que fué por los sesgos filosóficos o técnicos involucrados en las estrategias para plantear las diferentes inteligencias artificiales que ya se habían intentado, aunque también estaban quienes decían que era simplemente un tema de poder computacional en el hardware. Los debates, al menos en los referentes del área, no parecían haber prosperado mucho, y la inteligencia artificial seguía siendo cosa de imaginación de jovencites.
Pero, como ya había dicho, la inteligencia artificial no era donde estaba el optimismo, sino en internet. Yo hacía también páginas de internet, que era de lo que pretendía eventualmente conseguir algún trabajo. En ese contexto también tuve alguna epifanía, aunque ya más de orden comercial. Recuerdo una vez predije que, en vista a lo que era el desarrollo de “HTML dinámico”, eventualmente permitiría programar cualquier cosa dentro de un web browser. Tanto era así, que el sistema operativo directamente sería un web browser: como ya sucedía desde internet explorer 4, que se integraba al escritorio de Windows. Pero además, mi experiencia programando aplicaciones cliente-servidor me daba la pauta de que, eventualmente, se iba a poder procesar todo en servidores, y entonces las computadoras no iban a necesitar hardware de alto rendimiento: apenas un mínimo para mostrar los resultados en un browser, y conexión a internet. Con eso en mente, me dije a mi mismo que debía adelantarme a ese devenir histórico, y programar un sistema operativo que directamente bootee conectándose a internet. Este sistema operativo se llamaría “Internet Operating System”, o “IOS”, y por medio de esta visionaria idea yo me convertiría en el siguiente Bill Gates.
La idea duró poco: cuando agarré el primer libro de assembler, no pasé muy lejos de un “hola mundo” que rápidamente la aventura excedió mis capacidades. Pero la anécdota creo que refleja muy bien lo que era vivir la computación desde adentro en esa época: yo era un jovencito en una zona suburbana de un país del tercer mundo, y creía poder ser alguna forma de magnate solamente por tener las ideas correctas. Era la bajada de línea emprendedurista del momento, a la que cualquiera podía ser sensible.
Y también la realidad de conseguir trabajo con internet era mucho más problemática de lo que mi optimismo podía predecir. Sucedió que mi generación sólo había vivido a la PC Wintel como “computación”. Y en ese sentido, me crié con herramientas de Microsoft. Aprendí a hacer páginas web desde que comenzaron a existir, con editores de texto plano. Pero cuando ya se trataba de “programar”, cuando las páginas web comenzaron a tener cada vez más lógica y scripting y requerir trabajo del lado del servidor, ahí ya no usábamos un simple editor de texto: no señor, les profesionales usábamos una IDE, que es un editor de texto pero para programación. Y no había IDE más completa y profesional que Microsoft Visual Studio. Con Visual Studio podíamos investigar toda la estructura interna de los componentes de programación disponibles, tan sólo apretando un botón y desplegando un menú. Y podíamos exportar nuestro software a componentes ActiveX, que luego se podían utilizar en Internet Explorer. Era extremadamente poderoso, y dejaba al mundo al alcance de la mano para cualquiera que tuviera la voluntad de conquistarlo. O al menos así se sentía.
Lo que sucedió en la realidad fue que, cuando fuí a mi primera entrevista laboral de programador web, en la prueba técnica no me dieron Visual Studio sino un libro grandote y gordo con el que no estaba familiarizado, y una computadora para probar mi código. No era un gran problema para mí, porque yo estaba cómodo programando sin IDE: pero extrañamente mi código no funcionaba cuando lo probaba. No veía error, no entendía qué sucedía: programaba lo que había programado mil veces antes, y sencillamente no andaba. Hay toda una historia especial por la que conseguir ese trabajo era importantísimo para mí, pero no viene al caso: lo concreto es que tenía muchísima presión para conseguirlo, y fuí a esa entrevista muy seguro de mi mismo después de haber hecho mil experimentos de laboratorio en mi casa. Sabía cómo hacer las cosas, entendía los problemas a resolver, sabía hasta trucos para soluciones especiales: me sentía muy preparado. Y mi código no andaba. La entrevista técnica era una cosa de media hora, una hora como mucho: estuve varias horas, probando de todo y fracasando miserablemente. Me fuí de esa entrevista completándola a medias, donde mi código funcionó en Internet Explorer desde el comienzo pero nunca en Netscape Navigator. Y no conseguí el trabajo.
Lo que sucedió fue que yo aprendí una versión rota de javascript: o, más que rota, “extendida”. Las herramientas de Microsoft me formaron como profesional para trabajar con las herramientas de Microsoft. Pero internet era más grande que Microsoft. Mi código no funcionó porque la versión de javascript de Microsoft era insensible a mayúsculas y minúsculas, por un lado, y permitía acceder a propiedades de objetos de manera no estandar, por otro lado. De modo que yo usaba sintaxis que parecía javascript válido, pero en realidad no lo era. En esa época no existían las herramientas de diagnóstico como hoy las conocemos, de modo que une tenía que poner un montón de mensajitos en el código para poder entender qué sucedía: alertas, que me indicaban qué parte del código se estaba ejecutando, y entonces así une podía seguir hasta qué punto el programa funcionaba y dónde dejaba de funcionar. Pero la sintaxis de Microsoft rompía incluso eso en Netscape Navigator, y entonces me dejaba a ciegas creyendo que mi código iba a funcionar y sin saber por qué no lo hacía. Netscape Navigator tenía una consola de errores, pero yo francamente no entendía ni cómo usarla ni qué me decía. No importó cuántas vueltas le dí, cuántas ideas originales apliqué para ver si lograba resolver los problemas de otras maneras: el problema era sintáctico, así que nunca iba a funcionar.
Me tocó vivir el momento más intenso de la guerra de los browsers, en carne propia. Sufrí muchísimo el no haber conseguido ese trabajo. Y esa fué la primera vez que tuve un problema con Microsoft. Antes de eso, lo sentía como mi mejor amigo: me daba herramientas, me permitía hacer magia con mi computadora y fantasear mil futuros maravillosos. Pero después de eso comencé a desconfiar, a diversificar mis conocimientos, a dejar de basar mis conocimientos en una herramienta como Visual Studio y a tener más presente y ser más cuidadoso con los estándares que rigen mi código. Era una cuestión ya de supervivencia gremial.
Pero esto no es mi diario íntimo: mi historia viene al caso porque fue la de millones, de personas y de dólares. En esos mismos años sucedía el juicio que el gobierno de los Estados Unidos llevaba adelante contra Microsoft, precisa y exactamente por hacer eso que me hizo a mí. Como mencioné antes, las prácticas anticompetitivas de Microsoft eran famosas, hacían escuela, y daban lugar a juicios multimillonarios, de los que salía simplemente pagando sumas dinero para luego continuar su comportamiento. Aunque uno de esos juicios fué muy especial. El gobierno de los Estados Unidos acusó formalmente a Microsoft de mantener un monopolio ilegal del mercado de las PCs: por lo que hacía con los fabricantes, y por lo que hacía con su competencia en el área de software, siendo el ejemplo cosas como incluir por fuerza Internet Explorer profundamente integrado con su sistema operativo.
Es interesante revisar las grabaciones de las declaraciones de Gates durante ese juicio. No aquí en este ensayo, claro, sino que invitamos a quienes les interese a buscar ese material por internet. Básicamente, Gates por momentos actuaba con tono altanero o hasta burlón, mientras que en otras grabaciones se lo veía nervioso y ofuscado, constantemente esquivo. Básicamente, el gran genio de la informática moderna daba vergüenza ajena y se mostraba como una persona muy carente de algunas capacidades intelectuales. Entre las evidencias que se presentaron en el juicio, se mostraban mensajes internos de Microsoft donde ejecutivos decían cómo eso que me pasó a mí en mi entrevista de trabajo era algo que se pretendía sucediera adrede: algo planificado. Y desde Microsoft hasta intentaron presentar videos en su defensa, donde mostraban que los problemas que se mencionaban en Windows no eran ciertos, pero rápidamente se demostró que los videos eran falsificados y tuvieron que aceptarlo en la corte. Era un absoluto bochorno. Bill Gates, y su CEO sucesor Steve Ballmer, ambos consideraron irse de la empresa durante ese proceso.
Y en el año 2000, la corte dictaminó que Microsoft era culpable, y ordenó separarla en dos empresas para remediar el problema del monopolio: una empresa se encargaría del sistema operativo, y otra empresa sería dueña del resto de su software. Era un fallo que dejaba un precedente enorme, y que venía a cambiar el ecosistema de la computación en general.
Microsoft apeló de inmediato a la cámara superior correspondiente. Y el Gobierno de los Estados Unidos tampoco se quedó quieto: también de inmediato inició los trámites para que esa apelación fuera llevada directamente a la suprema corte de justicia, la instancia final. Para ese entonces ya había aparecido una carta pública de un think tank neoliberal en los periódicos de mayor tirada de los Estados Unidos, diciendo que el juicio era antiamericano y que el estado era títere de las empresas rivales de Microsoft y no debía meterse en la gestión industrial. Y durante ese proceso, el gobierno cambió de la administración Clinton a la administración Bush, donde esta última dijo que pretendía llevar alivio rápido a los consumidores, para lo cuál fueron instruidos los fiscales del caso. “Estoy del lado de la innovación, no de la litigación”, dijo Bush. Prontamente, la corte suprema encontró un tecnicismo por el cuál el juez que dictara la separación Microsoft fuera considerado sesgado e incompetente para juzgar: parece ser que, en algún momento, el juez habló con la prensa sobre el caso, lo cuál constituye una violación del código de ética, y de esa manera entonces debía recusarse. De modo que la corte suprema revocó la sentencia anterior, y dijo luego que Microsoft no requería separarse.
Ese fué otro punto visagra en esta historia. Un universo paralelo donde Microsoft se hubiera separado, habría sido radicalmente diferente para el campo de la informática en general, y por lo tanto del mundo como lo conocemos. Pero lo que sucedió en nuestro universo es que Microsoft logró, básicamente, “leyes de impunidad”, al menos en términos de jurisprudencia.
Eso fué en el 2001, y marcó el clavo final en el ataúd de Netscape, finalizando también la guerra de los browsers. Internet Explorer se convirtió rápidamente en el standard de-facto de los browsers, y todes les que quisiéramos trabajar con internet debíamos hacer esfuerzos para que nuestro software funcionara con los lineamientos de Microsoft, independientemente de nuestro contexto. Por ejemplo, no había Internet Explorer en GNU/Linux, y las versiones en sistemas de Apple tampoco funcionaban igual a las de Windows. Cualquiera que haya vivido esa época conoce cómo fué: todo en internet pasó a estar hecho casi exclusivamente para Internet Explorer. Aunque, en un principio, ese todo no era muy extenso qué digamos: internet seguía siendo más bien primitiva.
Pero se vé que la historia quiso compensar el fiasco del año 2000, y se guardó todo el dramatismo para el 2001. El histórico juicio a Microsoft, que logró llegar a ser cuestión de estado, apenas pasó a ser una nota al pié administrativa cuando más tarde, en el mismo año, sucedía el ataque a las torres gemelas, con la subsecuente “guerra contra el terror” como respuesta. Recuerdo que ese día dormí hasta tarde, y mi abuelo me despertó al grito extrañamente alegre de “despertate que empezó la tercera guerra mundial”. Ese mismo año, pocos meses después, mi país finalizaba una crisis política y económica terminal del proceso neoliberal iniciado a principios de la década pasada: manifestaciones con decenas de muertos en la calle, múltiples presidentes en apenas dos semanas, y un profundo descrédito de la política bajo el grito unánime “que se vayan todos”. Así terminaban las milagrosas maravillas neoliberales en Argentina, y no pasaba un año entero que en Brasil era elegido democráticamente Luiz Ignácio Lula da Silva, candidato del Partido de los Trabajadores: otro aparente foco socialista en la región, y esta vez en el país más poderoso de todos. El neoliberalismo sólo trajo desastre a la región, y para 2008 ya había una nueva ola progresista en toda América del Sur con apellidos como Chávez en Venezuela, Lula en Brasil, Morales en Bolivia, Kirchner en Argentina, Correa en Ecuador, o Lugo en Paraguay: todes de sesgo regionalista y distribucionista, mayormente con industrialismo keynesiano pero algunes directamente también reivindicando al socialismo como horizonte. Era básicamente una respuesta directa al Plan Condor, y en pleno momento de exacerbación del militarismo estadounidense. Nota mental: nunca subestimes a la Historia.
Aunque es Microsoft quien debería de haber considerado esa nota. Ya sin límites aparentes en la industria informática, Microsoft se dedicó a consolidar su dominio absoluto del mercado informático, lanzando productos de software que reemplazaran a los de su competencia, con las tácticas que ya conocemos: fabricantes forzades a distribuir software Microsoft, trabajadores obligades a hacer su trabajo compatible con Microsoft, universidades enseñando con tecnología Microsoft, y ahora la novedad de la década eran Estados y organizaciones privadas por internet exigiendo al software de Microsoft como requerimiento para realizar trámites. Desde los formatos de documentos de texto hasta cómo se escriben los caracteres a nivel binario, pasando por cómo se interpretan los dialectos de protocolos de internet y la absoluta necesidad de instalar programas de Windows para poder realizar actividades comerciales o profesionales, Microsoft imponía las reglas para todes. Si usabas cualquier otra cosa que no fuera de Microsoft, tenías problemas con Microsoft. Y como si fuera poco, los productos de Microsoft ya no eran particularmente de buena calidad, sino más bien todo lo contrario: pesados, llenos de vulnerabilidades que dieron lugar a infinitos problemas con viruses informáticos, incompatibles con versiones anteriores, muchas veces estancados en el tiempo e impidiendo el uso de nuevas y mejores tecnologías… era a todas luces un absoluto abuso.
De hecho, en esta década aparecen algunos de los escándalos éticos más notorios de Microsoft, que ya pasaron a incluir sobornos y amenazas tanto a cuerpos de estándares internacionales como a funcionaries estatales de diferentes gobiernos de todo el mundo. El caso de la estandarización del formato privativo de documentos de Microsoft Office hacia el 2007 fue muy famoso: para ese entonces Windows y Office eran los vectores de influencia cultural por excelencia de Microsoft, y si bien GNU/Linux podía estar lejos de representar una amenaza no era el caso con Open Office, una suite ofimática alternativa, gratuita, y libre. Open Office tenía su propio estandar alternativo, llamado “Open Document Format” u “ODF”, plenamente interoperable. Microsoft hizo lo de siempre: sacó una nueva versión de Microsoft Office, esta vez su nuevo formato se imponía por fuerza, y lógicamente Microsoft no cumplía con la interoperabilidad de ODF. Pero para este entonces los problemas de interoperabilidad eran un tema serio en la gestión estatal, y el software que se utilizara cada vez más exigía adecuarse a lineamientos aprobados por cuerpos de estándares. De modo que Microsoft fué a registrar su propio estandar, al que llamó cínicamente “Office Open XML”. Finalmente Microsoft logró la aprobación, luego de un proceso que resultó en un escándalo mundial del que es fácil encontrar referencias por internet, pero que incluyó todo tipo de prácticas espúreas sobre les integrantes del cuerpo de estándares internacional (compuesto por cuerpos de estándares de múltiples nacionalidades).
Y aunque mucho no pareciera importarle, por estas cosas Microsoft hizo muchos enemigos por esa década. El primer gran vector de crisis en Microsoft fueron los servidores. ¿Recuerdan la burbuja “punto com”? Eso hizo que centenas de miles de servidores alrededor de todo el mundo quedaran instalados sin mucho uso qué digamos: al menos no el que se pretendía que tuvieran. Y el software Microsoft para servidores era caro, inseguro, lento, y más complicado para realizar tareas de mantenimiento, que su ya entonces productivas contrapartidas en GNU o BSD. Además, buena parte del sector estudiantil o trabajador de la informática en general, vivía una y otra vez las cosas que conté me tocaron vivir a mí: pero a diferencia mía, tenían una cultura alternativa de la cual participar. De modo que la burbuja “punto com” dejó disponible infraestructura barata para ser explotada por cualquier empresa aventurera, y muchas de ellas no tenían ninguna intención de ser lacayos de Microsoft. Una de ellas fué Google, que ya por este entonces era la forma estandar de buscar información por internet: superando por lejos cualquier cosa que hicieran Yahoo o MSN Search, y hasta llevando a la obsolescencia al antes dominante Altavista.
Pero, insisto, la batalla contra Microsoft no era tanto comercial como cultural. Netscape perdió su guerra de los browsers, pero en el camino creó a la fundación Mozilla, y liberó el código de Netscape Navigator, desde el cuál se creó a Mozilla Firefox: un browser alternativo a Internet Explorer, pero con un compromiso con estándares de interoperabilidad que Microsoft nunca tuvo. Por si a esta altura no se entiende: “compromiso con estándares de interoperabilidad” significa también al mismo tiempo “compromiso con les trabajadores” y “compromiso con las empresas”. Nosotres que programábamos internet por aquel entonces aprendimos a odiar a Internet Explorer y amar a Firefox, que a su vez rápidamente comenzó a tener también soporte empresarial de todo tipo: por ejemplo, de parte de Google, que se volvería su buscador por defecto y promocionaría a Firefox como browser de preferencia. Y, además, Firefox tenía un ecosistema de complementos muy celebrado, que en el año 2006 diera lugar a la creación de Firebug: una herramienta para programadores que permitía registrar errores y revisar el funcionamiento de las páginas web mientras se ejecutaban; aquello que no tuve durante la entrevista de trabajo que conté antes, ahora nos lo daba Firefox. Eventual y rápidamente eso se convirtió en el estandar de desarrollo web, cuando todos los browsers implementaron de manera nativa su propia versión.
Hay muchas cosas de las que no hablamos, que Microsoft también rompía y así generaba odios tanto en empresas como en trabajadores y hasta consumidores. Por ejemplo, la cuestión de los codecs multimedia: audio y video, ya sea en directo por internet (en el web browser) o descargado, en Windows siempre traia problemas, muy especialmente por los reproductores que Windows imponía. Por esa razón empezaba a aparecer un ecosistema de codecs que competían con los que imponía Microsoft, y que como en el caso de Netscape no era raro fueran situaciones donde alguna otra empresa fuera anteriormente dañada por las prácticas anticompetitivas.
Aunque para les trabajadores, el peor pecado de Microsoft era siempre la última E de su tripe E: “extinguish”. Era común que Microsoft comprara empresas con productos de software exitosos, “extendiera” las funcionalidades de esos productos para “integrarlos” a otras cosas, prontamente dejara de funcionar bien, y finalmente Microsoft lo discontinuara, para luego sacar una versión de algo similar: aunque esta vez con un nombre diferente, con políticas de uso mucho más agresivas, y con incompatibilidades con lo que hubiera antes. Si compraba un servicio de mensajería, perdías tu historial de mensajes y tus contactos; pregúntenle a alguien que haya usado ICQ. Si sacaba una nueva versión de su suite ofimática, tenías que hacer tareas de conversión de tus documentos y adecuarte a una nueva interfáz gráfica que era en rigor una nueva línea de trabajo diferente, y sin ninguna virtud agregada. A veces sencillamente compraba cosas y las mataba, sin más mediación. Esto era muy problemático para usuaries, pero muy especialmente lo era también para trabajadores, y yo lo viví cuando en 2001 Microsoft discontinuó sus versiones anteriores de lenguajes de programación, y lanzó “Visual Studio .NET”.
Para ese entonces, los lenguajes de Microsoft competían con Java. Java permitía una interoperabilidad muy superior a cualquier otra cosa que ofreciera Microsoft, además de implementar un paradigma de programación muy bien visto en ese momento de la historia del gremio. De repente une podía programar en Windows un programa que luego podía ejecutarse en una computadora Apple, en un sistema operativo GNU/Linux, o incluso dentro de un web browser. Java iba a ser el futuro, y Microsoft hizo lo que siempre hizo: regalar una versión rota hecha por él, para que la gente no usara el Java real. Microsoft nuevamente perdió un juicio multimillonario por hacer eso, y esta vez para variar se le exigió que descontinuara sus versiones rotas de Java, de modo tal que Java no estuviera bajo control de Microsoft. Pero entonces Microsoft explotó su unión de-facto con Intel, y entre los dos registraron una serie de estándares ISO de interoperabilidad de software, que permitieran programar de una manera similar a la que permitía Java, aunque esta vez bajo control de Microsoft. Eso se llamó “.NET”, y cuando Microsoft lo lanzó a la calle, toda herramienta de programación pasó a estar bajo la órbita de “.NET”, que a gente como yo le exigía básicamente re-aprender a programar aplicaciones de escritorio, quitándonos de un plumazo nuestra pericia técnica acumulada por años de experiencia. Esto puede sonar sobredramatizado, pero dejo un ejemplo para que tomen dimensión de qué estoy hablando: hoy, año 2023, todavía hay ofertas de trabajo para usar aquellas tecnologías anteriores a “.NET”, cuya última versión data del año 1998; así de costoso puede ser pretender cambiar esa infraestructura productiva que es el software. Y estas cosas no nos hacían más amigues de Microsoft precisamente.
Cualquiera fuera el caso, si bien con triunfos y fracasos, había una contracultura, cada vez más fuerte por todas estas cosas que relato. GNU/Linux se hizo más, y más, y más fuerte en el entorno de servidores, y con ello prosperaba también software que no fuera ni hecho por Microsoft ni para correr en Windows. Las propias limitaciones sintéticas que Microsoft ponía en su ecosistema eran la base empírica para evitarlo y construir mejores alternativas. Aunque, si bien esto podía ser un hecho para el mundo laboral y empresarial vinculado a servidores, les usuaries finales y la gente que como yo pretendiera trabajar con interfases gráficas tenía que vérselas con Microsoft más temprano que tarde. Y entre eso, y el hecho de que los productos Microsoft pasaron a ser notablemente deficientes en diversos frentes, dió lugar a que otras empresas pudieran también encontrar algún espacio dentro del mercado consumidor. Este fue el caso de Apple, que a duras penas logró sobrevivir a los noventas. Pero la nueva década le depararía un lugar impensado a Apple.
Donde Microsoft es básicamente una organización mafiosa y existe solamente para explotar un monopolio, Apple se sostiene bajo otro principio bastante más ilustrado, mucho menos salvaje: fetiche de la mercancía. Apple re-contrató a Steve Jobs como directivo, y logró armarse un ecosistema paralelo al de Microsoft y al del Software Libre concentrándose en la experiencia de usuario en términos generales: por un lado lineamientos estrictos de cómo debe funcionar el software en su ecosistema (algo que en los otros dos mundos era más bien caótico), y por el otro lado implementando también fuertes lineamientos en términos de diseño visual y ergonómico, tanto de hardware como de software. Para ello también se amparó en código de software libre, como ser de proyectos como BSD o KDE, que luego de substanciales modificaciones fueran la base del software privativo de la empresa. Así logró hacerse de un mercado más exclusivo que el de las PCs “IBM Compatibles”, y defenderlo de los ataques de Microsoft. Algunas áreas del trabajo técnico también tuvieron durante un momento breve algunos beneficios productivos a la hora de trabajar con hardware y software Apple, como ser el trabajo con audio y video. Pero mayormente el ecosistema Apple era “lindo”, y “funcionaba bien”. Desde allí también logró imponer algunos estándares de-facto de software, como algún que otro formato de audio o video, o hasta incluso desarrollar su propio browser, del mismo modo que sus trabajos en diseño inspiraban muchas ideas en los otros ecosistemas.
Pero Apple seguía siendo una empresa muy de nicho, exitosa apenas en algunos paises ricos, y con muy poca presencia en paises como el mío. Y tampoco tenía casi presencia alguna entre los servidores, salvo por algunas cuestiones muy particulares de su ecosistema. Muy rápidamente pasó a darse la siguiente segregación de software y hardware: GNU/Linux en servidores, Wintel en PCs de escritorio para consumidores finales, y Apple en otras computadoras más especializadas para mercados particulares. Las prácticas de Microsoft eran exitosas en sostener su monopolio, pero no parecían darle herramientas para todo lo demás, donde la gente conocedora ya no quería tocar nada de Microsoft ni con un palo de varios metros. Y entonces sus prácticas de éxito se convirtieron también en su punto débil. Wintel nunca fué la combinación más eficiente en términos tecnológicos, y para esta época la eficiencia comenzaba a ser un factor importante, porque empezaban a aparecer otros hardwares para consumidores finales pero que requerían regímenes de rendimiento a los que Microsoft no podía aspirar ni con Intel ni con Windows. Nos referimos a cosas como consolas de video juegos, reproductores multimedia portátiles, dispositivos de control industrial de todo tipo, y por supuesto los teléfonos móviles.
Microsoft siempre tuvo versiones de Windows para otros dispositivos que no fueran “PCs IBM compatible”. “Windows CE”, “Windows Mobile”, “Windows Server”… todas versiones sensiblemente diferentes de Windows, que pretendían hacer del conocimiento que les trabajadores ya tenían en sistemas Windows un puente hacia otros mercados: en lugar de tener que aprender múltiples sistemas, y usar multiples herramientas, y hasta tener que familiarizarse con múltiples teorías y escuelas de programación, se suponía que une podía simplemente usar Visual Studio y programar para cualquier otro sistema. Pero esas versiones de Windows rápidamente mostraban sus deficiencias comparativas con la competencia, esta vez sin que Microsoft tuviera el monopolio del mercado en cuestión, con lo cuál tarde o temprano pasaban a la irrelevancia.
En el mundo de los teléfonos móviles, Microsoft no era particularmente prominente. Empresas de tecnología como Nokia o Sony tenían mucha más presencia y vivían a la vanguardia de los desarrollos, aunque también existían empresas con dedicación más exclusiva como Blackberry. Y la telefonía móvil muy rápidamente pasaba de ser el futuro de internet a ser un presente cada vez más tangible. Los detalles al respecto son muchos y sin gran importancia, lo concreto es que en 2007 Apple lanza el iPhone luego de llevar varios años lanzando otro productos como iMac e iPods. El iPhone era básicamente, como cualquier otro teléfono móvil, una computadora pequeña con un modem: pero a diferencia de iteraciones anteriores de teléfonos, esta vez realmente se permitía usar un web browser con las mismas prestaciones que en cualquier otra computadora, llevando finalmente la idea de tener internet en el bolsillo a la realidad. Fué un éxito rotundo, y un punto de inflexión en la tecnología, tanto móvil como de internet.
Pero Internet era el mercado de Google, no de Apple, y esta otra empresa también se la pasaba generando revoluciones. La calidad de productos como Google Maps o gmail sorprendía a todes, al mismo tiempo que compraba muchas empresas que operaran en internet. Para ese entonces “googlear” ya era sinónimo de buscar en internet, y todo lo que se pudiera hacer por internet era de interés para Google. La entrada de Apple a la internet móvil por la vía del hardware no fué un evento menor para Google, que también tenía en planes sus propias estrategias de control de esa cultura: cualquier evento de estas características podía terminar en un monopolio sometedor como antes lo había sido Wintel, pero además era evidente para ese momento que el desarrollo de internet también dependía fuertemente del software con el que se la utilizara. Por ello Google también desembarcó en el mundo de los teléfonos móviles, aunque con otra estrategia.
La Apple con Steve Jobs a la cabeza siempre fué una empresa de arquitecturas cerradas. Sus estrictos límites le permitía un control absoluto del ecosistema a Apple, y de hecho la empresa tuvo serios problemas cuando intentó utilizar arquitecturas abiertas para competir con la PC IBM. De modo que el iPhone fué otra iteración más de arquitectura cerrada. Pero Google se formó con arquitecturas abiertas, donde el control pasa por los estándares y las licencias de fabricación y reproducción. De modo que Google diseñó una estrategia de hardware y software abiertos, de modo tal que desde Google se controlaran algunos lineamientos del sistema operativo, pero en realidad cualquier fabricante pudiera modificarlo más o menos a su antojo y usarlo en muchos dispositivos. Para ello, tomó al kernel Linux que ya se usaba popularmente con GNU, aunque lo utilizó con otro sistema operativo de su propia creación, llamado Android. Android no es GNU, pero ambos usan al kernel Linux, y ambos son en buena medida “open source”: aunque Android no es software libre. De hecho, es raro que les fabricantes liberen el código de los drivers para los teléfonos donde implementan Android, y esos drivers son absolutamente privativos. Como sea, esta estrategia fue exitosa, porque muches fabricantes tuvieron oportunidad de acceder a un ecosistema normalizado de aplicaciones para telefonía móvil, a diferencia de los años anteriores donde había que re-hacer el software casi que para cada dispositivo que salía al mercado. Y entonces terminó pasando lo mismo que en décadas anteriores había sucedido con el software Microsoft en las PCs IBM. Aunque esta vez el software se sostenía sobre Linux, que ya estaba preparado desde su nacimiento para adecuarse a múltiples fabricantes de hardware, y entonces no sucedería lo que antes sucedió con Intel.
Microsoft, mientras tanto, perdía cada vez más relevancia. Muchos mercados seguían dependiendo de sus decisiones, pero su futuro no se mostraba tan asegurado como él prentedía hacer de cuenta. La baja calidad de sus productos, y el destiempo en el que los lanzaba (frecuentemente mucho más tarde de lo que las oportunidades de negocio exigían) generaban francamente vergüenza: como lo fuera el lanzamiento de Internet Explorer 7, o bien el mismo Windows Vista, dos versiones mucho peores de su software anterior, que no sólo no resolvían ningún problema sino incluso agregaban más. Cada vez se hacía más horrible convivir con Microsoft, para todes. Aunque hubo un área donde mantuvo el total dominio del mercado, casi sin molestia alguna: los video-juegos por computadora.
Esta fué la década que los arcades lentamente dejaron de existir: porque los videojuegos de consolas hogareñas mejoraban mucho, porque mantener los arcades era caro, porque la piratería por internet era muy prolífera, y porque las experiencias de juego colectivo ya pasaban más al mundo de los juegos por computadora. Aquello que antes hacía tímidamente el doom en redes hogareñas, ya entonces lo hacían el counter strike o el diablo 2 por internet. Los juegos en red, ya sea local o por internet, pasaban a dominar el ambiente competitivo, y las consolas todavía daban sus primeros pasos en eso de la conectividad. Pero, habíamos dicho, los juegos tenían muchos problemas computacionales sofisticados qué resolver. Si a eso le agregamos todos los problemas de software que mencionamos en la historia del monopolio Wintel, es entendible que les programadores rara vez eligieran programar un juego para ninguna otra plataforma. Y lo mismo sucedía con el hardware.
Entrada la década del 2000, nVidia ya se había establecido como la referente en hardware de aceleración de gráficos 3D, y los videojuegos eran la pujante caja de maravillas en ese ámbito de las artes. De hecho, los videojuegos tenían una sorpresa para dar al respecto. Las películas basadas en videojuegos compartían históricamente el mismo problema que las películas basadas en historias de superhéroes: eran películas frecuentemente malas, cuyas actuaciones y ambientaciones estaban lejos de honrar los productos originales, o bien la cultura del ambiente cinematográfico no permitía una adaptación plena. Pero en el contexto de la animación 3D, una de las empresas de vanguardia en la cuestión lanzó su propia película cinematográfica, inspirada en su propia franquicia, esta vez hecha enteramente con animación tridimensional que se pretendía fotorealista. Es decir: era una película entera con renders como los del T-1000 en Terminator 2, ya sin actores filmados, sin fotografías ni sets de filmación, ni ninguna otra cosa en términos visuales que no fuera animación 3D.
La película se llamó “Final Fantasy: the spirits within”. Y estaba basada en los videojuegos de la saga Final Fantasy, de la empresa Squaresoft, que en ese momento iban por su novena iteración. Aunque en realidad ninguno compartía una continuidad con el anterior, y eran todos historias más bien autónomas en universos ficcionales separados. Sin embargo, era una saga que solía incluir componentes de ciencia ficción, de diferentes filosofías, y para esa altura también de animación 3D. Y la película fué al mismo tiempo un rotundo fracaso comercial, y un evento más bien mediocre para la crítica especializada en cine, pero también un espectacular triunfo de la tecnología.
Para aquel entonces, la animación 3D continuaba siendo más bien caricaturezca, y no se pretendía fotorealista: porque era demasiado costoso el fotorealismo, no sólo en términos de dinero sino también en la pericia técnica que requería. Animar personas tridimensionales implica muchos problemas de orden cognitivo que no son evidentes para cualquiera, y menos todavía son fáciles de resolver. Sucede que les humanes tenemos, como parte de nuestros sentidos, la capacidad para distinguir a otres humanes a partir de muchos detalles que no tomamos en cuenta sino sólo de manera incosciente. Hay movimientos profundamente sutiles, texturas, efectos de la luz en diferentes partes del cuerpo como ser los pelos o la piel, mezclas de problemas de ese estilo vinculados a la temperatura o humedad ambiente, reacciones que esperamos de las personas o caso contrario nos resultan disonantes… esa clase de problemas se salvan sencillamente no pretendiendo hacer fotorealismo, como era el caso con empresas ya exitosas en el cine como Pixar o DreamWorks.
Lo que sucedió con esa película fue que, independientemente de cómo le fuera al guión o en sus ventas, fué considerada unánimemente por todes como el nacimiento de les actores digitales: porque los renders 3D fueron efectivamente convincentes, y de hecho por momentos lograba ser visualmente impactante; aunque a eso último ya estábamos acostumbrades, tanto por los videojuegos como por el trabajo usualmente brillante de la gente de efectos especiales en la industria cinematográfica. Nadie tuvo nada malo para decir sobre la animación 3D de esa película, sino más bien todo lo contrario. El presonaje principal de hecho sorprendía por momentos en su calidad y sus detalles. Era una mujer, heroína de la historia, en el papel de científica intentando resolver un problema terminal de la sociedad. Pero al ser renders 3D, no tardaron en aparecer renders en ropa interior o cosas por el estilo, y hasta terminó siendo tapa de la revista Maxim o apareciendo en la lista de mujeres más atractivas del año. Los usos culturales de esta tecnología podían ser pobres, pero el fotorealismo era un éxito incuestionable. Y eso no pasó desapercibido en los ambientes adecuados.
nVidia no participó del desarrollo de esa película, pero sí se convirtió posteriormente en el estandar con el que se medía el rendimiento de la animación 3D. Su competencia ATI solía estar lejos de nVidia en términos de rendimiento, y nVidia además se dedicó a comprar otras empresas vinculadas a sus intereses. Primero compró la otrora lider del mercado, 3dfx. Pero también compró empresas vinculadas a la fabricación de semiconductores y sus pormenores, así como también fabricantes de diferentes componentes de áreas muy específicas del hardware y software informático en general: chipsets, procesadores, motores de simulación física, etcétera. nVidia no estaba comprando fábricas, sino conocimiento: sus compras le daban patentes, mano de obra calificada, y años ya avanzados en investigación y desarrollo. Esto era una práctica normal en la industria informática, pero… ¿placas para poder jugar videojuegos en la computadora? Eso era raro.
Como ya contamos en este relato, los videojuegos eran meramente instrumentales para nVidia, y apenas eran un caso particular para experimentar en algo mucho más profundo y poderoso: la paralelización de procesos y la implementación de algoritmos de aceleración de cálculos en hardware dedicado. nVidia no esperó a que Intel o alguna otra empresa tomara las riendas de esa industria tan especializada. Y estas cosas a las que nVidia le prestaba atención implicaban algunos detalles técnicos que, como pasaba con el fotorealismo, no se entienden hasta que une se mete en los pormenores de sus desafíos.
Por ejemplo, la película de Final Fantasy utilizó una “granja de renderizado” de casi mil computadoras Pentium 3. Se le dice “granja” al montaje de muchas computadoras puestas al servicio de alguna tarea paralelizada en muchas subtareas. Siguiendo con el ejemplo, supongamos que a esas mil computadoras las ponemos a renderizar, en paralelo, un fotograma de la película a cada una, de modo tal que si cada computadora tardara un segundo en renderizar su fotograma estaríamos hablando de una velocidad de renderizado de mil fotogramas por segundo. Eso es una forma ingenua de explicar las ventajas de la computación paralelizada, pero en realidad implica muchísimos problemas técnicos. Si recuerdan lo que contamos antes sobre el T-1000, en realidad un fotograma de la película depende mucho de otro fotograma anterior: porque son simulaciones físicas, y los cálculos de trayectorias y luces y sombras y tantos otros detalles visuales dependen del estado de muchas variables en su situación previa. Además, las computadoras pueden trabajar en paralelo, pero necesitan recibir las instrucciones de alguna manera, y el trabajo debe ser coordinado: para ello se utilizan redes de computadoras, que tienen detalles como velocidades máximas de trabajo, y eso afecta entonces el rendimiento del trabajo total. A su vez, cuando hablamos de mucha cantidad de información como es el caso de los renders fotorealistas, buena parte de esa información tiene que pasar por diferentes subsistemas de la computadora: la memoria, el disco rídido, la placa de red… todo eso suele ser además coordinado por el CPU, aún cuando se cuente con hardware dedicado para hacer cálculos tridimensionales, y todo suma tiempo de trabajo. Para cerrar el ejemplo, la película de Final Fantasy, con sus casi mil computadoras en paralelo, requirió unos cuatro años de trabajo por parte de unas 200 personas, y se estima que si ese trabajo no hubiera sido paralelizado hubieran sido unos 120 años de trabajo.
Aquellos son algunos detalles, explicados muy por encima, del mundo de la computación paralelizada. Pero cuando se analizan sus números, se aprecia que estamos ante el día y la noche. La película de Final Fantasy salió carísima, por tener centenas de personas altamente capacitadas trabajando durante años, y requerir además hardware de vanguardia para así y todo tardar cuatro años en el renderizado. Fué el final de la aventura de Squaresoft en el mundo del cine, porque nadie podía pretender hacer esa clase de inversiones para no recuperar luego el dinero. Pero desde nVidia veían esa clase de experiencias con ojos científicos desde el día cero, y sabían bien que cada pequeña optimización en el proceso de paralelización en realidad iba a derivar en mejoras dramáticas en esos tiempos. Por eso hacían cosas como comprar empresas de renderizado 3D, por un lado, pero por el otro también empresas de placas de red, empresas que trabajan en la parte de la computadora que comunica a las placas 3D con los CPUs y con otras placas, y tantos otros etcéteras.
A los ojos de gente como la de nVidia, los videojuegos no eran ningún juego, y las películas de animación no eran ninguna cosa para chiques. Y con esa mentalidad, rápidamente lograron una absoluta centralidad en su área. Para el año 2007, después de sucesivos lanzamientos de hardware de aceleración 3D para PCs, nVidia lanzaba su producto de software para programadores: CUDA, una herramienta por la que se podían implementar técnicas de computación paralelizada en general, ya no solamente para videojuegos 3D, utilizando sus mismas placas aceleradoras de gráficos, para ese entonces ya conocidas como GPUs. Las GPUs de nVidia se estandarizaban en los hechos ya no como un juguete, sino como una herramienta suficientemente normal y suficientemente accesible para implementar computación de alto rendimiento: algo que en épocas anteriores sólo podían hacer las supercomputadoras y las grandes organizaciones.
Esa fue una revolución mucho más silenciosa que la de las PCs, pero me atrevo a decir que mucho más impactante para el ojo entrenado. Donde las PCs le permitieron a cualquiera de repente ponerse a automatizar cosas, las GPUs permitían subir los órdenes de magnitud de trabajo computacional hasta dar lugar a cosas que pocos años antes eran de ciencia ficción. Y prontamente se verían los resultados. Pero esta revolución de la computación paralelizada era acompañada por otros cambios a través de la década, esta vez del lado de Internet.
La burbuja “punto com” tuvo otros efectos colaterales, además de la infraestructura barata. Y un gran triunfo cultural y social de la década de los noventas se volvió para este entonces algo con lo que no quedaba claro cómo lidiar exactamente: la gratuidad de los servicios. Sucedía que Internet, por un lado era todavía muy primitiva como para que la gente cómodamente ingresara sus datos de tarjetas de crédito o cuentas bancarias: todavía se percibía mayormente como un peligro, porque une nunca sabía a dónde iban a parar esos datos, y qué podrían hacer luego con ellos. Y por el otro lado, habernos criado con que las casillas de e-mail y tantas otras cosas son gratuitas, francamente hacía luego poco verosimil pedirle a la gente que se pusiera a pagar por los mismos servicios. Lo mismo pasaba con cosas como el tráfico multimedial: en archivos MP3s descargábamos discografías enteras, si los libros estaban escaneados no necesitábamos más que bajarlos y leerlos, todo eso lo hacíamos de forma gratuita, y entonces las copias físicas pasaban a tener un dudoso valor. Pero más allá de los detalles, cómo mantener online a internet en términos comerciales se volvió un problema serio para las empresas.
Qué sucedió al respecto, ya lo sabemos: terminó imperando el modelo de publicidad por internet, tal y como antes sucedió con la radio y la televisión. Pero esta vez la cuestión era mucho más sofisticada. Empresas como Google estudiaban precisamente el valor de los componentes de internet en sus interacciones con seres humanes, y del mismo modo que notaron una relación entre los links a un sitio y su hipotética importancia, notaron también que era moderadamente sencillo obtener información de los hábitos de consumo de las personas en relación a sus intereses, lo cuál es profundamente valioso para quien desea mostrar publicidad a alguien. Con esta clase de problemas comenzó una carrera por lograr juntar suficientes datos personales como para lograr direccionar la publicidad hacia las personas de modo tal que la reciban, ya no como una molestia, sino como información útil, como algo que efectivamente desean recibir: un sueño dorado del mundo de la publicidad. Mucho se puede hablar al respecto, pero esta aventura fué en definitiva uno de los más poderosos vectores de influencia detrás del desarrollo de lo que hoy llamamos Big Data: técnicas de gestión de datos, no sólo en grandes cantidades, sino también de estructuras muy heterogéneas entre sí, que permitan obtener de ellos diferentes patrones que constituyan diferentes cosas: modelos de comportamiento, perfiles de usuarios, o hasta por qué no predicciones. Si prestaron atención a este relato, notarán que es un caso más de trabajo con estadística. Y en esta oportunidad se convirtió también en uno de los pilares para lograr mantener las operaciones comerciales por internet, dado que cobrar por los servicios era más bien inverosimil.
La recopilación de datos por internet se convirtió en una verdadera industria, con sus propios desafíos técnicos. Pero en esa década ciertamente explotó como nunca antes en la historia. Y es que Internet era precisamente el universo de interacciones donde esa clase de prácticas se volvían el más elemental sentido común a nivel técnico: si las computadoras entre sí, o bien les usuaries al usuar servicios, deben siempre identificarse, la tarea de recolección de datos era tan sencilla como simplemente guardar registro de las actividades. Cómo se hiciera eso, o qué se hiciera luego con esos datos, ya era otra historia: pero la dinámica era evidente. Y por supuesto que esta década tuvo también su generación de jóvenes reflexionando al respecto.
Esta década dió lugar al nacimiento de las hoy llamadas “redes sociales”. En rigor, todos los sitios webs son más bien redes sociales, y en especial lo son servicios como chats de IRC o foros de internet. Pero lo que terminó pasando en esta década con las tecnologías del compartir información hizo que le dieran alguna que otra vuelta de tuerca al concepto. Un poco pasaron a ser un espacio donde une se publicitaba y exponía a la internet: algo así como “tener una página personal”, pero con algunos vínculos con otra gente ya automatizados por el sitio web. Eso era la primer red social canónica, MySpace, o en español “mi espacio”. Recuerdo que por aquel entonces yo preguntaba para qué servía eso, porque yo ya tenía página web oficial en geocities, y ya tenía un blog en blogspot: ¿para qué quería tener algo qué ver con myspace? Y la respuesta que me daban era casi unánimemente: “para estar ahí”. Tener un espacio en MySpace ya tenía un valor de por sí. Aunque ese valor era ciertamente difícil de medir. Menos difícil de entender era LinkedIn, que tenía como objetivo básicamente crear contactos laborales y corporativos. Pero en el mismo año nacía también Facebook, de la mano de un jóven Mark Zuckerberg que ya desde el primer día la articulaba como un aparato más bien antisocial.
Zuckerberg implementó algunos algoritmos de búsqueda y comparación de perfiles, en un espíritu similar al de Google, pero con un objetivo bastante diferente. Lo que hizo fue descargar de manera automatizada fotografías de les estudiantes de su universidad, para luego subirlas a otro sitio web donde se articularían en competencias de “quién es más atractivo”, o bien de si “es sexy o no lo es”. Los condicionamientos hormonales de Zuckerberg son comprensibles para cualquiera que alguna vez haya sido estudiante universitario, pero es un tanto sorprendente que haya logrado crear un imperio en base a eso, en especial en su dimensión ética: porque el sitio web de inmediato generó adicción y discordia entre el estudiantado, y llevó a la universidad a tomar medidas también en cuestión de horas.
Hubo muchos sitios de redes sociales, casi todos ya en desuso o extintos. De los exitosos, pocos años más tarde aparecían Reddit y Twitter, también con objetivos muy diferentes a los mencionados anterioremente. Reddit tuvo desde el principio un espíritu de compartir información y valorarla colectivamente. Mientras que Twitter era muy extraño y experimental, permitiendo escribir mensajes muy breves literalmente como ruiditos de pajaritos. Pero en definitiva finalmente se empezaba a utilizar a Internet para interconectar gente, de diversas maneras. Y en todas esas aventuras, la publicidad en internet fué central para mantener online a las empresas, del mismo modo que pronto lo fué la gestión de de datos personales que retroalimentara la eficiencia de la segmentación de poblaciones para una publicidad dada. Una cosa hacía a la otra, llevando a resultados que se recalibraban y reanalizaban, dando lugar a nuevos algoritmos y experimentos y prácticas. Mucho de esto no era nuevo, y las redes sociales simplemente lo implementaban: como dijimos varias veces, el análisis estadístico ya era centenario, y se utilizaba en diferentes disciplinas. Pero en particular las matemáticas y la sociología solían tener herramientas para pensar el término “redes sociales” sin tener que andar imaginando demasiado: era más bien al revés, cómo implementar aquellas herramientas en términos de software.
Y tampoco eran tan cuestión de “redes sociales”: dijimos que Google hacía esta clase de cosas, pero casi no dijimos nada sobre Amazon. Si alguien supo explotar el abaratamiento de la infraestructura de internet luego de la burbuja “punto com”, ese fué Amazon. Para finales de los noventas, Amazon ya no vendía sólo libros, sino que vendía de todo. Y eso tenía sus problemas técnicos. Diversificar su universo de interacciones y acrecentar las competencias de la empresa son problemas serios de ingeniería, de todo tipo: financiera, logística, computacional. Amazon creció en todos los frentes, de manera frenética. Y uno de esos frentes fué en la gestión de datos. No fué el inventor, pero sí se convirtió en el estandar de “computación remota”, o lo que hoy se llama coloquialmente “nube”. Básicamente, Amazon logró resolver el problema de tener su tienda siempre online y respondiera suficientemente rápido, independientemente de si se rompiera algúna computadora o se desconectara algún datacenter, aplicando técnicas de replicación de datos y paralelización de cómputos. Todo eso a su vez generaba datos en su actividad, que luego podían ser procesados por las mismas técnicas que Google o Facebook. Y Amazon no fué ningún dormilón al respecto.
Sus desarrollos de infraestructura lo llevaron a, eventualmente, estandarizar componentes internos del aparato de cómputo y reducirlo a una sucesión tal de componentes que luego podría ofrecerlos como servicios en sí. Es decir: Amazon logró dominar tan profundamente los desafíos de infraestructura computacional, que terminó dando servicios de infraestructura computacional a terceros, además de montar en esas infraestructuras sus propios servicios. Y como eso se convirtió en un negocio lucrativo, siguió comprando e instalando sus propios datacenters. Por aquel entonces todavía era popular contratar “web hosting”, pero lentamente durante esa década Amazon invirtió en un modelo de crecimiento en infraestructura que al mismo tiempo le permitiera más operaciones, más capacidad de análisis de datos, y más centralidad en internet. “Servicios web” lo llamó a eso, y en esa década nació “Amazon Web Services”: una figura hoy inesquivable de la internet global.
Todas las empresas grandes de internet requerían construir e implementar estrategias de gestión muy compleja para sus operaciones, especialmente en términos de escala. Entiendan que de repente empresas como Google o Amazon tenían de mercado al planeta entero, y precisamente pensaban sus infraestructuras en términos planetarios. Más o menos al mismo tiempo que “Amazon Web Services” aparecían “Google Cloud Platform” y “Microsoft Azure”, que eran básicamente una colección de servicios similares, y un nuevo plano de competencia comercial. Pero particularmente Amazon y Google también utilizaban esta área para influir en la comunidad trabajadora del software, publicando sus propias herramientas y metodologías de trabajo que permitieran implementar algunos cambios en cómo funcionaban los sitios de internet por dentro. Cuando se trata de grandes escalas, el problema no mantener un programa corriendo en un servidor sino prender y apagar constantemente miles de programas que se retroalimentaban entre sí en miles de servidores, y hacerlo sin que eso afecte negativamente las actividades de las personas que utilizan los sitios web. Tareas como esas requieren administrar software muy heterogeneo, al mismo tiempo exige mucho orden y mucha flexibilidad, y esta administración misma se volvió una disciplina en sí. Eventualmente eso tuvo el nombre de “orquestamiento”, y ese pasó a ser también un espacio donde las técnicas de inteligencia artificial empezaron a tener lugar. De hecho, el sistema de orquestamiento de Google para esa década se llamaba Borg, como aquellos villanos cybernéticos de Star Trek que lo asimilaban todo.
El tema de los “servicios web” fue siempre muy ambigüo: puede ser desde espacio online para dejar archivos, hasta alquilar tiempo de cómputo para realizar operaciones computacionales arbitrarias. Por eso debe entenderse en su generalización como “infraestructura”. Pero lo concreto es que por aquel entonces las empresas pretendían dar “servicios” vinculados a internet, e internet era casi sinónimo de “web”. En cualquier caso, la infraestructura de internet comenzó a utilizarse fuerte para compartir cosas entre personas, y eso llevó también a fenómenos nuevos. Como que se puso más intensa la cacería y los intentos de restricción a cualquier fenómeno de piratería online. Y en esa aventura sí proliferaban los modelos de negocios pagos, donde se compraba algo digital que luego se permitía descargar: como un libro, por ejemplo, o un disco de música. A cambio de ello, ese contenido digital sólo podía luego consumirse bajo ciertas condiciones, siempre mediando una identificación de usuario, y generalmente impidiendo que se realicen copias del contenido. Nacía el DRM como servicio: “digital rights management”, o “gestión digital de derechos”. Una forma de restringir las libertades sobre los contenidos digitales.
Y para cerrar esta década de tan poca primera plana para la inteligencia artificial pero tantas empresas nacientes en la industria informática, todavía tenemos que hablar de dos más.
La primera, fundada en 1996 por un ex Microsoft, que quedó impactado por lo que vió suceder con el Doom. Gabe Newell formó parte del desarrollo de las primeras tres versiones de Microsoft Windows, y para 1995 se enteró que el Doom era un software todavía más instalado que el propio sistema visual de Microsoft. Pero Newell reflexionó al respecto que la gente de ID Software tenía doce empleados en total, mientras que Microsoft tenía 500 solamente para intentar conseguir ventas: por lo cuál le parecía epifánico, y hablaba de un cambio inminente en la cultura del software. En 1996 renunció a Microsoft, y junto con otro compañero fundaron la empresa Valve, que en 1998 publicó su primer videojuego: Half-Life. Este utilizaba un motor gráfico ya no de última generación, pero lo hacía de manera tan bien pulida y con una ambientación tan atrapante que resultó ser un gran éxito para la empresa. Fué su debut en la industria de los videojuegos, y fué universalmente aclamado. Desde ese éxito en adelante, Valve no dejó de invertir en investigación y desarrollo en la industria de los videojuegos: nuevos motores gráficos, nuevos controles, nuevas formas de interactuar con los jugadores, nuevos mercados. Y uno de esos desarrollos fué la creación de un sistema de distribución de software, en principio videojuegos, que permitiera comprarlo y bajarlo, pero además gestionar los pormenores de instalaciones, al mismo tiempo que también permitía interactuar con otros usuarios fácilmente para permitir crear partidas de juegos o mantenerse coordinados durante las mismas. Ese sistema se llamó Steam, que salía a la calle por el 2006, y básicamente era la primer implementación de DRM que francamente tenía algún beneficio para les usuaries.
Los DRMs en música o libros frecuentemente limitaban el acceso a los contenidos, y a cambio no daban ningún beneficio. Pero Steam resolvía problemas con la gestión de juegos, como ser los muchos problemas de componentes del sistema operativo necesarios para que funcionen, o bien tener siempre disponible la posibilidad de instalarlo en cualquier otra computadora sin necesidad de estar llevando un CD o un DVD sino directamente por internet: algo que, hasta ese entonces, sólo permitía la piratería. Los juegos además no eran particularmente caros, y en líneas generales se percibía por primera vez como un costo aceptable para un servicio online de video juegos. Steam comenzó con juegos exclusivamente de Valve, mayormente concentrado en la instalación y actualización de los mismos, así como también en la gestión de grabaciones de partidas online de modo tal que una partida pudiera ser interrumpida en una computadora y luego continuada en otra. Pero eventualmente creció hasta convertirse en un gestor genérico de videojuegos o hasta software en general, permitiendo comprarlos, compartirlos, y demás tareas que ahora pasaban a ser seguras y sencillas. Steam fué también un absoluto éxito, y para el final de la década ya era un estandar de facto en la industria de juegos de PC.
Pero antes dijimos que Microsoft había sabido hacer muchos enemigos por su conducta. Y más anteriormente todavía dijimos que el principal enemigo cultural de Microsoft era el proyecto GNU. A GNU le iba muy bien en muchos frentes, pero no tanto en otros. La idea de usar GNU/Linux para trabajar era cada día menos inverosimil, y de hecho durante toda la década estuvo lleno de entusiastas y militantes utilizándolo para sus tareas cotidianas en lugar de a Windows. Sin embargo, eso era muy condicional, porque mucho software sólo funcionaba con Windows, y lo mismo sucedía también con el hardware cuando los fabricantes no brindaban drivers para Linux (lo cuál era tristemente muy común). Pero la comunidad de GNU/Linux continuaba su trabajo en todos los frentes.
GNU siempre fué muy diferente a Windows, en muchos aspectos. Pero también fue siempre muy vanguardista en sus ideas. Por ejemplo, todo eso que hoy se llaman “marketplaces” desde donde se instalan “apps” en teléfonos móviles, o lo que hacía Steam mismo de permitir simplemente instalar un software mediante un par de clicks, GNU/Linux lo tenía desde muchos años antes. La modularidad del software en esta comunidad lo llevaba a articularlo en la noción de “paquetes”, que básicamente eran componentes del sistema operativo que une podía instalar o desinstalar, y lo hacía con un simple click en una interfaz. Windows, de hecho, le había copiado esto en su panel de control, en la opción “agregar o quitar programas”: opción que curiosamente nadie parecía usar para “agregar” nunca nada. Pero en GNU une podía fácilmente instalar una suite ofimática, un editor de imágenes, o un editor de audio o video, haciendo un par de clicks, siempre de manera gratuita, y podía ser vía internet o incluso disponiendo de algún medio físico como un CD o DVD. U otro ejemplo podían ser los múltiples escritorios: siendo una abstracción virtual, no había necesidad de que el sistema operativo tuviera un sólo escritorio de trabajo como ofrecía Windows, sino que se podían tener múltiples para diferentes tareas. Todas ideas elementales, pero que el sentido común del mundo de las PCs no discutía por cuestiones culturales. Para el año 2006, en GNU ya habían desarrollado su propia interfaz 3D para el escritorio de trabajo, con un montón de efectos visuales aplicables a las ventanitas y a las interacciones con menúes. Pero una de las joyas de software que habían sabido construir, para esta década comenzaba a volverse muy importante.
Se trataba de Wine: una capa de compatibilidad entre software de Windows y el sistema operativo GNU. Era un proyecto que venía siendo desarrollado desde 1993, pero por esta década empezó a dar sus frutos: de repente une podía estar usando GNU, hacer doble click en un programa de Windows, y este último simplemente funcionaba. Lo cuál era profundamente inquietante, aunque no de buena manera para Microsoft. Y este, entre muchos otros proyectos bajo el amparo de GNU, daban lugar a que aparecieran múltiples organizaciones intentando que GNU lograra finalmente reemplazar a Windows en muchos espacios de trabajo.
Una de esas empresas fué Canonical, que por el 2004 lanzaba su primera versión de su propia distribución de GNU/Linux: Ubuntu. Ya existían empresas exitosas como Redhat, o distribuciones populares y bien instaladas en la historia del movimiento como Slackware, pero Ubuntu se destacaba por poner un énfasis en que el sistema fuera fácil de usar y resolviera de manera sencilla problemas que otras distribuciones no resolvían. El slogan era “linux para seres humanos”, y venía a cuento de que GNU/Linux era visto como una cosa sólo para especialistas. Frecuentemente era cierto, en el sentido de que las virtudes de GNU no eran que “simplemente funcionaba”, sino que permitía calibrar detalles imposibles en otros sistemas operativos, incluyendo el propio código fuente del sistema. Pero si bien eso eran grandes virtudes de GNU, la gente por lo general simplemente quería usar su computadora, sin tener que ponerse a aprender mucho qué digamos para ello. Y tímidamente, despacito, sin ninguna gran súbita revolución, a partir del 2004 Ubuntu fué logrando que más y más gente empezara a usar GNU/Linux. Pero también esto impactaba en el mundo empresarial: así como Google arrancó la década promocionando a Mozilla Firefox, también terminó la década utilizando su propia versión de Ubuntu, calibrada de acuerdo a sus propios intereses, llamada “goobuntu”.
Para finales de la década, el mundo estaba irreconocible una vez más. Arrancó con teléfonos móviles opcionales y de prestaciones humildes, a teléfonos inteligentes casi como única opción de comunicación. Arrancó con un mundo bajo hegemonía neoliberal y una América del Sur pulverizada, para terminar con una China comunista compitiendo por ser primera potencia económica y una América del Sur resistiendo crisis que Europa no resistía. Arrancó con un Microsoft desencadenado con el amparo del gobierno de los Estados Unidos, para terminar con un Microsoft tendiente a la irrelevancia. Yo mismo había arrancado la década con un apego enorme por Microsoft, para terminarla reemplazando Windows por Ubuntu, y dedicarme a hacer que todo mi trabajo pasara a realizarse con GNU/Linux, y mi experiencia era la de muchísima gente en todo el planeta. Era el mundo del revés. Pero todo esto sucedió. Y apenas era el preámbulo de lo que se venía.
El imperio contraataca
Hablamos muy poco de inteligencia artificial en la década del 2000, porque todo lo que sucedió era apenas preparación. Para el 2010 ya había grandes cantidades de datos listos para ser procesados con todo tipo de fines, provenientes desde redes sociales hasta compras online, pasando por búsquedas en internet y hábitos de consumo multimedial. También ya había formas de articular toda esa información de manera ordenada y productiva. También había hardware donde se podía almacenar, por supuesto. También sucedía que la cultura de uso gratuito de internet básicamente retroalimentaba estas mismas estrategias de recopilación masiva de datos ya siquiera como posibilidad de supervivencia de las iniciativas comerciales, y la gente entonces estaba plenamente acostumbrada a compartir sus datos de las formas más permisivas. Lo cuál a su vez muy temprano quedó también afianzado en el nuevo ecosistema de teléfonos móviles con aplicaciones de software, las cuales recopilaban información a veces más valiosa que la que podría recopilarse por otros medios, como ser la posición geográfica de una persona en todo momento. Y por supuesto, para esa altura ya existían las GPUs en todo su esplendor, permitiendo incrementar la capacidad de cómputo a niveles que apenas años atrás hubiera sido absurdo.
Fué una absoluta explosión. No había una sola área de la praxis humana desde la cual no se planteara explotar los datos en masa para obtener diferentes tipos de información, y de ser posible incluso en tiempo real. Esto de hecho había sido predicho: en el año 2006, el matemático británico Clive Humby acuñó la frase “data is the new oil”, explicando que la recolección de datos era tan valiosa como el petróleo. Sin embargo, la frase de Humby tenía dos sentidos: así como el petróleo, en sí mismo no es tan valioso, sino que su verdadero valor está en el cómo se refina, y los productos finales a los que eso da lugar. Si esa frase era una hipótesis en el 2006, para el 2010 era más bien la regla del juego. Y si estuvieron prestando atención a esta larga historia, seguramente adivinen cómo continua: todo esto generó un nuevo optimismo, y ese optimismo nuevos financiamientos.
Muchas empresas empezaron a ganar financiamientos absurdamente optimistas a partir del boom de la gestión de datos, y en especial las empresas de publicidad por internet. Nadie sabía muy bien qué había que hacer con los datos, salvo juntarlos. Los “data brokers”, o “vendedores de datos”, se volvieron algo común, y parte del modelo de negocios de las “apps”. Aunque hay que entender un poquito cómo había cambiado el paisaje social para ese entonces.
En la década del 2000 había juicios contra Napster que salían en primera plana; en el 2010 ya ni siquiera se descargaban archivos mp3: la gente iba a escuchar música a youtube o algún otro sitio dedicado a lo multimedial. No era que el tema de los derechos de autor no siguiera siendo importante, sino que ahora los datos y la publicidad pagaban por ello. Y los muchos avances en los estándares web, así como la marginalización de las tecnologías Microsoft en internet, hacían que todo pudiera funcionar simplemente teniendo un web browser: pero de una manera u otra las empresas misteriosamente instaban a instalar “apps” en teléfonos móviles, para “mejorar la experiencia”, misma razón por la que también parecían necesitar un montón de datos del teléfono y les usuaries. La cuestión es que hacer cosas por internet con el teléfono móvil era la gran novedad para grandes y chiques: ya no llevábamos una guía de bolsillo, sino que usábamos un servicio online de mapas, que hasta empezaban a reemplazar a los aparatos dedicados de GPS; ya no mandábamos a imprimir fotografías, sino que las compartíamos por redes sociales a mansalva; ya no tenían mucho sentido las guías telefónicas teniendo redes sociales y buscadores de internet.
Para ese entonces ya era normal que las infraestructuras para “servicios web” se le alquilaran a Amazon o a Google, y que el software fuera de hecho “un servicio”: “software as a service” se llamaba eso. Ya no tenías que instalar nada, no necesitabas una gran computadora ni grandes prestaciones computacionales: todo se ejecutaba en un servidor remoto, y entonces con tener internet era suficiente para poder hacer cualquier cosa. Así, muy rápidamente, internet pasó cada vez a estar más y más centralizada en algunas pocas infraestructuras ahora absolutamente vitales: sin ellas, todo ese universo de software funcionando por internet se cae como castillo de naipes.
Y en este mundo nuevo, el o la emprendedora tenía una sola meta: “la killer app”. Estaba lleno de gente queriendo prenderse a la nueva era de la información haciendo una app, generalmente con un nombre cortito y marketinero, y un logotipo con curvas, probablemente alguna letra modificada o algo así. Empezaron a aparecer miles y miles y miles de iniciativas de todo tipo para aplicar en “apps”. Y si tuviéramos que seleccionar dos campeonas y referentes de esto, ciertamente serían Uber y Tinder.
Con Uber, de repente no tenías que esperar más un taxi, ni llamarlo por teléfono: pedías un auto apretando un botón en una app, y alguien llegaba hasta donde estabas. Esto podía incluso tener algunas virtudes sobre el taxi, como ser mejores precios o detalles de conductores, o bien alguna integración con servicios de cartografía que mostraran el recorrido y posición actual del vehículo. Y Tinder permitía conseguir sexo: une cargaba sus datos en el sistema de Tinder, y así se exponía públicamente a ser elegide por otres para tener relaciones sexuales, así como también podía une elegir candidates en busca de coincidencias del otro lado. Estas “apps” utilizaban datos de posición geográfica para gestionar diferentes acciones, como ser qué vehículo o qué candidate estaba más cerca de la persona que utilizaba la app. Y esas cosas se hacían populares muy rápidamente.
Pero pasaban otras cosas también muy rápidamente. De repente empezaban a haber “algoritmos” involucrados. Por ejemplo, Uber muy rápidamente implementó un algoritmo por el cual el precio del viaje variaba minuto a minuto en términos de oferta y demanda de vehículos: y eso se promocionaba como si fuera algo bueno para la sociedad. O bien al revés, la sociedad reaccionaba a cómo se debían crear los perfiles de Tinder: ¿eran para conseguir sexo, para conseguir pareja, o para conseguir compañía? ¿Era negociable eso? ¿Se podía implementar algún algoritmo al respecto? Los algoritmos pasaron a ser sinónimo de “inteligente”, y todas las apps pretendían tener apps inteligentes. Con lo cuál empresas como Uber empezaron a invertir fuerte en “inteligencia artificial”, y en cómo automatizar más y más y más cosas vinculadas al gremio en el que se fundaron. Uber, por ejemplo, también fundó rápidamente una subsidiaria vinculada al reparto de comida, que también utiliza data cartográfica.
Aunque antes que de esas cosas, Uber es el ejemplo canónico de “plataforma”. Lo que sucedió con algunas de estas apps es que, además de servicios, daban la posibilidad de trabajar. En un principio Uber operó básicamente como cualquier empresa que tuviera conductores a su servicio, pero a los pocos años eso cambió, y de repente permitía a prácticamente cualquiera utilizar su automovil para trabajar como conductor de Uber: era tan sencillo como instalarse la app de conductor de Uber, y luego conectarse. Pero Uber no es un empleador en este caso, sino una “plataforma” que le permite al conductor ganar algo de dinero en su tiempo libre. Muy velozmente esto se transformó en lo que eventualmente fué llamado “gig economy”, o “economía de changas” en español rioplatense, y aplicado por muchas otras apps: en especial las de logística, pero también podía ir desde programar pequeños programas hasta servicios de cuidados de personas. Y tan presente se volvió en las sociedades de la década, que la dependencia económica en estas “apps” recibió el nombre “capitalismo de plataformas”.
Así como Amazon y Google en la década anterior, ahora empresas como Uber eran prestigiosas, y como parte de su aparato publicitario se la pasaban publicando notas en sus blogs y sitios especializados acerca de cómo funcionaban sus sistemas internos, y cómo lograban resolver problemas de grandes escalas, pretendiendo posicionarse como referentes tecnológicos. Y al caso publicaban partes de su infraestructura de software, a veces incluso como software libre, aunque frecuentemente más bien sólo open source, de modo tal que el ecosistema laboral y empresarial del software adoptara sus tecnologías y prácticas. Entre el emprendedurismo imperante, y los manifestos cambios sociales vinculados a las apps, estas estrategias solían ser bastante exitosas.
Aunque el podio de esto último se lo llevaban Google y Facebook. Si Google publicaba un estudio que decía que la atención de la gente disminuía drásticamente después de pasados 5 segundos de espera en la carga de una página de internet, entonces súbitamente todas las páginas de internet del mundo requerían cargar en menos de 5 segundos, sin excepción: no importaba el contexto, el fín último del sitio web en cuestión, las personas que lo usaban, nada. La palabra de Google era ley para obreres y empresaries por igual, que con enorme entusiasmo y por voluntad propia se adecuaban. Si Facebook decía que tal o cuál forma de programar sitios web era mejor, entonces había que implementar esa estrategia de ingeniería, porque seguramente era cierto. Las justificaciones para estas cosas eran casi siempre metafísicas e incomprobables: “mejor experiencia de usuario”, “el código es más fácil de leer”, y cosas por el estilo. Y estuvieron toda la década haciendo cosas de esas.
Para finales de la década, prácticamente toda persona que aprendía a programar para hacer algo con internet, aprendía primero que nada cómo programar para Google o para Facebook. Les empresaries querían que sus productos se parecieran a los de las empresas exitosas, y les programadores querían programar apps y estar a la vanguardia del conocimiento, en parte para conseguir trabajo, y en parte por legítimo y optimista interés en las propuestas. En la informática que nos dió el neoliberalismo, las empresas ya no eran una organización económica, sino también hacían las veces de referencia política y filosófica a nivel gremial. En el caso del software, el vector de esto eran los frameworks de lenguajes de programación, y las metodologías de trabajo, ambas cosas frecuentemente acopladas. Y, de hecho, frecuentemente inventaban sus propios dialectos de lenguajes de programación, al mejor estilo Microsoft, y con las mismas hipotéticas virtudes: “más rápido”, “más seguro”, “más fácil”. Siempre que se objetara contra estas prácticas, la respuesta unánime solía ser “nunca trabajaste en una empresa grande”, insinuando que las tecnologías propuestas eran la condición de posibilidad de crecimiento de un proyecto, y que de hecho la organización o ausencia de la misma en un equipo de trabajo estaba determinado por el lenguaje de programación o el framework que se utilizara. Mi generación ya había combatido esas cosas hacía años, pero la gente más jóven tenía que vérselas con esto desde cero, en un mundo donde la organización política casi que no existía.
Pero existía. En internet, el campeón político era Mozilla, que en la década anterior había logrado un triunfo espectacular y heróico contra Internet Explorer, y en esta década ya era un referente tecnológico para la web. Aunque hacia finales de la década del 2000, Google finalmente dejó de recomendar Firefox para pasar a hacer su propio web browser: Google Chrome, o simplemente Chrome. Y Chrome no era particularmente mejor que Firefox, pero sí era más rápido en algunas funciones, como ser la carga o las animaciones. Además, Google hizo algo muy inteligente por aquel entonces: siendo los móviles el horizonte, y habiendo Apple lanzado el iPhone como referencia, Google basó a Chrome en el código de Safari, el web browser de Apple. De esa manera, el browser tanto de iOS como de Android tenía una base de código compartida, y pasaba a ser un piso de funcionalidades garantizadas. Aunque esto no dejaba bien parado a Firefox, que aguantó una década en Windows pero ahora debía luchar también en teléfonos móviles que venían con su propio browser instalado. Firefox seguía siendo el browser por excelencia en GNU/Linux, pero la base de usuarios de ese sistema no superaba un 2% del mundo de la computación hogareña.
Pero Mozilla era ante todo una organización política. Mientras Google Chrome caminaba hacia ser el nuevo Internet Explorer de la mano de Android, Mozilla planteó un camino alternativo al mundo: un sistema operativo que sea, directamente, el web browser. El plan era muy sencillo: dado que a esa altura se podía hacer casi cualquier cosa con una página web, el sistema operativo en realidad lo único que necesitaba como interfaz gráfica era un web browser. Eso requería en rigor algunos detalles, como ser la gestión de permisos que las “apps” ya proveían en Android y en iOS. Pero el plan de Mozilla al caso era simplemente extender los estándares web, de modo tal que los browsers implementen esos detalles, y así tanto el browser del sistema operativo como cualquier otro tuvieran posibilidad de paridad de funcionalidades. El espíritu de Mozilla no era competir, sino interoperar. Y la parte más revolucionaria sería la siguiente: para hacer “apps” en ese sistema operativo, simplemente había que hacer una página web, de esas que decenas de millones de personas ya sabíamos hacer, y que cualquiera podía aprender a hacer simplemente con tiempo libre en una computadora. Las páginas web pasarían a tener el status oficial de “programas”.
El plan de Mozilla era una contracultura a lo que estaba sucediendo en Android e iOS. Y para ello, debía entrar en el mismo entorno: los teléfonos móviles. De modo que desarrolló su propio sistema operativo, al que llamó “Firefox OS”, y al caso mandó también a diseñar teléfonos que salieran a la venta con ese sistema. Y, fiel a la idea de contracultura, en lugar de diseñar teléfonos de alta gama con las más altas prestaciones, Mozilla se concentró en el menor denominador: teléfonos baratos, de prestaciones humildes, pero que así y todo fueran suficiente para correr su sistema.
Para ese entonces, el ecosistema de software en general ya tenía unos cuantos problemas. En primer lugar, tanto en computadoras como en teléfonos móviles, el software era cada vez más pesado, lento, y exigente en sus prestaciones de hardware. Esto, en los teléfonos móviles, y en las computadoras portátiles también, solía significar frecuentes cambios de hardware. Era una cosa que había comenzado en la década anterior, y sólo seguía incrementándose. Tan normal era el fenómeno, que a todas luces podían incluso verse acciones de este tipo articuladas adrede. La práctica tomó el nombre despectivo de “obsolescencia programada”. Y esto se vivía especialmente en el soporte que Google y Apple daban a sus sistemas operativos: más temprano que tarde, un dispositivo ya no podría tener acceso a actualizaciones de software, y las “apps” empezarían lentamente a dejar de funcionar.
Mozilla pretendía combatir esas cosas también, haciendo que su sistema fuera software libre, y que compartiera la arquitectura de booteo con Android, de modo tal que FirefoxOS pudiera eventualmente instalarse en teléfonos que antes hubieran tenido Android y no recibieran más actualizaciones. Y como el soporte web es siempre incremental en los browsers, FirefoxOS podría estar siempre actualizado, permitiendo así que las apps tuvieran mucho más tiempo de vida útil en un mismo teléfono. Y como si fuera poco, al ser estas “apps” páginas web, de repente todas las apps pasarían también a funcionar en GNU/Linux.
Yo mismo tuve oportunidad de ver a mis pares programadores burlándose de la iniciativa de Mozilla, por razones que aparentemente no necesitaban justificar: sencillamente iba en otra dirección a lo que proponían Google y Facebook para la web, y Google y Apple para los teléfonos móviles. La gente en mi gremio abrazaba lo que decían las empresas exitosas y con mucha prensa. Lo que hacía gente como la de Mozilla no era visto más que como un experimento o un error: pero nunca era ese el juicio para lo que hacía Google, que siempre era visto como algo iluminado y basado en un profundo conocimiento. Hoy existen sitios web que literalmente se burlan de la cantidad de proyectos fallidos que tiene Google, que como buena empresa grande de tecnología se pasó los últimos 20 años anunciando inminentes fracasos como si fueran éxitos desde el día cero y un evento cultural de trascendencia. En cualquier caso, Firefox OS fué un fracaso a los pocos años, y Mozilla nunca logró recuperarse de una iniciativa tan ambiciosa como esa.
No fué la única, porque Mozilla tampoco era la única organización que pretendía dar una batalla cultural en el mundo de la tecnolgía. Por la misma época, Canonical decidió hacer su propia interfaz gráfica de escritorio para GNU/Linux. Sería una interfaz diseñada por ellos y bajo su control, a diferencia de las diferentes otras opciones populares disponibles, como KDE o Gnome. Fué un momento histórico de muchos conflictos al respecto, porque todos estos proyectos aplicaron cambios muy radicales en sus interfaces de escritorio, y eso generó discordia entre les usuaries y programadores. Pero Canonical iba más allá, directamente haciendo su propia interfaz nueva. Sin embargo, esta interfaz tenía una particularidad muy especial. El objetivo de Canonical era que su interfaz fuera compatible con otros dispositivos que no fueran computadoras de escritorio: es decir, tablets y teléfonos móviles. Y, de hecho, Canonical estimulaba la concepción de esos otros dispositivos como sencillamente computadoras. El plan de Canonical era llevar Ubuntu también a esos dispositivos. Y una vez que estuvieran corriendo Ubuntu, que era una versión de GNU/Linux, alcanzaba simplemente con agregarles un monitor y algunos periféricos (como teclado y mouse) para convertirlos en una computadora portatil, cuando no directamente de bolsillo. Esta computadora podría correr todo el software que ya podía correr GNU/Linux, además de por supuesto tener web browser.
Esa interfaz de usuario se llamaría Unity, y la lanzó con su versión de Ubuntu del 2012. Pero al concepto de una interfaz de usuario para cualquier dispositivo lo llamó Convergencia, y al caso necesitaba lo mismo que había necesitado antes Mozilla: entrar en esos mercados. Para lo cuál Canonical también mandó a diseñar su propio teléfono, “Ubuntu Edge”, y un sistema operativo acorde, al que llamó “Ubuntu Touch”.
A diferencia de Mozilla, Ubuntu Touch aspiraba a ser utilizado en hardware de gama media o alta, y de hecho Ubuntu Edge pretendía ser de alta gama. Para financiarlo, abrió una colecta comunitaria por internet, donde pretendió recaudar la irrisoria cifra de 32 millones de dólares. “Sólo” logró reacudar 12 millones, con lo cuál el Ubuntu Edge nunca salió a producción. Pero sí salió a la calle “Ubuntu Touch”, la versión móvil de Ubuntu para que diferentes fabricantes pudieran brindarlo como alternativa a Android en sus dispositivos.
Unity fue criticado con muchísima virulencia dentro de las comunidades de GNU/Linux, y Ubuntu Touch nunca captó el interés de grandes mercados, ni siquiera bajo la propuesta de Convergencia y de llevar una computadora en el bolsillo. Ambos proyectos fueron eventualmente cancelados, y Canonical tampoco volvió a ser la misma empresa luego de este fracaso.
Si me preguntan a mí, tanto Mozilla como Canonical estaban en lo correcto, excepto en apostar a que contaban con una comunidad que les dió finalmente la espalda. Y esa comunidad estaba mayormente representada por la Free Software Foundation, la cual sí realmente se equivocó en esta década. Mientras todas estas cosas sucedían con organizaciones amigas del software libre en el mundo de la telefonía móvil, Richard Stallman se comportaba como si los móviles fueran una especie de moda pasajera, un aparato innecesario y del mal, cuyo único fín era ser una herramienta de control por vías de la recopilación de datos. La recopilación de datos es lesiva para las libertades de les usuaries, según Stallman y otres, y lo es muy especialmente de cara a su anonimato. Y mientras las referencias del Software Libre miraban con desprecio a los teléfonos móviles, la comunidad GNU/Linux vivía sus propias discordias entre diferentes proyectos, e incluso dentro de cada proyecto cuando se trataba de la dirección que debían tomar. El 2012 fué un año de profundos conflictos entre interfaces de usuario, modos de gobernanza, estrategias de diseño de software, sospecha de entrismo por parte de Microsoft u otras empresas, gente nueva versus gente más vieja, y tantas otras cuestiones que convirtieron al ecosistema del software libre en un caos. Aunque el progreso de GNU en los servers era sólido e incuestionable, así como también el decline de Microsoft.
Pero muchos de esos problemas eran básicamente clima de época, y no tanto mala ni buena gestión por parte de las comunidades del software libre. Por ejemplo, Microsoft mismo padeció muchos de los mismos problemas, especialmente en su intento de paso por el mundo de la telefonía móvil y los cambios de interfaz de usuario. El gran testimonio al respecto fué su absoluto fracaso con Windows 8, que imponía una interfaz de usuario diferente a la clásica de Windows, más orientada hacia móviles: lo mismo que estaban haciendo Gnome o Canonical en el mundo GNU. Fué un escándalo entre les usuaries de Windows, y Microsoft pronto debió lanzar una versión actualizada que permitiera volver a interfaces de usuario clásicas. La consecuencia fue que la gente simplemente no actualizó Windows 7. Cualquiera fuera el caso, ese salto de la computadora de escritorio al teléfono inteligente evidentemente no era una cosa sencilla para la gente que, o hacía software, o usaba software.
Pero más allá de los problemas reales, Microsoft siguió inventando problemas en su intento por mantener su monopolio decadente. Por ejemplo, como parte de su homologación de hardware “compatible con Windows” empezó a exigir “booteo seguro” a los fabricantes de componentes de computadoras, lo cuál exigía una gestión de claves de seguridad que debían ser instaladas al momento de fabricación, y que sin ellas no se debía permitir bootear. Microsoft iba a proveer esta claves para que prender la computadora con Windows fuera posible, pero eso excluiría cualquier intento por instalar GNU/Linux (o otro sistema) en la computadora si no se proveyeran también claves de seguridad para ese otro sistema. O bien intentar establecer un sistema de “tienda de software”, al estilo Apple o Android, que le permitiera a Microsoft controlar homologar también el ecosistema de software directamente: algo hasta esa fecha impensado en el mundo Windows.
Pero en esta década cosas como esas llevaban a consecuencias inusitadas. Gabe Newell de repente dijo, explícitamente, que “Windows 8 es una catástrofe para el mundo de los videojuegos en computadora”, y que sus planes para Valve era llevar los videojuegos a GNU/Linux, porque allí estaba el verdadero futuro de la computación abierta. “Linux gaming”, antes de eso, generaba burla entre la comunidad de videojugadores. Yo mismo jugaba videojuegos en GNU/Linux desde por lo menos el año 2008, utilizando Wine, pero eso era una absoluta rareza entre los jugadores, quienes eran más bien conservadores en cuando su setup de software: pretendían siempre versiones viejas de sistemas operativos, precisamente para no tener sorpresas negativas en cuanto al rendimiento de su computadora o nuevos requisitos de uso. Y esto tampoco era una cuestión de costos, porque en lugares como América del Sur el software privativo (como los son los sistemas operativos Microsoft, o los propios video juegos) era mayormente pirateado. Lo que sucedía era que los gamers sencillamente no cambiaban de sistema operativo si tenían oportunidad de seguir utilizando el que ya estaban acostumbrades a utilizar.
Pero la aventura de Valve lo llevó a invertir mucho en investigación y desarrollo para hacer funcionar la batería de tecnologías vinculadas a videojuegos sobre GNU/Linux. Por ejemplo, mientras estudiaban cómo covertir el código de sus juegos desde Windows hacia GNU/Linux, estudiaban también detalles de los drivers para dispositivos de nVidia, lo cuál luego reportaban a nVidia mismo, y esto derivaba en mejores versiones de sus drivers y mayor soporte para GNU/Linux en general. Para el año 2012 ya había una versión de Steam para GNU/Linux, y Valve hasta trabajaba en su propia distribución de GNU/Linux especialmente diseñada para jugar videojuegos.
Las reacciones a las prácticas anticompetitivas de Microsoft ya eran demasiado peligrosas para la empresa, que había perdido el dominio de los navegadores y servidores de internet, no había logrado nunca entrar en el mundo de la telefonía móvil con contundencia, no tenía injerencia fuerte en el nuevo mercado de la recolección de datos, las tareas de su suite ofimática ahora se realizaban vía web y de manera colaborativa en tiempo real (poniendo en jaque a uno de sus principales productos, Microsoft Office), los programas de escritorio daban lugar a aplicaciones web que corrían sobre servidores GNU o bien a aplicaciones de Android o iOS, todas cosas que atentaban contra el uso de Visual Studio, y ahora finalmente estaba en el horizonte el serio e inminente peligro de también perder dominio sobre el ecosistema de los videojuegos: uno de los pocos mercados que todavía mantenía. Y esto no era algo que dejaban de ver usuaries y obreres de la informática tampoco: el prestigio de Microsoft iba en picada, no por fracasar económicamente sino por la paupérrima calidad de sus productos y sus prácticas a esta altura conocida por todes. Ese cambio de paradigma hacia programar web, mayormente influida por empresas como Google o Facebook o Twitter, había hecho que hasta la gente de diseño gráfico terminara usando herramientas de consola en computadoras portátiles Apple, haciéndoles ahora preferir GNU por sobre Windows si acaso tuvieran a disposición las herramientas de trabajo adecuadas. Todo esto era una absoluta alerta roja para Microsoft, y su respuesta no se hizo esperar.
Una de las tantas maniobras anticompetitivas de Microsoft era el entrismo. A fuerza de mucha publicidad, dinero invertido en proyectos de otras empresas, y promesas de cambio en sus actitudes, históricamente se la pasó metiendo gente propia en lugares clave de las organizaciones capaces de hacerle frente: directives, líderes de equipo, consultorías, etcétera. Y en esta década de tantos problemas, finalmente reevaluó su actitud pública para con su competencia, y comenzó una serie de campañas con otro tono, donde la más pintorezca era el slogan “Microsoft ama a Linux”. Para el año 2015 dió por muerto a Internet Explorer, dando lugar al final de una era de Internet, y reemplazándolo por otro browser propio: “Microsoft Edge”, que era sencillamente otro internet explorer, pero pronto pasaría a utilizar como base de código la misma que utiliza Google Chrome. Tanto para poder acceder al mundo móvil, como también para tener mayor injerencia en Europa, Microsoft firmo contratos de “compañerismo” con Nokia, una empresa lider en electrónica, y especialmente en el diseño y fabricación de teléfonos móviles, los cuales ahora pasarían a salir a la calle con Windows Mobile. Pero lo más notablemente novedoso pasaron a ser sus importante donaciones a la Fundación Linux, donde se convirtió en un “miembro platino”, y a la entonces ya necesitada Canonical.
Pero además de meterse en las organizaciones, comenzó una agresiva campaña para meterse en el ecosistema de herramientas para programación, así como también en proyectos de software clave dentro de entornos GNU/Linux. Algunos de los proyectos que más discordia generaban en el ecosistema GNU/Linux, como ser Mono o Systemd, frecuentemente estaban a cargo de personas con comportamientos polémicos que pasados unos años terminaban trabajando formalmente para Microsoft. Herramientas para programar web hechas por Google o Facebook, como pueden serlo Angular o React, de repente empezaban a instar el uso de Typescript: un dialecto de javascript hecho por Microsoft, que pocos años atrás generaba burla por ser otro enorme fracaso frente a sus alternativas (CoffeScript), y más tarde pasara a la absoluta irrelevancia dadas las muchas mejoras de Javascript, pero que de repente era una especie de imperativo de la programación web y sin mayor explicación. Aunque la más estruendosa acción en este sentido fué sin dudas la compra de Github: el sitio web gratuito que centralizaba una enorme parte de la gestión de código fuente de software del mundo open source y libre. Más tarde también compraría npm, una de las herramientas estandar de facto para trabajar con javascript en los servidores, dándole todavía más control sobre ese ecosistema.
Y todo esto fué acompañado con una puesta en escena publicitaria que, para ser franco, la viví con más gracia e incredulidad que con preocupación. En medio de su campaña “Microsoft ama a Linux”, y queriendo propocionarse como habiendo dando un giro hacia el software “open source”, Microsoft anunció que lanzaría a la calle “el código de Visual Studio”. Esto sería ciertamente un enorme cambio ideológico dentro de Microsoft, porque Visual Studio era una de sus herramientas más complejas y poderosas, y llevaba 20 años sin permitir que de ninguna manera nadie viera el código. Sin embargo, lo que sucedió luego fué que Microsoft lanzó una versión modificada de un popular editor de texto que funcionaba con tecnologías web, y lo llamó “Visual Studio Code”, o “Visual Studio Código”: ese era el famoso “código de Visial Studio” que había anunciado antes. Muches vimos esto con gran vergüenza ajena, y nos burlábamos de la iniciativa. Pero muy pronto en el tiempo, este editor gratuito de Microsoft se convertiría en otro estandar de facto entre programadores y programadoras que ya no habían vivido la guerra de los browsers, ni lo que significaba que Microsoft controlara a la industria toda, sino que se criaron en un mundo de estándares e interoperabilidad que ya daban por elemental.
Con github y visual studio code, además de sus otras iniciativas, Microsoft una vez más ejecutaba aquella movida que le diera nacimiento en primer lugar: aprovecharse de una plataforma abierta (en este caso la web, incluidas las tecnologías detrás de Visual Studio Code), para poder centralizar la cultura en sus productos. En un par de años, medio planeta pasó a utilizar herramientas de Microsoft (visual studio code) para programar en lenguajes de Microsoft (typescript) y guardar todo eso en servidores de Microsoft (github): todo sin que Microsoft debiera andar inventando nada, sino sencillamente explotando su capacidad de compra sobre las libertades que aquellos espacios brindaban. Y así, la década de vergüenza de Microsoft dió lugar a otra década de promesa. Mientras que les obreres de la informática, siempre influenciades por una avalancha de titulares y entradas en blogs técnicos, analizaron estas herramientas sin criterios políticos ni históricos, sino con expresiones del tipo “está bueno” o “es cómodo”.
Pero ya no estamos en la década de 1980 o 1990, y en estos tiempos el mercado pasa por los datos. Github pasó a ser un gigantezco centro de inteligencia de datos centralizados para Microsoft. Y así como en décadas anteriores Google usaba la web con herramientas como reCaptcha para hacer estudios de comportamiento humano, ahora Visual Studio Code pasaba a ser la herramienta de Microsoft para hacer la misma clase de experimentos. Por lejos, el experimento más notorio, que se pretendiera también un futuro “servicio” de Microsoft, fué “copilot”: un sistema que sugiere código en tiempo real mientras se está programando. Es decir que ahora les programadores podrían aceptar sugerencias de código, hechas con inteligencia artificial. Esta inteligencia artificial estaría basada en todo el código que GitHub tiene centralizado. Y la manera en la que popularmente sería utilizado iba a ser vía Visual Studio Code. Lo cuál también fué, primero planteado en publicidad, y luego visto como, una comodidad y un avance en la disciplina de la programación antes que como cualquier forma de centralización por parte de Microsoft.
Para ese momento en la historia, la inteligencia artificial ya estaba viviendo una revolución para nada silenciosa. Con el hardware nVidia en el corazón de la iniciativa, la década pasada había comenzado renovados financiamientos en investigación y desarrollo al caso de nuevas técnicas y teorías aplicables a la inteligencia artificial, así como viejas teorías que ahora podían ponerse a trabajar con una nueva generación de hardware. Y esta vez se trataban de una nueva iteración de redes neuronales, bajo el área de estudios y técnicas llamadas “Machine Learning”: el área de la inteligencia artificial que estudia cómo hacer que las máquinas aprendan cosas. Sucede que el caso típico de Machine Learning es tomar un conjunto de datos y encontrar allí patrones. Y para la década del 2010, ya estaba lleno de grandes y maduras colecciones de datos, listas para ser analizadas.
A la actividad de juntar datos para analizarlos se la llamó “data mining”, o “minería de datos”. Usualmente esto consiste en juntar todos los datos que fuera posible manejar, para luego intentar sobre ello encontrar conocimiento nuevo: patrones de comportamiento, relaciones útiles entre datos previamente no relacionados, o por qué no proyecciones predictivas sobre posibles valores futuros de algunos indicadores. Y esto por supuesto prometía abrir muchas puertas, y ser utilizado en cualquier ámbito. Un ejemplo pintorezco puede ser cuando alguna compañía aseguradora de autos comenzó a crobrarle más caro a clientes que tuvieran una cuenta de correo en el servidor “hotmail.com”, dado que esas cuentas estaban vinculadas a gente involucrada en más accidentes que otras. Esa clase de vínculos entre datos pueden ser descubieros por cualquier persona curioseando una tabla con datos de gente involucrada en accidentes, pero a medida que esos datos se vuelven más y más heterogeneos se vuelve también más difícil plantearlos en alguna tabla, y eso sin mencionar la cantidad de datos. Es allí donde se busca que, mediante software, se analicen los datos y se obtengan relaciones. Y si esa clase de software existe, entonces juntar datos pasa a tener mucho valor, al menos para los optimismos que imaginen ganancias y optimizaciones en el descubrimiento de relaciones de datos.
Machine learning, sin embargo, es algo así como la otra cara de la moneda del data mining. Donde data mining se supone encuentre conocimiento desconocido, machine learning se supone aprenda conocimiento previamente conocido, de modo tal que se puedan automatizar tareas que ya se saben hacer. Por ejemplo, aquel producto de Microsoft, Copilot. La gente que programa realiza una serie de tareas, si bien amplia, en rigor finita, especialmente cuando se la vincula a un contexto particular: como ser un lenguaje de programación, o una tarea concreta que se pretende plasmar en código. El producto de esas tareas es el código ya escrito. Y teniendo una base de datos de código ya escrito (como por ejemplo todo el código guardado en github), aplicando técnicas de machine learning sobre eso, se puede predecir luego cuál puede ser el resultado en código de una tarea que esté realizando alguien que programa.
En la jerga de Machine Learning, se habla de “modelos”. Son el resultado del trabajo del software de aprendizaje. Un modelo de machine learning pasa a ser una base de datos de relaciones, que se supone implementan comportamientos planteados en una colecciones de datos previos, aunque esta vez generalizados de modo tal que permita replicar esos comportamientos frente a datos diferentes. Es decir, siguiendo con la metáfora: si un software “aprendió”, entonces luego va a “saber hacer” aquello que se le pide que haga, incluso con algunos cambios de contexto. Y esto es básicamente la manera que tenemos las personas de vivir el “saber hacer”.
Ambos, machine learning y data mining, se pueden utilizar de manera solidaria. Y eso fué lo que se hizo y hace con los datos que compartimos por internet. Pero un caso particular de machine learning se llamó “deep learning”, o “aprendizaje profundo”, donde esa profundidad tiene qué ver con una cuestión técnica de cómo se articulan las redes neuronales, e históricamente resultaba muy costoso en términos computacionales: lo cuál cambió con el advenimiento de las GPUs, y por ello se habla de que alrededor del 2009 sucedió un “big bang” del deep learning. De la mano de nVidia y deep learning, los usos de machine learning empezaron a crecer en magnitud, interés, velocidad, ambición, y todo esto dió lugar a financiamientos multimillonarios en el área, a su vez retroalimentando el financiamiento también de una internet al mismo tiempo gigantezca y mayormente de uso gratuito. Donde antes reCaptcha estudiaba el comportamiento humano, y le permitía a Google recopilar datos de entrenamiento para machine learning aplicado al reconocimiento de caracteres de texto, hoy se pide a la gente en sitios web gratuitos que, para demostrar que no es un robot, identifique fotografías con diferentes cosas: semáforos, sendas peatonales, chimeneas, puentes, escaleras, y muchas otras cosas. Luego, eso forma bases de datos que alimentan a la industria de la inteligencia artificial aplicada a automóviles inteligentes (semáforos o sendas peatonales), envío de paquetes a domicilio mediante drones (chimeneas, puentes, escaleras), y en esa aventura el cielo es el límite.
Para mediados de la década del 2010, era evidente que la inteligencia artificial dejó de ser ninguna fantasía, y ya empezaban los serios planteos éticos al respecto de su uso, así como otros fenómenos inquietantes. Un ejemplo claro eran los llamados “deepfakes”: una mezcla entre “deep learning” y “fake”. Esa última palabra significa en español “falso”, en el sentido de fabricado malintencionadamente: como es el caso de “fake news” para el español “noticias falsas”. Pero los deepfakes son una aplicación de técnicas de deep learning para aplicar caras o voces de personas en videos o audios donde esa persona no participa. Por ejemplo, estas tecnologías se utilizaron durante la década para que actores ya fallecidos aparecieran en películas nuevas, como fuera el caso de nuevas iteraciones de Star Wars donde aparecen personajes de las películas originales. O bien se utilizan para rejuvenecer a actores o actrices ya entrades en los setenta u ochenta años, mostrándoles en escenas nuevas luciendo como lucían hace décadas atrás. Es decir que la inteligencia artificial seguía siendo utilizada en el terreno de los efectos especiales de la industria cinematográfica. Sin embargo, ahora el hardware era mucho más accesible, y entonces esa misma tecnología podía ser utilizada por actores malintencionados en cualquier lugar del planeta. El caso típico de deepfakes fué poner caras de otras personas en videos pornográficos, usualmente utilizando la cara de figuras populares. Aunque también se utilizaron deepfakes de audio, simulando la voz de otras personas, para realizar estafas telefónicas. Y esas cosas ya no eran ningún entretenimiento.
Siguiendo con el ejemplo del deepfake como problema, para poder hacer deepfakes es necesario crear modelos de machine learning con datos representativos del comportamiento de las personas a las que se pretende emular. En el caso de figuras populares, es fácil encontrar videos y fotografías en cantidades suficientes para poder lograr modelos convincentes, así como también grabaciones de voz. Esto fué el caso con una demostración que hicieran una vez por televisión, a modo de divulgación y llamado de atención a la sociedad, donde mostraban cómo podían hacer un deepfake convincente del entonces presidente de los Estados Unidos Barack Obama, hablando a la cámara y diciendo un discurso, sin participación directa de Barack Obama. No era solamente la indignidad de poder aparecer en un video pornográfico apócrifo, o el problema de poder ser estafade, sino que además era muy fácil engañar a mucha gente mediante el uso de videos o audios forjados distribuidos por redes sociales u otros medios de comunicación. Y, además, era también preocupante cómo la propia gente compartía de manera activa e incesante fotos y fotos y más fotos por las redes sociales, dando lugar a bases de datos biométricas como nunca han existido en al historia de la humanidad. Bases de datos que por supuesto las empresas de redes sociales pretendían explotar, como fué el caso cuando Facebook publicó el “10 year challenge”, o “desafío de los 10 años”, pidiéndole a usuaries que identifiquen una fotografía de su cara actual, y una de su cara 10 años antes.
En ese contexto fué que se creó Open AI en el año 2015. “Open” venía de toda la historia de “open platform” y “open source” a las que la cultura de la informática habían sabido dar lugar, y aquí venía al caso de que ningún actor monopolizador pudiera apropiarse de las prácticas y tecnologías vinculadas a la inteligencia artificial. O al menos esa fué la justificación. Como fuera, esa organización fue fundada por algunas figuras prominentes de la industria, informática y no tanto, para poder interactuar libremente entre empresas y espacios académicos vinculados a la inteligencia artificial, con especial énfasis en hacer que las patentes allí generadas pudieran ser de uso público. Aunque también pretendía ser un espacio que concentrara financiamiento, y con ello también al exótico y carísimo personal calificado para realizar investigaciones en inteligencia artificial. Más allá de los resultados, ya estaba claro en el 2015 que la inteligencia artificial era un peligro, y que su desarrollo no podía dejarse al arbitrío de algunas pocas manos, o cabezas.
Pero todo eso era apenas la punta del ovillo de lo que estaba sucediendo con la inteligencia artificial. Después de la gran crisis financiera del 2008, en casi todo el planeta acaeció una crisis económica que dejó en quiebra a múltiples paises, y restringió el crecimiento de casi todos. Esto fué particularmente intenso en Grecia, que a su vez tuvo un impacto en toda la eurozona, que a su vez lidiaba con olas migratorias provenientes de las guerras que Estados Unidos y sus satélites llevaban a cabo en oriente, así como también diferentes guerras civiles. Y las respuestas no se iban a hacer esperar.
Primero aparecieron las bitcons: como planteo en el 2008, y como un hecho en el 2009. Y si bien al principio sólo se utilizaron para tráfico y mercado negro, con el paso de los años comenzaron a ganar popularidad y usabilidad, haciendo que muches presten atención a ese extraño caso de uso nuevo de internet. Y para 2011 sucedían eventos como Occuppy Wall Street o la primavera árabe, donde internet volvía a verse positivamente como un espacio posible de militancia y liberación popular, esta vez explotando la viralidad en las redes sociales. Pero muy rápidamente ese optimismo fué reemplazado más bien por ataques de pánico. No sólo las bitcoins eran escandalosamente inestables, sino que requerían cada vez más capacidad de cómputo para poder ser generadas, llevando a la creación de datacenters enteros llenos de GPUs y dedicados a la generación de criptomonedas: afectando los precios de las GPUs, centralizando las estructuras, haciendo que cada vez menos gente pudiera generar bitcoins, y gastanto cantidades absolutamente demenciales de energía para el caso, todo bajo la justificación neoliberal de que si no lo controlaba el estado entonces era algo libre y bueno. Y también temprano en la década, mucho más que cualquier forma de izquierda, comenzaron a aparecer movimientos de lo que parecía ser una derecha carismática y bastante productiva en el uso de recursos de internet, que se planteaba como una forma de resistencia liberadora a la opresión de la corrección política: la llamada “alt-right”. Si a esto le agregamos la emergencia del capitalismo de plataformas, los recuerdos de aquel temprano optimismo se vuelven más, y más, y más lejanos.
2010 no fué solamente la década en la que Microsoft volvió a las andadas con fuerzas renovadas. En esa década, la derecha logró utilizar internet de diversas maneras para volver a posicionarse como una alternativa popular a las profundas crísis económicas y políticas del momento. Pero fue notoria la homogeneidad con la que la derecha logró establecer centralidad en múltiples culturas alrededor de todo el planeta, utilizando métodos similares: si no novedosos, al menos sí en su escala, y especialmente en su coordinación. De repente era normal que cosas en otros tiempos graciosas, como la idea del terraplanismo, en esta década se convertía en un espacio de pensamiento “alternativo”. Cosas similares pasaron con movimientos antivacunas, abiertas reivindicaciones de ideas superadas como el imperialismo o la esclavitud, la reinstalación de los racismos y las xenofobias como explicación a los problemas del momento histórico, directas teorías conspirativas francamente delirantes, o bien incluso la total negación de información que atentara contra los propios sistemas de creencias.
Ya se hablaba hacía cierto tiempo de “posverdad”, vinculado a problemas epistemológicos que aparecían a partir del uso de medios masivos de comunicación como los diarios impresos o la televisión, pero en la década del 2010 se volvió una de las variables de análisis político centrales de la mano del fenómeno de las “fake news”. En mi región, además, los medios de comunicación operaron como brazo de una estrategia de acción política unificada que rememoraba al Plan Condor cuando se comparaba la similitud entre diferentes paises, aunque esta vez no se trataban de golpes de estado cívico-militares sino golpes políticos mediático-jurídicos: “lawfare”, o “el uso de la ley como arma de guerra” de acuerdo al ya retirado Coronel Dunlap del Ejército de los Estados Unidos, quien acuñara el término en un paper del año 2001. De repente, en mi región, todes les líderes en oposición explícita a la subordinación a los Estados Unidos, era acusade de alguna forma de corrupción: a veces robar dinero público, a veces tener alguna propiedad no declarada, a veces hasta tener un hijo o hija ilegítimos. Las acusaciones eran similares entre paises. Cualquier mentira era causante de un escándalo mediático y judicial. Cuentas bancarias inexistentes, supuestos delitos sin ninguna evidencia, actos de gobierno planteados como actos criminales, todas cosas que aparecían en toneladas de titulares y eran repetidas hasta el cansancio en redes sociales, se instalaban como sentido común entre personas de todas las edades: mientras que las refutaciones rara vez tenían difusión alguna, o bien las mismas acusaciones contra funcionaries o referentes de otros espacios políticos acusades de las mismas cosas misteriosamente no causaba ningún escándalo y era rápidamente olvidado.
Aunque nada de esto fue exclusivo de mi región, ni mucho menos. Y sin lugar a dudas, la figura más prominente de todo este fenómeno político mundial de “nueva derecha”, fué la de Donald Trump, que terminó siendo electo presidente de los Estados Unidos en 2017. Hubo muchos representantes de “nuevas derechas” en todo el mundo durante esta década, y donde la parte “nueva” era una extrañamente coincidente desinhibición internacional con respecto a las ideas que expresaban. De repente Trump podía tener gestos clara y profundamente misóginos frente a las cámaras, en un mundo donde el feminismo y los derechos de las mujeres ya eran un tema reconocido y central, pero así y todo no sólo no generar el rechazo de sus votantes sino más bien obteniendo mayor reconocimiento. Estas “nuevas derechas” parecían estimular sentimientos reaccionarios reprimidos al encarnar comportamientos políticamente incorrectos, logrando así la representación de sujetos políticos anterioremente carentes de representación. Cosas similares a las de Trump hacían gente como Boris Johnson, Jair Bolsonaro, Mauricio Macri, José Antonio Kast, y tantos otros. Y hacia el final de la década, ya no eran “nueva derecha”, sino más bien “extrema derecha”, y el debate en torno a todo esto era si correspondía o no llamarlos “fascistas”.
Si bien estas derechas que coparon la década del 2010 no tenían muchas ideas nuevas qué digamos, sino más bien todo lo contrario, en rigor tampoco fueron ajenas a su época. Fueron muy hábiles en explotar los recursos de las redes sociales, en conjunto a recursos clásicos como los canales de televisión pero ahora en su relación con los tiempos de internet, y por esa vía lograron altos niveles de polarización por todo el planeta. Y en buena medida esto estuvo alimentado por todas las técnicas de big data y data mining, ya absolutamente establecidas para ese momento, aunque casi en su totalidad en el ámbito privado. Les usuaries de redes sociales pueden no darse cuenta, pero todos esos datos que comparten a diario en realidad están también a la venta bajo diferentes formas de consumo, para las empresas que así los requieran, y que cuenten con la posibilidad de pagarlo. Y, pregunta para la clase: ¿quienes creen que tienen mejor financiamiento? ¿las izquierdas, o las derechas? Todas esas técnicas de microsegmentación de publicidades que mantenían a Google o a Facebook desde hacía ya tiempo, para el 2015 estaban muy maduras y listas para ser utilizadas en campañas políticas de todo tipo. Del mismo modo, la retroalimentación entre uso de las redes y segmentación de grupos sociales facilitaba mucho articular tendencias hacia la polarización y la radicalización de cualquier tipo de idea: desde planteos económicos de laborioso refutamiento, hasta absolutas barbaridades que ni las personas más primitivas podían considerar seriamente luego del más elemental análisis. El caso más famoso vinculado a todo esto fué el de Cambridge Analytica: una empresa de consultoría política, que a partir de datos de Facebook realizó tareas de inteligencia social al servicio de campañas de derecha de alta embergadura, como ser las de Donald Trump. Y las izquierdas se mostraron mayormente sin herramientas contra todo esto, durante toda la década.
La década del 2010 entonces comenzó con mucho optimismo en internet, pero rápidamente se convirtió en una especie de máquina de generar ansiedad y discordia, con la inteligencia artificial y las técnicas de manejo de datos en el corazón del asunto. Al principio de la década, Nokia todavía era referente en el mundo de los teléfonos móviles, y apostaba a sus propias versiones de GNU/Linux; hacia el final de la década, Nokia había prácticamente quebrado, luego de haberse asociado con Microsoft y apostado a Windows. Al principio de la década, Microsoft daba vergüenza; al final de la década, Microsoft era de nuevo central en el mundo de la programación, se asociaba con Open AI al tiempo que esta última dejaba atrás su ética abierta y al mismo tiempo que se lanzaba Copilot, y para 2023 Microsoft es directamente el principal financista de la organización ya absolutamente privada. En esta misma década, las tecnologías de DRM finalmente entraron en los estándares web, haciendo que la misma finalmente ya no sea más abierta al permitir que se inyecte código privativo y secreto en los browsers para poder reproducir contenido multimedial protegido por empresas. Valve cumpió su promesa de abrazar GNU/Linux, y ahora miles de juegos funcionan perfecto en ese sistema operativo, incluidos los de mayor exigencia y sofisticación, lo cierto es que les jugadores siguen usando en su mayoría Windows, y las empresas de video juegos siguen programando para Windows, dando la impresión de que esa comunidad va a tratar a Valve como la gente de la web y de GNU/Linux trató antes a Mozilla y a Canonical. Y Facebook apostó extrañamente a la realidad virtual, para lo que contrató al desarrollador original del Doom, y por esa vía pretende tener control de las formas de interactuar entre personas y de realizar trabajos diarios; casi que la única buena noticia al final de la década es que a Facebook le está yendo horrible en esto.
La década siguiente, de la que apenas vivimos algunos poquitos años, no ayudó tampoco en absoluto a resolver nada: tuvimos dos años de una pandemia traumatizante, e inmediatamente después un nuevo despertar de las ansiedades nucleares frente a la guerra entre Rusia y Ucrania, la cual pega fuerte en las economías y posicionamientos políticos de todo el mundo. Al mismo tiempo sucede una competencia comercial entre Estados Unidos y China, con cosas como el 5G y la ingerencia internacional como frentes de batalla, y en casi todo el planeta se vive un profundo descrédito de la democracia como forma de organización de las sociedades y de la política como forma de transformar nada. Pero esto es algo que estamos viviendo todes, y antes que ponernos a hacer repasos y análisis de cuestiones que ya conocemos, mejor es tiempo de pasar a articular conclusiones.
Conclusiones
Si llegaron hasta acá, felicitaciones y gracias: se merecen un premio. No sé cuál pueda ser ese premio, pero bueno… sepan que estamos al tanto del trabajo que implica seguir todo aquello, y lo mínimo que merecen es un reconocimiento, tanto por el trabajo como por su compromiso. Nosotres como creadores no podemos menos que estar agradecides. Pero ya en esta parte del video, podemos concentrarnos en la actualidad, y qué creemos que está pasando con la Inteligencia Artificial. Y vamos a hilar esas opiniones a partir de fenómenos que percibimos en la sociedad.
ChatGPT genera algunas sorpresas e inquietudes más bien positivas, pero también muchas críticas. Y entre las críticas percibo mucha incredulidad: gente que se burla del chatbot por sus muchos errores y problemas, y entonces lo considera una burbuja más de las tantas que hemos vivido. He oido incluso a alguien decir lo siguiente: “es las bitcoins otra vez, no va a pasar nada con esto”, haciendo alusión a que las bitcoins prometían mucho pero terminaron siendo calificadas de burbuja financiera. Y, seamos claros: en este relato planteamos un montón de ciclos de optimismo que llevaba a financiamientos y luego inmediatas tristes sorpresas, especialmente en el mundo de la inteligencia artificial. Así que intentar ubicar eso en ChatGPT tiene bastante de sensato. Sin embargo, tenemos cosas para decirle a la gente que sostiene esa posición. En líneas generales, nuestra respuesta es que están subestimando profundamente a lo que sucede con ChatGPT, en varias dimensiones que pasamos a detallar.
Por un lado, subestiman al optimismo. Es cierto que el optimismo frecuentemente da lugar a percepciones de fracasos en lo inmediato, y la historia tiene un montón de eso. Pero históricamente en las experiencias de esos optimismos se crían las siguientes generaciones de trabajadores y empresaries, que van a ser quienes creen el futuro inmediato, van a ser parte de una segunda o tercera o cuarta ola de lo mismo, van a transformar la sociedad una vez más, y lo van a hacer sin pedirle permiso ni preguntarles qué piensan a ningune de ustedes. Esa es la historia de la intergeneracionalidad en la modernidad, que hace que todo cambie “de repente”. Nunca es de repente, sino que son ciclos y ciclos de optimismos y supuestos fracasos hasta que “de repente” ya está, ya cambió todo, ya podemos dar al proyecto por exitoso, cuando se trata de una nueva normalidad. Y si quisiera apostar a ganador, más que satisfacer mis glándulas de schadenfreude imaginando cómo a ChatGPT le va a ir mal, ya iría pensando cómo es que a la inteligencia artificial le va a ir bien y esto que estamos viendo es apenas un hito en esa historia. Lo cuál es especialmente pertinente si, como vimos en las últimas dos o tres partes del video, estas cosas parecen cambiar cada diez o cinco años a esta altura. Ciertamente, no me parece sabio burlarse del tema, ni ningunearlo, más allá de qué tan mal pueda andar ChatGPT.
Por otro lado, al concencentrarse en las evidentes fallas y limitaciones de ChatGPT, no le están prestando atención a sus logros. ChatGPT podrá ser un paso corto o largo hacia la inteligencia artificial general, esa que es indistinguible de un ser humano y que pasa el test de Turing y requiere que tengamos blade runners para identificarlas, la historia ya lo dirá: pero no parecen estar dándose cuenta que esta tecnología ya logró hacer un hecho empírico e incuestionable a las interfaces de usuario a partir de lenguaje natural, sea hablado o escrito. ChatGPT tiene también mucho qué ver con la historia de Alexa y Siri y el ayudante de Google, que además de tener un pié en el área de inteligencia artificial tienen otro en el área de interfaces de usuario: como los videojuegos, tan ninguneados y demonizados durante su historia. Y en esto lamento decirles a les pesimistes que ChatGPT se trata de un éxito absolutamente rotundo, y entonces estas cosas llegaron para quedarse. Pero no es lo único de lo que no se dan cuenta.
Recuerdo hace algunos años hacer una transmisión radial improvisada por internet en una reunión de amigues. Estoy hablando del año 2012 o 2013. Ahí hablé un poco de mi experiencia yendo a estudiar lingüística, y de cómo mezclando lingüística con programación se llegaban a problemas cognitivos y filosóficos complejos, y contando también aquellas fantasías adolescentes mías sobre hacer un oráculo al que podría preguntarle cualquier cosa, incluso usarlo como mecanismo de automatización de la ciencia. Para explicar eso, a esa altura ya tenía un ejemplo que todes conocían: Jarvis, la inteligencia artificial de Iron-Man en la exitosa película del año 2008. En esa película, Tony Stark podía prepararse un trago, hablar con Jarvis sobre el diseño de una armadura tecnológica de superhéroe, debatir jocosamente con Jarvios usando chistes irónicos sobre de qué color se podía pintar a la armadura, y preguntarle a Jarvis cuánto podía tardar en fabricarla: Jarvis le dice que tarda algunas horas, y entonces Tony Stark aprovecha ese tiempo para irse de fiesta; al otro día a la mañana tiene lista una armadura de superhéroe. Tomando ese ejemplo, yo le decía a mis amigues: “así cualquiera es Tony Stark”, y les explicaba que una inteligencia artificial que entiende lenguaje natural a ese nivel tranquilamente puede también automatizar una fábrica. Y uno de mis amigues entonces hizo un afiche para el programa de radio, con una imagen de Chomsky usando la armadura de Iron-man.
Les pesimistes de ChatGPT no se dan cuenta que estamos muy cerca de eso. A cosas como ChatGPT ya le piden que realice tareas arbitrarias: de momento en una dimensión intelectual, pero piensen cuanto falta para que a eso se le agreguen periféricos como brazos robot. Y ahí es donde tienen que reflexionar sobre todo el paseo de tecnologías de los últimos 20 años agregadas a la gestión de lenguaje natural: reconocimiento de objetos, drones, casas inteligentes, y demás. Hoy hasta un horno microondas o una heladera están conectados a una red informática. ¿Qué le impide a un software como ChatGPT controlar todo eso? Nada. De hecho, Alexa lo hace, y creo que también cuenta chistes. Ahora también estamos viendo que, de manera todavía defectuosa, le estamos pidiendo a estas cosas que usan GPT-4 que nos escriban historias, canciones, nos hagan dibujos, o hasta nos escriban software que tenga tal o cuál funcionalidad. ¿Realmente creen que está tan lejos pedirle que haga cosas más complejas en términos intelectuales, que encima luego pueden materializar automatizando herramientas como impresoras 3D? Si con esa perspectiva pueden ir imaginando las cosas que se pueden hacer en una “casa inteligente”, ¿se dan una idea de lo que se puede hacer en un laboratorio automatizado? Más bien se vuelve urgente la pregunta de qué cosas NO se podrían hacer.
Quienes piensen que ChatGPT es una moda pasajera más, otra burbuja como tantas otras, muy probablemente piensen lo mismo de otras dos cuestiones de las que no hablamos en todo el video: el 5G, y la internet de las cosas. Todes vimos cómo se nos anunció al 3G como la revolución de internet, para que después casi anduviera peor que la internet que usábamos con teléfono fijo y modem en la década de 1990, y que entonces la llegada del 4G fue bastante más silenciosa. Lo mismo con el hecho de tener mil hipotéticos posibles aparatitos “inteligentes” en nuestras casas, y que todo esté conectado a internet y podamos controlarlo desde nuestro teléfono móvil: pero a América del Sur esas cosas no llegan, y en los paises donde se usan son más bien una molestia, salvo casos muy puntuales y salvo casas que estén adecuadamente diseñadas para usar aparatos de ese estilo. Así planteadas, la internet de las cosas ya pasa de burbuja a directamente humo, y el 5G se vive con muchísimo excepticismo. Pero, sin embargo: ¿es como para que Estados Unidos y China hagan una guerra comercial al respecto? ¿Qué les pasa a esos dos? ¿Es algo así como buscar excusas para pelear, o está pasando algo más con ese tema? Y acá es donde les pido que presten atención, porque lo que vamos a tratar de explicarles no se entiende si no se lo pone en la perspectiva adecuada.
No piensen a “internet de las cosas” como “una vida más cómoda y automatizada con aparatos inteligentes”, sino como “una vida rodeada de sensores de todo tipo, compartiendo información”. Si prestaron atención al video, ya saben a qué dá lugar eso de “compartir información”: data mining. Que en un principio daba lugar a simplemente compra y venta de datos, y el descubrimiento de algunos patrones de comportamiento, que luego permitían refinar estrategias comerciales o tal vez funcionalidades de software. Pero con machine learning agregado, eso da lugar a modelos de machine learning para todo tipo de actividades, que luego se explotan con inteligencias artificiales como las de ChatGPT. Lo cuál hace que la internet de las cosas sea muy valorado como horizonte por algunes. Pero ese no es el final de esa historia.
¿Recuerdan cuando hablamos de cómo nVidia compraba empresas que no tenían tanto qué ver con 3D? ¿Y recuerdan cómo en ese contexto relatamos la historia de la película de Final Fantasy, y su granja de renderizado, y repasamos algunos pormenores de cómo funcionaba eso? Uno de los detalles importantes es la capacidad de transmitir datos entre diferentes computadoras, que por aquel entonces podía ser la diferencia entre hacer la misma tarea de renderizado en 4 años o en 120. La velocidad con la que se trabajan los datos es importante, pero la velocidad en la que se transmiten también lo es. Y esto se vuelve más y más importante a medida que hay más y más aparatos compartiendo más y más datos de toda naturaleza: texto, imágenes, audio, video, data abstracta, o bien mezclas de cosas. Y si bien tenemos cosas como fibra óptica, que son rápidas, piensen que los aparatos no están todos conectados a fibras ópticas: apenas algún receptor de internet en nuestras casas, pero todo lo demás es wifi, inalámbrico. Lo que predije para internet, aquello de que “todo se va a procesar remoto, y entonces no va a hacer falta tanta computadora”, del mismo modo se aplica para la robótica, que con buena conexión inalámbrica podrían simplemente ser las manos y piés de cualquier inteligencia artificial online; y no lo piensen tanto como Skynet, sino como obreres de la construcción en un sitio de obra. Súmenle a esto internet de las cosas, que son decenas o cientos de aparatos más en cada casa, en cada esquina, en cada plaza, en cada automovil, en cada bolsillo, y ya se van dando una idea de por qué podría haber tantos actores con tanto interés en estimular una rápida suba del ancho de banda de la conectividad inalámbrica. 5G por sí sólo significa poco, pero puesto en contexto es clave para algunas industrias. Y este tampoco es el final de esta historia de 5G e internet de las cosas. Hay un detalle más.
Al principio, en la introducción, dijimos que ChatGPT implementa los “modelos grandes” de lenguaje natural GPT-3 y GPT-4. Y durante el resto del video, en diferentes oportunidades, mencionamos cómo el data mining generaba grandes cantidades de datos centralizados en algunas pocas infraestructuras. También mencionamos que existen modelos de lenguaje natural, y de muchas otras cosas, sin necesidad de grandes cantidades de datos: por eso hay “modelos” que no son de machine learning, pero también dentro de machine learning se distinguen “modelos” de “modelos grandes”. Y, precisamente, los “modelos grandes” permiten no sólo mejor calidad en machine learning, sino también modelos más generalistas: una cosa es que Google entienda mis palabras y con ellas realice una búsqueda por internet, y otra cosa muy diferente es que ChatGPT entienda mis palabras y a partir de mi planteo realice un trabajo práctico para cumplir con mis tareas escolares. Los modelos grandes permiten extender los usos de un sólo modelo a muchos más casos. Aunque esto a su vez retroalimenta el valor del machine learning, porque con solamente machine learning de repente podemos hacer modelos generalistas de todo tipo. De esta manera, machine learning se muestra como el camino hacia la inteligencia artificial general, al menos a simple vista. Si consideramos eso último, es francamente sentido común que haya gente intentando juntar más y más y más datos para poder generar modelos de machine learning con ellos. Pero esto tiene efectos sociales colaterales muy serios.
Frecuentemente, cuando alguien dice algo como eso de los problemas sociales y los datos, pone foco en cosas como la privacidad, o la capacidad de los estados para controlar a la gente, y asuntos por el estilo. Sucede que la militancia informática de izquierda, la gente que se preocupa por la dimensión política de la tecnología, suele tener formación de matriz liberal, y entonces frecuentemente leen los problemas con sesgos anti-estatistas y pro-libertarios. Este es el caso de la Fundación Software Libre, que es vanguardia de izquierda en informática. Pero pasa también cuando se leen planteos como los que se arman alrededor de las revelaciones de Wikileaks o de Edward Snowden: hablan de lo peligroso que es darle tanto poder a los Estados para controlar a la gente, y lo importante que es liberar la información y proteger el anonimato. Por supuesto no les gusta tampoco que ninguna empresa realice esa clase de actividades espúreas que denuncian, aunque cuando se meten con las empresas suelen tener cuidado de no criticar demasiado al capitalismo, y entonces el foco suele volver cómodamente hacia los estados nacionales.
Pero hace muchas décadas ya que los estados nacionales no son el problema, y que de hecho la gente en todo el planeta está harta de pedirles soluciones a los estados sin que estos muestren tener el poder para cambiar prácticamente nada, lo cuál lleva a niveles de inestabilidad política y radicalización como no se vieron en décadas. Mientras tanto, y linealmente en paralelo a ese detrimento social, son empresas las que están apropiándose cada vez más de las infraestructuras con las que realizamos nuestros quehaceres cotidianos, y de esa manera determinando nuestras vidas. Por supuesto esto es algo echado a andar desde la década de 1970 por lo menos, y consumado también hace ya más de treinta años. Pero es tan notorio ya el modo en que los estados nacionales vienen perdiendo casi todas las batallas desde la ideología neoliberal para acá, que el neoliberalismo mismo está en crisis cuando ya no puede echarle la culpa a la intromisión de los estados en los problemas reales de las sociedades. Hoy ni siquiera las fuerzas conservadoras están cómodas, y se ven obligadas a plegarse más a la derecha de lo que les gustaría.
Estas cosas, por supuesto, pueden resistirse, revertirse, o sencillamente cambiarse por otras: es tan sencillo como analizar los sistemas e intervenirlos. Para eso se inventaron la democracia que permita elegir alternativas, los partidos políticos que permitan organizar personas de pensamientos similares, las escuelas de pensamiento que brinden ideas detrás de las cuales organizarse, y demás herramientas, todas plenamente disponibles en la actualidad. Y sin embargo, hace décadas que pareciera no haber alternativa a este mundo que estamos viendo. De hecho, buena parte de la población mundial parece preferir cada vez más extremas derechas, casi como si todavía no conociéramos los resultados de ello.
Hay tres grandes fuerzas detrás de que la gente se comporte como se viene comportando en política. Estas fuerzas son solidarias entre sí, y a su vez solidarias con las premisas neoliberales. La primera es por supuesto la publicidad: el incesante bombardeo de información ultrasesgada o directamente mentirosa tiene sus evidentes efectos en la percepción del estado de la sociedad que a une le rodea y de las elecciones posibles en la vida. La segunda es el régimen laboral, que ante todo quita tiempo y energía a cualquier persona sometida a él, y se convierte en condición de clase social. Y la tercera es la intergeneracionalidad moderna, que rompe los vínculos históricos entre diferentes generaciones de personas alterando constantemente las prácticas sociales. Pero nada más sencillo que curiosear todo esto a partir de un ejemplo.
¿Alquien conocía a Zoom antes de la pandemia? Yo trabajo en informática, y no tengo la menor idea de dónde mis pares sacaron a Zoom. Y yo trabajo en informática hace ya más de 20 años, y sin embargo gente más jóven y menos formada que yo eligió qué software usar durante la pandemia, sin que nadie me lo pregunte. Estoy seguro que esta ha de haber sido la historia de muches en su trabajo: une puede ser referente en su área, pero sin embargo de repente llega un correo desde recursos humanos diciéndonos cuáles son las herramientas que debemos utilizar, y ya no consulta previa sino directamente sin tampoco ninguna explicación. En las empresas grandes eso es planificado, pero cuando se trata de gente usando esos productos por voluntad propia la explicación es sencilla: publicidad, y efectos de red. Por publicidad alguien prueba eso, y por efectos de red sus contactos también lo usan. Microsoft ya había exterminado a Skype para ese entonces, y por eso había gente a la búsqueda de otro medio de comunicación, frente a lo cuál se topó con Zoom. Lo que suena a sentido común, pero oculta otros fenómenos más difíciles de explicar: como ser que aún hoy, años ya después de la pandemia, sigue habiendo gente que no conoce Jitsi, y cuando se le muestra se sorprende como si fuera nuevo. Ahí es cuando se vé el verdadero gran efecto social de la publicidad: Jitsi no tiene publicidad, sino militancia. Y en el siglo XXI, la militancia compite contra la publicidad. Consideren aquello del estado actual de las cosas, y luego saquen la cuenta de cuál de las dos viene ganando.
La publicidad es la militancia de las empresas. Es acción social y política, aunque privatizada y privatizante. Por supuesto que si revisamos los pormenores de la militancia nos damos cuenta muy rápidamente que, como otra infinidad de cosas, se trata de una actividad tendiente a imposible de ser realizada cuando une también tiene que utilizar no menos de 9 horas todos los días para ir a trabajar. Y ahí también recordamos que militar ya parece un lujo cuando tenemos que considerar también estudiar: cosa que, encima, desde hace décadas nos dicen que tenemos que hacer para conseguir un trabajo. Casi como en una especie de manía psicótica, tenemos que usar nuestro tiempo libre del trabajo para prepararnos para el trabajo. Y si ya mencionamos militar, plantear luego la idea de estudiar cosas que tengan poco o nada qué ver con nuestros trabajos ya se siente directamente como una frivolidad. Por supuesto, siempre podemos considerar la idea de no trabajar: pero mejor no le dediquemos demasiado tiempo, si no queremos ir a parar a la calle a fín de mes, y tener que aprender rápidamente a conseguir comida por alguna via que no sea comprándola. De modo que mejor concentrémonos en ir a trabajar, y toda la parafernalia de ir a trabajar, que se trata de supervivencia.
Lógicamente, eso no suena como una vida que inspire muchas ganas de vivirla. Pero no se preocupen: entre los minutos libres que nos deja nuestra jornada laboral, tenemos toneladas de publicidades que nos dicen todas las cosas que podríamos hacer si tuviéramos dinero: comprar un automovil, irnos de viaje, y todo tipo de experiencias lujosas. Eso, ya que estamos, es un incentivo para seguir trabajando, y hasta buscar un mejor trabajo. Entre las publicidades también vamos a encontrar personas que nos interpelan en nuestros sentimientos: gente con la que nos vamos a sentir representades, ya sea en nuestra actualidad o en nuestras aspiraciones, y entonces vamos a armarnos intuitivamente nuestros propios modelos de “human learning” para aprender a elegir cosas en la vida: ideologías, bebidas gaseosas, es todo más o menos lo mismo. Aunque el gran truco en ese sistema está en que, si un día llegamos a la conclusión de que estamos cansades de tantas promesas en tantas publicidades, y en realidad lo que queremos es dejar de someternos a ese régimen de vida que nunca realmente elegimos sino que nos fué sistemáticamente impuesto, lo que nos vamos a encontrar es que para ese entonces ya tenemos cierta edad, y detrás nuestro está lleno de jóvenes más que dispuestes a repetir nuestra misma historia: aunque esta vez con tecnología nueva, que impone reglas diferentes de cómo interactuar entre las personas, y nuevos futuros sobre los cuales fantasear que podremos llegar a vivir. De modo que cuando le quieras explicar a esa gente más jóven los detalles de tu historia, que muy probablemente no tenga muchas grandes aventuras épicas e inspiradoras para relatar, la respuesta que más te vas a encontrar es la sensación en les demás de que vos no entendés la nueva realidad actual, y que todo lo negativo que decís proviene de esa frustración o de tu profunda ignorancia.
Ese cruel mecanismo, repasado tan brevemente, viene funcionando así por lo menos desde el siglo XIX, y supongo que ya era estable en el XVIII. Esa distancia intergeneracional no fué una cosa de todas las épocas y todas las culturas como se la vive ahora. Y arrancó con la modernidad: allá por las revoluciones políticas y tecnológicas que apoyadas en el racionalismo dieron nacimiento al capitalismo. Con el paso del tiempo, esos saltos generacionales se fueron acelerando, y si lo medimos en términos políticos hoy la gente parece no acordarse sus experiencias de apenas hace una década atrás, o menos todavía, del mismo modo que vive cada vez más polarizada en un mundo con picos de stress y donde proliferan todas las variantes más espeluznantes de problemas de salud mental: ansiedades, angustias, depresiones, brotes psicóticos. ¿Quién no tiene amigues o familiares con depresión? ¿Ya te tocó vivir la desesperación de quedarte sin trabajo? Y fíjense que ni siquiera estoy hablando de experiencias como guerras civiles o catástrofes naturales, de las que también está lleno.
Vivimos una época enloquecedora. Y es que, precisamente, estos problemas se sostienen sobre un gran pilar, que es el cómo funciona nuestra mente. La relación con la realidad tiene una serie de problemas de orden epistémico. Cosas como entender los límites de nuestras generalizaciones cuando tratamos de explicar lo que pasa en el mundo, por ejemplo. O bien cuando intentamos entender a otres. Esa clase de cosas están siempre basadas en nuestras experiencias, que constituyen nuestra historia. Las interpretaciones que realizamos, a su vez, son también experiencias, y por eso cosas como leer libros son efectivamente transformadoras como también lo puede ser conocer culturas diferentes o aprender misterios detrás de las cosas que nos interesen. Hay algo de orden psicológico y experiencial en lo que llamamos “conocimiento”, siempre. Pero obviamente no todas las experiencias son felices, ni tampoco son precisamente infinitas, y eso muy rápidamente limita nuestra capacidad experiencial. Y no sé si se dieron cuenta, pero en esta breve explicación no se distingue mucho una diferencia entre lo que hacemos nosotres con nuestra historia, y lo que hace machine learning con sus datos; pausen el video y tómense unos minutos para considerarlo si quieren.
Pero en cualquier caso, esa sitación que encuentra una persona cuando está muy desconectada de fenómenos que suceden en la realidad, cuando vive más bien ensimismada en sus propias experiencias, llevándola a manejar explicaciones demasiado simples de aquellos fenómenos, o hasta a comportarse más bien de manera sistemáticamente reaccionaria cuando se le contradice, tiene un nombre: alienación.
A la alienación ya la había puesto Marx en el centro de los problemas de las sociedades. Él planteó ese problema en lo que siempre fué la explotación humana, pero que hoy llamaríamos positivamente “cultura del trabajo”: levantarse temprano, ir a trabajar todo el día, volver cansados a casa a la noche, y repetir todo al otro día. Tenemos que dar gracias que nuestras jornadas laborales son de 9 horas en lugar de 12 o 16, tenemos que ser agradecides que tenemos fines de semana, que exista el concepto de vacaciones, y qué se yo qué más: pero tenemos que vivir yendo a trabajar, y hacer de eso un orgullo. No sé si en la época de Marx ya estaba articulado en esos términos, pero definitivamente por aquel entonces ya se vivía el mismo problema: el uso del tiempo. Ya sucedía que, si se vive trabajando, oh casualidad no nos dan ni las horas del día ni nuestras energías para hacer ninguna otra cosa nunca. Entre esas cosas que no podemos hacer se encuentran, por ejemplo, informarnos o formarnos, especialmente si tiene poco qué ver con trabajar. Eso incluye actividades como estudiar una ciencia o ingeniería o arte, estudiar otra luego de esa primera, juntarnos con gente a discutir cómo vemos a las sociedades, organizarnos en iniciativas propias y sociales, y tantas otras cuestiones posibles que jamás vamos a hacer por no tener ni tiempo ni energía. Por supuesto no hace falta agregar a eso la necesidad de tener dinero, que ya la damos por descontada: vamos a trabajar en primer lugar porque no tenemos dinero, de modo que si además necesitamos dinero para estudiar o tener un proyecto claramente eso rara vez va a suceder. Por el contrario, lo que va a suceder es que vamos a convertirnos en poco más que unos aparatos que sólo saben hacer eso que tenemos que hacer para ganarnos el sueldo, y toda nuestra cosmovisión del mundo va a estar formada alrededor de lo poco que conocemos sobre eso. A esta altura no sorprende a nadie que, además, el trabajo mismo termine siendo también una especie de salvavidas emocional para nuestras ansiedades y angustias, y tome lugar central en nuestra identidad.
Marx ya nos decía que la división del trabajo le quitaba a les obreres la perspectiva social e histórica de su propio trabajo. Eso no mejoró con los años, ni los siglos a esta altura, sino que sólo se profundizó. Por aquel entonces los “medios de producción”, esos de los que según Marx tenían que apropiarse les obreres organizades, eran las fábricas. Todavía era más o menos elemental darse cuenta que alrededor de la fábrica se organizaba la sociedad, con todas sus consecuencias. Y ciertamente una persona que se había criado en el campo arando la tierra o alimentando animales difícilmente estaba en condiciones de diseñar grandes ingenios industriales ni las largas cadenas del aparato productivo y comercial: para eso era necesario gente bien formada, donde tenían su lugar sólo les burgueses. Pero esa capacidad de diseño no era ningún atributo divino ni nada por el estilo, sino que pasaba simplemente por entrenar gente al caso. Y ese diseño tampoco era ninguna jerarquía objetiva humana frente a otres, sino apenas la contingencia histórica en la que le tocó vivir a diferentes personas: lo cuál puede ser perfectamente planificado, además de que con sólo diseño no hacemos nada y luego el trabajo debía ser llevado adelante también por alguien, que no tiene por qué ser valorade como inferior a otres.
Reflexionar sobre estos temas cambiaba la relación de une con el trabajo propio y ajeno, con la historia, con la clase social, y con los futuros pensables para sociedades posibles. Eso que llamamos “sentido común” tiene mucho de alienación cuando no se lo pasa por algún filtro crítico, y la alienación es al mismo tiempo una forma de sometimiento y una manera de convertirnos en sometedores al legitimar y repetir las mismas prácticas alientantes a las que luego deben adecuarse otres. El trabajo crítico se vuelve entonces liberador.
Y si bien Marx le puso el título de alienación, en realidad veía un caso particular. Antes de él, Adam Smith también hizo planteos críticos liberadores cuando dijo que se podía crecer, que se podía producir más, que se podía generar más riqueza, en un mundo donde se creía en límites naturales a cosas como esas. Aquellas ideas de la época eran, efectivamente, alienantes, mientras que las de Smith revolucionaron literalmente al mundo entero y siguen siendo centrales en el hecho de que se pudieran soñar mundos diferentes.
Pero aunque en la época de Marx haya sido más o menos evidente el rol económico y social de la fábrica, hoy no es tan evidente que cosas como los medios masivos de comunicación sean “medios de producción”, ni que la sociedad se organice alrededor de ellos. Hasta está lleno de marxistas que te lo discuten, por ejemplo planteando cosas como que “la gente no es idiota y se dá cuenta de los artificios en los medios”, y que entonces no son tan centrales en la sociedad. Y por supuesto tampoco van a considerar “medios de producción” a las redes sociales, que frecuentemente pasan a ser la forma canónica de contactarlos por internet. Ciertamente algunas cosas cambiaron con el tiempo, y requieren más explicaciones que las que necesitaban las fábricas del siglo XIX. Y si bien los pensamientos de Smith y de Marx en relación a la alienación fueron liberadores, no fueron los únicos de trascendencia.
Freud llamó la atención sobre cómo en realidad no tenemos tanto control racional sobre las cosas que pensamos, sino que hay muchísimo de intuiciones y sensaciones. Somos seres vivos, animales, que por muchas fantasías racionalistas modernas seguimos siendo profundamente pasionales y seguimos viviendo intuiciones que determinan nuestros comportamientos. Donde Smith entendió que había ideas falsas sobre los horizontes de desarrollo y crecimiento de los pueblos, y Marx entendió que había prácticas sociales alienantes, Freud entendió algunos pilares subjetivos para que esos efectos negativos fueran posibles.
Sucede que en lugar de sencillamente vivir todes en alguna forma de contacto pleno con una realidad compartida, estamos todes inmerses en nuestras propias subjetividades, y nuestros contactos con la realidad estan siempre mediados: por nuestras culturas y entornos primero, y nuestras práctica particulares luego. Estudiando esas cosas, precisamente buscando solución a la alienación, encontró que incluso se pueden llegar a curar patologías directamente a través del diálogo: algo tan profundamente liberador para la humanidad como los planteos de Smith y Marx. Aunque los planteos de Freud eran especialmente sinérgicos con los de Marx: había alienación, tenía qué ver con cómo vivimos, y la palabra podía curarla. Por supuesto que Marx hablaba de organización obrera y Freud hablaba de trabajo clínico, pero de una manera u otra se confirmaba un problema en la relación con la realidad, que es un problema de doble filo: por un lado la subjetividad con el entorno, y por otro lado la intersubjetividad.
La alienación, entonces, es al mismo tiempo un problema ético, un problema político, y un problema epistémico. Esto es algo que los teóricos del neoliberalismo no dejaron pasar, y no es casual que tanto el marxismo como el psicoanálisis hayan sido tempranamente tildados de pseudocientíficos por las mismas personas que se sentaban a discutir el nuevo paradigma ideológico de un occidente en guerra fría. Sin ir más lejos, el mismo sobrino de Freud, Edward Bernays, es considerado como el padre de las relaciones públicas, y dedicó su vida a estudiar cómo por medio de la psicología se podía influir en las sociedades. Algunos de sus trabajos más famosos son campañas que relacionaban al acto de fumar cigarrillos con la liberación femenina, o bien sus trabajos para empresas vinculadas a la CIA y golpes de estado en América. No tengan ninguna duda que desde los think tanks del neoliberalismo le prestan atención a la alienación, y acá es donde corresponde ir a buscar qué se decía en los setentas sobre los medios masivos de comunicación, por aquel entonces encarnados mayormente en la televisión.
Entonces, el régimen de trabajo asalariado produce que no tengamos tiempo para formarnos, y el poco tiempo que tenemos para INformarnos está mediado por esos “medios” masivos de comunicación. “Medios” que operan de mediador con la sociedad al mismo tiempo que son medios de producción de discursos. En solidario, ahora también tenemos redes sociales en las que activamente repetimos esos discursos, que encima se pretenden cada vez más rápidos y simples. Y ahí ya ni de discursos hablamos: literalmente ya sólo reacciones. Se nos dicen un montón de cosas, que cuando las resistimos generamos discordia y polarización. Con las redes sociales, al mismo tiempo se nos estimula a que eso suceda: opinar cualquier cosa es un acto de libertad de expresión, y a eso tenemos que defenderlo opinando más y más lo que se nos antoje; no tan secretamente disfrutamos hacer enojar a les demás, aunque luego pretendemos ser víctimas de algo cuando eso no termina bien. Somos constantemente estimulados en nuestras emociones más primitivas y simples, que resultan ser también las más fáciles de controlar a nivel poblacional. Y desde las redes sociales, además, tenemos más precisión que nunca para calibrar cualquier mensaje que se pretenda insertar en un grupo social particular, ya hasta de manera automatizada y como servicio a empresas. Esa es la aparentemente inquebrantable organización de la militancia empresarial.
Muchas de las premisas de Marx siguen tan vivas como en el siglo XIX, pero eso no quita que esta alienación que estamos viviendo tiene unas cuantas complejidades agregadas a lo que decía él por aquél entonces. Sin embargo, cada vez que hablo con marxistas me encuentro con la misma clase de respuestas con las que se encontraba Norbert Wiener en 1948, especialmente en lo que respecta los problemas que la automatización agregaba a teorías clásicas del trabajo o de la sociedad: como si todo se explicara por las ya clásicas premisas vinculadas a las relaciones sociales que arrastramos desde el siglo XVIII. Y en esto se dá una extraña coincidencia entre marxistas y liberales.
Hace no mucho tiempo atrás se hizo popular la noticia de que McDonnalds había automatizado completamente uno de sus locales de comida rápida. Frente a esto, me llega la noticia de parte de alguien marxista que lo plantea como problema laboral, porque evidentemente dejaría sin trabajo a les obreres menos capacitades de todes, llevándoles a la miseria. Por supuesto cualquier marxista es sensible a los perjuicios contra les obreres, y dedica su vida a denunciarlos y combatirlos. Pero frente a la escena de la automatización de McDonnalds, la reacción pasa a ser casi inmediatamente “defender el trabajo”. Lo cuál lleva a la insostenible idea de algo así como “derecho a trabajar en un McDonnalds”, que es básicamente el estereotipo de explotación laboral alienante desde hace décadas, y el ejemplo canónico del trabajo que no debería existir: es básicamente la línea de producción fordista aplicada a las hamburguesas, con el agregado de una atención al cliente siempre denigrante. E igual de frágiles son los planteos por parte de liberales cuando se proyecta la cantidad de tareas en las que se puede aplicar automatización y tienen que hacer malabares para defender la idea del mérito y de la generación de valor y tantas otras nociones vetustas por el estilo.
La alienación no es una condición binaria. Une no es alienade o no-alienade: une siempre tiene límites en su capacidad de comprensión de los temas y la realidad que nos rodea. No pretendo burlarme de marxistas y liberales, sino plantear que las cosas que están sucediendo precisamente ponen en crisis un montón de ideas que se pretendían ya escritas en piedra. El ejemplo de McDonnalds nos lleva rápidamente a una conclusión muy sencilla: a no ser que pretendamos defender el régimen laboral que conocemos, debería tender a desaparecer. Lo cuál debería ser una gran noticia para cualquier sometide, como yo. Pero la parte inquietante es que, con el régimen laboral que conocemos, también deberían desaparecer los sistemas sociales que conocemos, aunque no queda claro hacia qué otro sistema iríamos. Y entonces no debería sorprender a nadie que marxistas y liberales, frente a algo como eso, se vuelvan más bien conservadores.
Como estamos hablando de inteligencia artificial, yo me concentré mayormente en el rol del trabajo asalariado en las sociedades actuales, pero en realidad son muchas las cuestiones críticas de los sistemas actuales: el calentamiento global y el crecimiento poblacional, por ejemplo, son dos temas que dejan en claro cómo la sociedad de consumo keynesiana tampoco es ninguna opción sostenible, y con eso cae cualquier fantasía de “capitalismo bueno”. Hay movimientos que hace décadas causaban hasta burla y hoy organizan a millones de personas en todo el mundo; como la causa vegana por ejemplo, que plantea una relación ética inter-especies: ya ni el antropocentrismo está cómodo cuando se discute política. Las ideas de hace siglos atrás sobre el ser humano, la sociedad, el trabajo, la vida, y el futuro, están absolutamente en crisis. Y ese es el contexto en el que nos toca vivir la emergencia de la inteligencia artificial. Con lo cuál, tampoco debería sorprender a nadie que genere tantas ansiedades: no estamos precisamente en un mundo que se sienta bajo control, y esto no parece venir a tranquilizar las cosas tampoco.
Pero, irónicamente, el mundo está BASTANTE bajo control: al menos, esto que vemos tiene mucho de planificado. Es cierto que las ideas clásicas sobre el ser humano y la sociedad se muestran vetustas, pero la fantasía de que “no hay alternativa” es articulada incesantemente en los aparatos alientantes que median entre nosotres y el mundo: los llamados “medios”, que se dicen “de comunicación”, entre los que incluyo a las redes sociales. Esto que estamos viendo es el resultado de la militancia neoliberal: esa misma que ahora se radicaliza más a la derecha, e insiste en convencer a la gente que sólo abrazando las premisas neoliberales al ultranza va a pasar algo bueno en algún futuro. Es en los medios donde la izquierda contemporánea no existe. En realidad, está lleno de gente que plantea muchas, muchas ideas transformadoras de las sociedades, y alternativas al neoliberalismo. Y del mismo modo, si bien el mundo vive en crisis, la opinión está polarizada: las elecciones que gana la extrema derecha suelen ser por un margen muy corto (lo cuál indica que la otra mitad de la población quiere otra cosa), y encima suelen no durar más de un período. El neoliberalismo está simplemente sobre-representado en los medios, porque es el espacio de militancia de las empresas, cuyo juego es mantener su centralidad en las sociedades.
Aunque lo que también sucede es que, cuando gobiernos que se pretenden contrarios a las propuestas neoliberales ganan elecciones, su capacidad de toma de decisión es brutalmente limitada. En primer lugar, los cambios revolucionarios muy rara vez son parte de la propuesta ganadora: la gente vota de manera mayormente conservadora. Al caso se habla frecuentemente de que “votan pensando en sus intereses”, pero esos intereses rara vez no son otra cosa más que la misma alienación que lleva más tarde a votar nuevamente al neoliberalismo: cosas como el valor del salario, o si puede o no acceder a experiencias de consumo vedado, entre lo que tristemente se incluyen cosas como la salud o la educación. A eso se le llama “economía” y no “alienación”, y entonces nadie vota cambios muy radicales qué digamos: las izquierdas marxistas rara vez obtienen gran porcentaje del voto, mientras el liberalismo sigue fantaseando con prometer las mismas promesas por otros 200 años más. Pero por otro lado, existen demasiados puntos de injerencia de poderes sobre los gobiernos, desde lobby y compra de funcionaries hasta sencillos actos mafiosos que aterroricen a las dirigencias y traben cualquier proceso transformador legitimado por la voluntad popular. Así también terminan defraudando los tímidos ciclos keynesianos, que logran enamorar a muches pero no sobrevivir más que algunos pocos años, mientras todos los medios bombardean con la consigna “el problema es el Estado”.
Los efectos alienantes de la militancia empresarial son a todas luces devastadores, y no pueden ser tomados a la ligera por nadie que analice las sociedades del siglo XXI. Aunque el colmo de la alienación no está en aquellos ejemplos anteriores, sino en algo constantemente siendo ocultado a simple vista. A Adam Smith le fué bien porque detrás de él estaba un movimiento social, cultural, político, filosófico, y técnico, que le daba verosimilitud a sus planteos: estamos hablando de la jóven ciencia. La misma ciencia por la que Marx logró transformar también el pensamiento para siempre, prácticamente dando lugar a la creación de las ciencias sociales. La misma ciencia que dió cobijo a Freud, y a Darwin, y a Wiener. Las ideas revolucionarias, liberadoras, y transformadoras, desde el día cero de la modernidad, fueron las ideas científicas. Ideas que, en su indagación de la realidad, son necesariamente contrarias a los mecanismos alienantes. Y se tratan de ideas que siguen hoy, más que nunca, funcionando con plenitud. Hemos visto en este trabajo, por la vía de la informática, buena parte de la historia reciente de la tecnología, y con ella de unos cuantos avances científicos. Hemos también repasado cómo las sociedades fueron cambiando radicalmente una y otra y otra vez desde el comienzo de la modernidad para acá. Hemos visto, en definitiva, que es la ciencia la verdadera fuerza transformadora. Y de su mano surgieron todas las ideas desalienantes que repasamos, sin perjuicio de su condición ideológica: marxismo y liberalismo le deben su nacimiento y desarrollo a la ciencia. Aunque lo que no hemos visto todavía es un trágico detalle de los últimos siglos, que debemos poner también en foco.
Hoy cualquier hije de vecine cree que la ciencia es producto del capital, y no al revés. Ponen su admiración y hasta su fé en empresas, que se supone vayan a solucionar nuestros problemas: Amazon, Google, Tesla, Bayer. Cuando buscan soluciones, no buscan ramas de las ingenierías, ni teorías científicas que tengan algo para decir al respecto: buscan productos de consumo. Los proyectos de ciencia y tecnología, investigación y desarrollo, llevados adelante por científiques e ingenieres, se articulan como cualquier trabajo más, como si fueran empresas: sometidos a financiamientos, a rendimientos, a los tiempos y modos del capital. Desde ese contexto se asimila una y otra y otra vez a la economía como disciplina rectora del proceso de toma de decisiones estatal, explicadora de las relaciones humanas, y conocimiento técnico de primer orden: cuando en rigor dice poco sobre ninguna realidad objetiva, tiene mucho de dogmática, y habla de sistemas construidos por nosotres como si fueran fuerzas naturales, todo eso articulado con modelos paupérrimos sobre la humanidad. La ciencia y la tecnología se mueven detrás de un velo cultural que las muestra sometidas a los vaivenes del capital, y bajo las botas del financiamiento y las leyes de patentes como condiciones de posibilidad de realización del trabajo científico, de modo tal que nunca haya alternativas a los intereses del capital. Y esa es, por lejos, la alienación más dañina de todas las que nos están tocando vivir.
Todo ese gigantezco preámbulo fue para poder plantear lo siguiente: ChatGPT, junto con DALL-E antes de él, y Copilot todavía antes, son herramientas culturales para posicionar a Microsoft en el corazón del ecosistema de la informática, y con ello también de la automatización comercial e industrial, desde donde también tendrá profunda injerencia sobre las telecomunicaciones. Es Microsoft una vez más apropiándose de las infraestructuras con las que hacemos nuestras vidas y forjamos nuestros futuros. Y, si vieron los videos anteriores, a ver si por favor esta vez no idealizan a Microsoft como si hubiera inventado algo, cuando lo único que hizo fué comprar empresas y sobornar a la gente adecuada para quedarse con el trabajo de otres. Microsoft es por lejos el peor enemigo de les obreres y usuaries de la informática, y un cancer que pretende enquistarse en las estructuras sociales e infraestructuras productivas de todos los estados nacionales. Pero el gran problema hoy ni siquiera es ese. El gran, ENORME problema que estamos empezando a vivir, es el hecho de que culturalmente se instalen a los modelos grandes de machine learning como el camino para la gestión de la automatización en las próximas décadas. La creación de modelos grandes necesariamente sólo puede caer en manos de grandes infraestructuras de datos: de las que sólo un puñado de empresas en el mundo disponen, y ningún estado nacional.
Si me preguntan a mí, ChatGPT va a fracasar miserablemente, especialmente a partir de que Microsoft empiece a calibrar sus funcionalidades de la manera que siempre lo hace: pésimo, y con objetivos diametralmente opuestos a los intereses de les usuaries. Pero aún así no es ningún tema para tomarse a la ligera, especialmente en su dimensión política. Porque culturalmente, el machine learning como lo conocemos es una máquina de centralizar datos. Si a eso se lo tilda de “progreso” o “el futuro”, no tengan ninguna duda de que con o sin Microsoft en el medio las empresas involucradas van a recibir toneladas de dinero en inversiones provenientes de fondos de nula moral y con metas de ganancias rápidas, ese dinero se va a reinvertir mayormente en lobby y publicidad para posicionar a las empresas en el corazón de la gestión de datos a partir de la alta presencia en la sociedad, y va a ser algo articulado en simultáneo en todo el mundo. Y otros fenómenos políticos, económicos, y sociales, muy probablemente vayan a ser sinérgicos con esto: cuando finalmente explote la burbuja de las criptomonedas, muy probablemente toda esa infraestructura va a ser utilizada para machine learning del mismo modo que la burbuja punto com dió lugar a las infraestructura de la web como la conocemos hoy; el capitalismo de plataformas muy probablemente sea sinérgico con un emprendedurismo de inteligencias artificiales construidas sobre servicios de grandes empresas informáticas; el clamor popular por inteligencias artificiales serviles y fáciles de usar probablemente lleve a que los estados terminen implementando esos mismos servicios en su gestión de atención ciudadana; y tantos otros etcéteras más.
Y si encima realmente logran hacer que por las vías del machine learning se creen inteligencias artificiales suficientemente generalistas, no sólo van a seguir estimulándolo más y más independientemente de sus muchas fallas y limitaciones, sino que estas empresas van a haber logrado un paso en la historia del capitalismo probablemente sin retorno: la apropiación definitiva e irreversible de TODOS los medios de producción. Con esos requisitos de infraestructura y participación social que impone el machine learning con modelos grandes, nunca otras organizaciones van a poder ser capaces de replicar estas tecnologías con la suficiente velocidad y calidad, y entonces nunca van a obtener el beneplácito de las sociedades ya adecuadas a convivir con esa centralización. De modo que difícilmente haya ninguna democracia en ese mundo donde se vote en contra de los intereses de esas empresas, porque se van a sentir como nuestros propios intereses. Y si fantasean con que van a poder tomar por asalto a estas empresas, o que van a poder estatizarlas o ponerlas bajo control obrero o algo así, entonces no estuvieron prestando mucha atención a lo que dijimos sobre automatizar la alienación.
No les pedimos que tomen estas cosas que decimos como alguna forma de verdad incuestionable. Pero si les pedimos que presten atención al detalle de que, para decir todas estas cosas, nos basamos en la historia y no en nuestros gustos o disgustos. No es eso lo que queremos que suceda: es eso lo que leemos que puede suceder, y sobre lo que pretendemos levantar una alerta.
En una situación extrema, esto del machine learning tiende al reemplazo de la política por la literal gestión de recursos humanos, como ya se vé a la publicidad reemplazando a la militancia, o a las empresas multinacionales reemplazando a los estados nacionales. En un mundo como ese, como sucede con todos los cambios históricos, va a haber cierta convivencia sin dudas entre los estados y las empresas, y entre el mundo anterior y el entonces actual: pero tampoco va a haber dudas de quién tiene qué poder sobre las sociedades para decidir la dirección del “progreso”. ¿O acaso sorprende a alguien que las mismas empresas que crearon y financiaron OpenAI, en paralelo comenzaron su propia carrera espacial, esta vez privatizada? ¿Se acuerdan cuando la NASA, la agencia nacional aeroespacial estadounidense, era vanguardia tecnológica e ícono sociopolítico? Ni siquiera el Estado de los Estados Unidos escapa de estos fenómenos. ¿Qué creen que va a pasar con nuestros estados nacionales, constantemente debilitados en todos sus frentes?
Frente a cosas como esas, esta vez el baldazo de agua fría con la inteligencia artificial va a ser para optimistes y pesimistes de ChatGPT en igual medida. Aunque ninguna de las consideraciones alarmistas que mencionamos entre estas conclusiones son ni irreversibles ni necesarias: simplemente se pretenden verosímiles, al menos hasta cierto punto que permita prestarle atención a los peligros culturales de la inteligencia artificial bajo hegemonía neoliberal. Y cuando se piensan estas cosas en todo su conjunto, en lugar de reflexionar sobre las partes por separado, es perfectamente entendible que se den situaciones cercanas a la guerra por cosas más bien frívolas para nuestras vidas como pueden serlo el 5G. Y es también perfectamente entendible que se pretenda estimular con publicidad a las tecnologías que permiten centralizar la cultura, independientemente del currículum o el prontuario de tales tecnologías: no pasan por si andan bien o mal, sino por su horizonte último. Por eso tampoco importan mucho nuestras sagaces observaciones sobre los límites en esas tecnologías, que de una manera u otra después terminan conquistando los corazones de las sociedades. Y ese nos parece el punto donde tenemos que poner un poquito más de atención, muy especialmente cuando hablemos de inteligencia artificial.
La inteligencia artificial es una absoluta maravilla de la ciencia y la tecnología, y así debe ser entendida y celebrada. Pero tampoco puede ser dejada al arbitrío de fuerzas supremacistas que existen exclusivamente con el objetivo de someter y asimilar cualquier alternativa, incluyendo los estados nacionales, y encima libres de mediar entre las acciones de poblaciones cada vez más alienadas. La forma que tome la inteligencia artificial no puede ser la que beneficie a estas empresas a-nacionales que en la práctica parecen tener más poder sobre las sociedades que la propia organización de las naciones unidas. Y la clave para esto es separar inteligencia artificial de machine learning, así como también los modelos grandes de machine learning de otros modelos más accesibles por organizaciones más pequeñas.
Por ejemplo, todes parecen estar al tanto de GPT-3 y GPT-4, de OpenAI, gracias a la incansable militancia empresarial. ¿Pero acaso conocen Bloom? ¿Están al tanto de que existen organizaciones haciendo alternativas a las de OpenAI, pero esta vez como software libre y colaborando entre miles de investigadores e investigadoras? Esas alternativas no tienen el respaldo de la militacia empresarial, de modo que van a tener que buscarlas. Pero, además, tienen que aprender a separar la idea de hacer inteligencia artificial a partir de cantidades incognoscibles de datos recopilados, y pensar también en sencillamente modelar nuestra propia inteligencia a partir del trabajo crítico: filosofía, sociología, psicología, antropología, lingüística, política. Es el trabajo intelectual que hacemos desde hace siglos, simplemente aplicado a la automatización. Es mezclar cualquier disciplina con informática, y eso también es inteligencia artificial.
El conservadurismo como defensa está muy bien, pero no va a durar más de una generación, que encima luego va a ser mal vista por la siguiente: esta generación actual debe tomar las riendas de qué va a suceder con la inteligencia artificial el día de mañana, porque ese mañana ya no está tan lejos: a la velocidad de la historia de la informática como la relatamos en esta tesis, estamos hablando de una cosa de 20 o 10 años. La inteligencia artificial promete cambios revolucionarios, pero se está apurando su instalación en la sociedad como una especie de truco de magia logrado por empresas a las que tenemos que dedicarle nuestra admiración y confianza. Está muy bien llamar la atención sobre eso, pero de poco va a servir si no construimos también alternativas a cualquier cosa que propongan esas empresas, especialmente cuando se trata de telecomunicaciones y realizar nuestras tareas diarias. Por si no se entiende lo que estamos diciendo, seamos más categóricos al respecto: ustedes, querides espectadores, van a tener que cambiar sus hábitos comunicacionales y computacionales, o caso contrario todo lo que hagan va a resultar absolutamente inutil para condicionar en nada a estas empresas. Tienen que usar software alternativo, redes sociales alternativas, herramientas homologadas por referentes tanto tecnológicos como políticos. Tienen que exigir que los estados tengan infraestructuras que les permitan realizar actividades regidas por el voto popular. Tienen que pedir a sus partidos políticos, a sus sindicatos, a sus organizaciones sin fines de lucro, que permitan espacios de interrelación y trabajo por internet que no dependa de las grandes redes sociales ni las grandes empresas sino de infraestructura propia. Tienen que, de hecho, empezar a investigar cómo realizar ustedes sus propias redes entre sus conocides, con software que no controlen otres más que ustedes mismes. Todas estas cosas no son ninguna fantasía: existen, son perfectamente posibles. Pero son cambios de hábitos que divergen radicalmente con los comportamientos que van a proponer Twitter, Facebook, Amazon, Instagram, Mercado Libre, Tik Tok, Google, y ninguna de esas que aparezca la semana que viene, o que el mes que viene termine comprando Microsoft. Esa es la manera de apropiarse de los medios de producción en el siglo XXI: al menos, de los medios de producción de discursos, y por lo tanto de ideas.
El software es político. Internet es política. Las redes sociales son políticas. La inteligencia artificial es política. Nuestras vidas están mediadas por esas herramientas que desde el día cero existen en relación a nuestro trabajo, en relación a nuestras interacciones con otres, y en relación a nuestra comprensión del mundo. Nunca fué de otra manera, y nada de eso cambia con la inteligencia artificial. Del mismo modo que Marx y sus descendientes pusieron énfasis en la conciencia de clase en relación al trabajo, la sociedad, y la economía, hoy tienen que también tomar conciencia de la dimensión política de la informática: disciplina que por lejos sobrepasa los alcances de la economía y la estadística. Hoy la economía es informática, la estadística es informática. Y tanto alcance tiene la informática, que la inteligencia misma, aquel atributo sagrado del ser humano, está empezando también a ser informática. Y de la mano de la conciencia informática, viene también una conciencia de la complejidad, que responda a las sobresimplificaciones a las que sistemáticamente nos vemos expuestes la actualidad.
Las llamadas “interfaces de usuario”, de las que cosas como videojuegos son vanguardia y por las que cosas como los sistemas operativos pueden terminar siendo un éxito o un fracaso, son un caso particular de “interfaces”, que significa “vínculo entre componentes de un sistema”. Cada pequeño software que alguna vez usaron, cada herramienta de trabajo y video-juego y aparatito con el que se comunicaban con otres, fue siempre un experimento vinculado a nuestras actividades y cómo nos relacionamos con ellas: cómo entendemos nuestros quehaceres, cómo metaforizamos nuestras acciones sobre el mundo, como explotar o restringir eso. Las redes sociales son otro experimento más en esa larga línea. Y presten atención a cómo desde el advenimiento de los teléfonos móviles con pantalla táctil las interfaces de usuario cada vez se pretenden más, y más, y más simples. Leer y escribir casi que está mal visto a esta altura, así como todo lo que no se mida en segundos como máximo. Twitter es un éxito simplemente permitiendo escribir poco y viralizar reacciones; Facebook tuvo que pasar por procesos burocráticos internos muy laboriosos para algo tan sencillo como permitir alguna reacción que no sea simplemente “me gusta”; youtube no muestra ya los “no me gusta”, porque eso tiene consecuencias sociales indeseadas para la empresa; los videos de tik-tok o de youtube shorts, para beneficio de aparentemente nadie, no permiten utilizar la barra de tiempo que cualquier reproductor multimedia siempre tuvo disponible, pero que las nuevas generaciones de usuaries pueden bien no conocer el día de mañana. Tienen que tomar conciencia de cómo esas cosas necesariamente limitan sus alternativas de interacciones, con la información y con otres. Tienen que cuestionar esos detalles, y en base a sus cuestionamientos idear cuáles deberían ser las interacciones adecuadas para una sociedad que se comporte de otras maneras.
Y las alternativas no necesitan ser un éxito, ni comercial ni popular: necesitan existir. La historia de la inteligencia artificial está llena de “fracasos” que llevaron a “inviernos”, pero eso sólo fué así en las métricas de financistas evaluando qué hacer con su dinero: la historia de la inteligencia artificial, dentro del ecosistema más general de la informática, dió saltos enormes en pocas décadas, y permitió éxitos espectaculares que hoy nos llevan a cuestionar hasta dónde puede llegar. ¿Dónde está el fracaso en eso? ¿Dónde está ese invierno hoy? Ambos prácticamente en el olvido o en lo anecdótico, porque así es como se dan las cosas en la historia: nuestros actos dan lugar a actos futuros de generaciones futuras. Similar fué la historia del proyecto GNU, que no pasa un día sin recibir desvalorizaciones de todo tipo pero mientras tanto domina el trabajo en los datacenters de todo el mundo, del mismo modo que Linux es el kernel que más se utiliza en todo el planeta y en todo tipo de dispositivos: pero como la gente sigue usando Windows, entonces se supone que haya sido alguna forma de fracaso. Esa lógica financista y marketinera del capital es alienante, debe ser interpretada como alienante, debe ser criticada: nuestras experiencias e ideas son valiosas, y los fracasos son evaluaciones muy contextuales de contingencias históricas en un contínuo que no se termina.
Alguien dijo una vez que estábamos en la era de la información: aquí nos permitimos entonces pensar si no es momento de desarrollar nuevos sistemas políticos, sociales, y económicos, con la informática como disciplina de referencia en lugar de la economía. Es, de hecho, lo que está sucediendo en la práctica con el crecimiento de las grandes empresas informáticas y su apropiación de la mediación de todos los aspectos de la vida cotidiana. Y es que no tiene nada de nuevo: son las mismas ideas que llegaba a ver Norbert Wiener en 1948 cuando planteaba a la Cibernética. Él ya vió que la dimensión interdisciplinaria de la Cibernética permitía unificar conceptos para hablar de neuronas o de sistemas solares indistintamente. Él ya vió cómo la gestión de la información es la condición de posibilidad del control de cualquier sistema. Y cuando hablamos de él, en realidad hablamos de muches que comprendieron las mismas cosas ya desde su época.
Cuando Wiener planteó la Cibernética, etimológicamente la basó en la palabra griega Kybernetes, o Kubernetes, dependiendo la pronunciación y traducción. Es una palabra que describe la acción de manejar el timón de un barco, y que se traduce más o menos indistintamente como “timonear” o “gobernar”. La Cibernética nace, precisamente, reflexionando sobre formas de gobierno de diferentes sistemas. No debería sorprender a nadie que eso termine articulando sistemas de gobierno como Cybersin, que pretendía involucrar en la gestión estatal herramientas que décadas más tarde implementaron las redes sociales y los sistemas de venta online; y eso sucedió con socialismo democrático, un concepto considerado oximorón tanto por capitalistas como por revolucionaries marxistas. Hoy, de hecho, el sistema actual de orquestamiento de Google para controlar datacenters, sucesor de Google Borg, se llama precisamente Kubernetes: que en su documentación tiene el mismo relato etimológico que Wiener planteara en aquel libro de 1948, pero sin embargo no hay una sola mención a él ni a la cibernética que yo haya podido encontrar en la documentación online. ¿Qué creen ustedes? ¿Acaso Google no sabe buscar referencias en internet? Es casi como si Google hubiera preferido tampoco querer quedar pegado a la historia de la Cibernética, del mismo modo que sucedió antes con la gente de inteligencia artificial. Pero tanto Borg como Kubernetes, los sistemas de gestión planetaria de Google, directamente refieren a Cibernética. ¿Necesitan seguir probando si la Cibernética funciona? ¿O nos ponemos a hablar de “fracaso” porque a Allende lo derrocaron?
Y ahora que hablamos de Google, cabe también una nota sobre las empresas. El discurso de esta tesis tiene un claro sesgo antiempresa, pero en realidad las empresas son una forma de organización legítima, y les empresaries son también gente decente y preocupada por la sociedad: que haya empresas como Microsoft no quiere decir que todas las empresas sean como Microsoft. En otra época del mundo, “empresa” era sinónimo de “proyecto”. Les empresaries, de hecho, suelen ser gente muy bien formada y muy dedicada: la clase de líderes que necesita cualquier organización más o menos sofisticada. El problema por supuesto es la orientación ideológica detrás de esa formación, que dá lugar luego a los horizontes de acción política que ya conocemos: o “generar capital”, o la nada misma. Pero definitivamente cualquier cambio que venga de la mano de la ingeligencia artificial va a requerir que les empresaries presten atención y hasta alcen la voz: si bien les empresaries son minorías, y no precisamente de aquellas típicamente sometidas, su conocimiento de las relaciones sociales y humanas en lo que respecta a producción e intercambio no es ni trivial ni menor, y no podemos hablar de desalienar tapándonos los ojos y oidos a eso.
Y hablando de minorías y desalienación, además de prestar atención a los criterios de “éxito” o “fracaso” con los que se evalúan las acciones políticas y científicas, estamos en una época donde muchas militancias han logrado corpus teóricos y experienciales que abren muchas puertas a sociedades alternativas pensables. Nuevamente, aquí pusimos foco en el gremio informático y muchos de los problemas que lo atraviezan, pero las crisis sociales y políticas actuales no están solamente mediadas por los fenómenos informáticos. Especialmente, la crisis de legitimidad neoliberal gracias a su premisa de ausencia de alternativas, hace chocar al neoliberalismo con muchos movimientos heterogéneos. Los feminismos plantean nuevas formas de relacionarse entre las personas, a partir de su estudio de los sometimientos a los que las mujeres han debido de adecuarse históricamente para sobrevivir, y allí encontramos argumentos que cuestionan régimen laboral o teoría del valor, dando entonces lugar a legítimos planteos de nuevos sistemas sociales construidos sobre principios diferentes a los del capital. El feminismo a su vez frecuentemente tiene mucha sinergia con otros movimientos, como el neurodivergente: donde este último expone cómo los regímenes de competencia, inteligencia, y exigencia cognitiva, someten a millones de personas en el planeta de manera más bien dogmática, desde el feminismo surge la ética del cuidado que revaloriza otras tareas y relaciones sociales que no pasan por la lógica del capital. Lo mismo sucede con el ambientalismo, cuestionando la relación con el ecosistema, que tiene mucha sinergia con la relación crítica interespecies que plantea el veganismo: críticas incisivas a los sistemas de producción y consumo, que exigen sistemas basados en principios diferentes a los del capital. En la informática, el software libre critica los diferentes mecanismos detrás del conjunto de cosas llamado “propiedad intelectual”, criticando efectivamente así la propiedad privada de los medios de producción y a las barreras sobre el conocimiento científico, en una expecie de híbrido entre marxismo y liberalismo que, encima, surge de mezclar informática con ética en los laboratorios de Inteligencia Artificial del MIT: cualquiera podría apostar a que tal engendro está condenado a la más absoluta marginalidad, y sin embargo aquí estamos, repasando su centralidad en la actualidad y sus éxitos. ¿Cuántos movimientos más hay que no nos llegan porque no tienen publicidad? Pueblos originarios, anticolonialismos, antiracismos, movimientos gremiales de todo tipo, legalismos, cientificismos, movimientos vinculados al arte… ¿Van dimensionando la cantidad de alternativas que realmente hay dando vueltas, a miles de problemas, aunque desde la publicidad se diga que no hay ninguna?
El trabajo a realizar es encontrar maneras de articular todo eso. El trabajo es buscar en la actualidad y en la historia: como en esta tesis trajimos a la Cibernética para reflexionar sobre la inteligencia artificial, otres van a ir a buscar a trabajos, referentes, ideas, que hoy nos vayan a permitir pensar cómo transformar la realidad. La clave va a ser siempre desalienar. Y la herramienta desalienante por excelencia es la ciencia: pensamiento crítico aplicado al análisis de cómo funciona una realidad que excede siempre a nuestras subjetividades, y que a su vez las nutre y condiciona. Desde allí creamos realidades alternativas posibles que nos permitan organizarnos para transformar la realidad actual que nos toca vivir. Y, planteado de esa manera, la diferencia entre ciencia y política es nula. Pero viviendo en un mundo donde se supone que no hay alternativa, crear alternativas es exactamente una de las tareas más importantes y urgentes.
Y nadie está nunca desalienade, no completamente: no existe un conocimiento definitivo, último, final, que simplemente se conoce o se desconoce. Todes tenemos una visión fragmentada de la realidad, y así va a ser mientras seamos seres humanos. Cualquiera que plantee conocer la respuesta definitiva a los problemas de la sociedad, miente en principio, y probablemente también se mienta a sí misme. Las cosas que se dicen en esta tesis deben ser también ser discutidas.
Pero la trampa histórica de la fantasía cientificista desalienante es que requiere un tiempo infinito, que no tenemos. No podemos ponernos a discutir absolutamente todo, leyendo y escuchando y considerando absolutamente todo, porque tenemos una vida cuyas condiciones de sustentabilidad no lo permiten, y porque los temas nos exceden enormemente. Siempre vamos a necesitar creer en algo, en alguien. Siempre vamos a poner foco en alguna que otra particularidad de la realidad que nosotres consideremos suficientemente significativa como para accionar sobre ello. Como aquí nos importan la epistemología, y la política, y la emocionalidad, y la cultura, entonces pusimos foco en la alienación cuando hablamos de impacto de la inteligencia artificial en la sociedad. Y como yo particularmente soy trabajador de la informática, me pareció que parte de la historia reciente de esa disciplina podía ser una base sobre la cuál pensar efectos posibles sobre la sociedad, además de ser la actualidad de la inteligencia artificial una oportunidad para realizar un ejercicio de divulgación. Pero estas son apenas algunas pocas aristas del tema, y van a haber muchas otras. Eso es normal, eso está bien. Está bien incluso ser conservador o conservadora al respecto de estos temas: está bien hacer lecturas desde un lente liberal o marxista, está bien incluso cosas como defender al capitalismo o criticar a la democracia. Esas posturas no son un problema. El problema, en todo caso, es cuando no se reconoce la acriticidad de las mismas: cuando dejamos de reconocer que en alguna medida estamos apostando a lo que confiamos, dejamos de darnos cuenta que en realidad estamos creyendo en algo, y entonces nos convencemos de que tenemos un conocimiento verdadero y revelado que debe ser impuesto. Porque una cosa es que estemos obligados por nuestra materialidad a siempre creer en algo, pero otra cosa muy diferente es que terminemos ejerciendo supremacismos ideológicos.
Todo esto es pertinente al tema de la inteligencia artificial, porque precisamente la inteligencia artificial nos permite extender nuestro trabajo intelectual a nuevos límites que todavía no veo se perciban en la sociedad general. Estamos muy cerca de lograr cosas como las que hacía Tony Stark en la película: pero en lugar de ponernos a hacer cosas de superhéroes, nos ponemos a automatizar nuestro trabajo intelectual de búsqueda de fuentes, recopilación y comparación de opiniones, construcción de modelos teóricos, y creación de alternativas que permitan resolver los problemas sobre los que nos concentremos. Ya tienen experimentos funcionales: ya pueden ver a ChatGPT respondiendo sobre cualquier tema, o a Copilot escribiendo código a partir de su descripción. ¿Acaso creen que faltan cientos de años para poder preguntarle a una inteligencia artificial cosas más sofisticadas, y que nos respondan con mejor calidad?
La inteligencia artificial es el camino para superar nuestro régimen laboral sometedor, nuestras limitaciones espacio-temporales intelectuales, nuestros límites para construir sociedades diferentes contemplando toda la extrema complejidad a la que nos enfrentamos. Es, perfectamente, el camino hacia un mundo diferente y mejor. Si algún día logramos bajarle la velocidad al tren de la historia, o siquiera controlar su dirección, muy probablemente vaya a depender de apropiarnos de esto.
Lamentablemente, los modelos grandes de machine learning requieren de centralización masiva de datos, y al respecto de eso estamos en el peor de los mundos: neoliberalismo hegemónico en decadencia. Si la inteligencia artificial va a ser o no utilizada para revitalizar y sostener al neoliberalismo, es algo que nos excede: aunque ciertamente nos parece un peligro muy verosimil, y tristemente inminente. Y por eso les pedimos que se involucren, que aprendan, que se apropien de la inteligencia artificial, creando y usando las suyas propias que funcionen bajo su control, en lugar de y dándole la espalda a las que propongan empresas como OpenAI. La gente de mi generación, quienes en este momento estamos en la adultez, muy probablente seamos una generación visagra, y es absolutamente crítico intentar intervenir en lo que vaya a ser la herencia de las siguientes generaciones: si la inteligencia artificial llega a ser siquiera una partecita minúscula de lo que creemos que puede ser, el mundo se va a transformar muy rápido una vez más, el tren de la historia va a pegar otra curva muy inclinada, y muchísima gente va a salir volando.
Dediquen su tiempo a otra cosa que no sean las propuestas de las redes y medios neoliberales. Aprendan a entretenerse aprendiendo, reflexionando, ejercitando su capacidad crítica. Armen otros vínculos que no sean los que proponen esas interfases entre sistemas y entre personas, piensen sus propias interfases y sus propios sistemas.
Y presten atención a los detalles. ¿Cómo es eso de que las GPUs sirven para inteligencia artificial general? ¿No eran acaso para acelerar tareas sobre matrices? ¿Quiere eso decir que la inteligencia artificial son modelizaciones de problemas y datos en matrices? ¿O sea que si encuentro la manera de hacer eso vinculado a los datos que me interese trabajar, puedo usar la GPU de mi computadora para hacer mis propios modelos de machine learning?
¿Por qué las GPUs no son un tema del que se hable en las tapas de los diarios entonces? De hecho, en toda mi vida, no estoy seguro de si escuché una sola vez en los medios alguna discusión sobre cómo se fabrican semiconductores. ¿Ustedes discuten eso con sus amigues? ¿Es un tema frecuente de discusión? Porque desde hace como 50 años casi toda infraestructura de todas las áreas de la praxis humana depende de la fabricación de semiconductores. ¿Saben cuántas fábricas importantes hay de semiconductores? ¿Saben cuántas empresas? Se supone que los semiconductores se hacen con silicio, que a su vez se supone que es básicamente arena. Y todos los paises tienen arena. ¿Cómo es entonces que no tenemos fábricas de semiconductores en todos los paises? ¿Cómo es que no tenemos todes revoluciones tecnológicas como las que se vivieron en Estados Unidos, Japón, o China? ¿En la cabeza de quién entra que ese no sea un tema de actualidad en un mundo donde constantemente nos bombardean con la idea de “economía del conocimiento”? Es casi como si todos los paises del mundo hubieran tirado la toalla en esa discusión. ¿Nosotres tiramos la toalla en esa discusión, o ni siquiera la empezamos?
Fíjense como preguntas muy sencillas dan rápidamente entrada a la dimensión política de la informática. Fíjense cómo no es necesario un gran trabajo intelectual para encontrar grietas en la propaganda. Ese es el camino para encontrar las alternativas que muches dicen que no existen.
Pero con todo esto anotado, finalmente cerramos esta corta tesis aunque larguísimo video para los estándares de consumo actuales, con el siguiente consejo. No importa si sos neoliberal o revolucionarie marxista, no importa si sos de derecha o izquierda, si sos obrere o empresarie, si tenés mucho o poco dinero, el color de tu piel y su relación con tu sociedad, si vivís en un país del primer o del tercer mundo, si tu cuerpo se adapta a los estándares hegemónicos de belleza de tu tiempo, cómo te lleves con otras especies, qué pienses del medio ambiente o hagas al respecto, qué relación tengas con la política, con el arte, con la cultura, con la ciencia, no importa quién seas ni quién quieras ser, no importa si pensás que la inteligencia artificial es una moda pasajera o el fín de una época, no importa tampoco si creés que esto termina bien o termina mal, no importa si tenés o no esperanza en el futuro de la humanidad o si lo ves con pesimismo. Cualquiera sea tu caso, el consejo es el mismo: nunca subestimes a la historia.
La película fue muy recomendada por los y las comunicadores con quienes me informo habitualmente, y está lleno de reseñas mayormente positivas por todos lados. Parece haber un consenso en que la película es mayormente correcta en sus aspectos técnicos, y que está del lado correcto de la historia en sus aspectos ideológicos. Pero con tanta presencia que tuvo, francamente esperaba mucho más de esta película, y de hecho me despierta algunas dudas, cuando no directamente preocupaciones.
En primer lugar, ¿para quién o para qué está pensada esta película? ¿Qué es? ¿Una clase rápida de historia? ¿Una reivindicación de la figura de Strassera y/o del juicio? ¿Un intento por instalar el tema, por difundirlo? ¿Algún acto de humanismo en línea ideológica con la UCR?
Como difusión internacional, me parece que tiene gusto a demasiado poco. ¿Alguien que no sea argentine va a entender las infinitas referencias de la película, los contextos en los que aparecen, los chistes siquiera? Si ese alguien no está empapado de todos los infinitos detalles que se omiten en la historia, o que cuanto mucho aparecen como fugaz referencia, ¿qué le queda de esto? ¿”la historia de un juicio”? Al final de la película, pasadas ya dos horas, aparece una placa que dice “primera vez en la historia universal que un tribunal civil juzga a una dictadura militar”: ¿era tan difícil ponerlo al principio, o en el trailer siquiera?
El trailer es muchísimo mejor que la película. Al menos en lo que respecta al impacto, que es un punto clave a la hora de realizar un trabajo de difusión mediática y cultural. Dice “nadie más se animó desde Núremberg”, poniendo el eje del conflicto en el lugar correcto; pero francamente “el juicio más importante de la historia argentina” no veo que le importe mucho a nadie fuera de Argentina: al menos, no imagino a mis compatriotas argentines intrigades por “el juicio más importante de la historia de Haití”, ni el de Laos, ni el de Pakistán o Islandia, y entonces proyecto que en el resto del mundo la gente se comportará más o menos parecido con respecto al de Argentina. De modo que, salvo por el hecho de que es una película de género con todas sus reglas cumplidas al pié de la letra (fácil entonces de adecuarse a ella como espectador), no imagino que esto esté pensado para grandes mayorías, sino para algunos pocos segmentos muy puntuales del plano internacional: “la gente que mira películas de juicios”, “thriller histórico extranjero”, y no mucho más que eso.
Y esto otro queda implícito, pero corresponde anotarlo: a alguien que sea argentine, ¿le suma algo esta película?
Me parece que la película misma encara esa cuestión, en el diálogo que Moreno Ocampo tiene por teléfono con su mamá, y la cuestión que le planteaba Strassera: “nunca vamos a poder cambiar a la gente como tu mamá”. ¿Está, acaso, esta película, pretendiendo cambiarle a alguien la mentalidad a través del relato de las víctimas, emulando lo que cuenta que sucedió en 1985 pero esta vez con quienes tienen a Patricia Bullrich como referente en 2022? ¿Es esta película que menciona al peronismo casi exclusivamente en una escena chistosa, una especie de intento de “entrismo progre” vía sesgo radical? ¿Es una película fácil de mirar sobre una Argentina donde el peronismo no tiene mucho qué ver con nada pero igual la dictadura estuvo mal y enjuiciarlos estuvo bien? Eso ciertamente no va a seducir particularmente al pueblo peronista pero, ¿al otro sí? ¿Sigue estando bajo el ala de la UCR el antiperonismo en 2022? ¿Sigue siendo la UCR la encarnación de un humanismo republicano y legalista con representación de un pueblo clasemediero? ¿Sigue estando ahí aquel 40% que vota a Macri como presidente y Pichetto como vicepresidente? A mí me parece que no. Y me parece también que el y la peronista promedio está más bien informade de la cuestión de la dictadura, y entonces esta película no creo que le diga mucho. ¿A qué argentine le habla entonces la película? Sinceramente no me queda claro.
¿Suma todo eso? Supongo que suma. Pero… ¿era para tanto reconocimiento? Pasan las semanas, y se sigue recomendando esta película como si fuera la gran cosa.
Pero volviendo al trailer, el mismo además cierra con la imagen de Strassera diciendo que la historia no la hacen tipos como él: funcionarios grises clasemedieros que se las rebuscan para ser gente decente sin meterse mucho en problemas que le queden grandes. La película ciertamente le presta atención a eso, mucho. De hecho, la película casi que es más sobre Strassera que sobre todo lo demás.
No tengo nada contra Strassera, y me importa muy poco si durante los setentas se acobardó o no: había que estar en los zapatos de esa gente, y en los ochentas fué valiente, por mí tema cerrado; los villanos de esa historia no fueron los civiles supuestamente cobardes, que rara vez debieron haber sido otra cosa más que víctimas, y esto la película (y aquí merece un gran reconocimiento) lo dice con todas las letras.
Está todo bien entonces con reivindicar a la figura de Strassera, y lo celebro. Y está todo bien también con lo que parece ser la línea de razonamiento de esta película, al menos desde el lente del trailer: “sí, vos tenés algo qué ver, vos también sos La Historia”. Un poco es “hacer historia le toca a quien le toca”, otro poco es “hacemos nuestros trabajo con responsabilidad y coraje y pasan cosas buenas”, otro poco es “mirá cómo somos siempre parte de algo más grande”, y otros argumentos como esos, todos felices y reivindicables. Hay una cuestión ahí con el heroismo, que yo personalmente llamo “la condición heróica“, y es algo a lo que algún día me gustaría dedicarle algunas páginas. Pero… ¿articularlo de esta manera con este tema?. No quiero faltarle el respeto a Strassera, pero en esta cuestión me parece una figura muy chiquitita, y la película no deja de hablar con Strassera en el centro. Me resultó muy disonante ver eso.
No me parece mal el foco en Strassera, de hecho: me parece que el tema es muy grande como para solamente dos horas de relato metódico de género, un pequeño puñado de testimonios de gente secuestrada (por contundente que sean), y algunas situaciones familieras pretendidamente divertidas y livianas. Strassera es importante, pero no más importante que las Madres y Abuelas, que Alfonsín, que la historia del peronismo, que la historia del planeta en ese momento… ¿en serio ni una mención al Plan Cóndor? ¿Ni siquiera en las placas ya terminada la película? ¿No va a decir nada sobre el plan económico de la dictadura, que tanta vigencia tiene hoy en día? En un momento dicen “la ESMA es brava”… ¿pero no muestran por qué? ¿se supone que sea más brava que el testimonio de Adriana Calvo, pero no tienen nada para decir al respecto?
Y, como decía antes, la ejecución parece ser unánimemente reconocida como “correcta”: tampoco creo sea un problema de los recursos artísticos ni técnicos particulares. Insisto: mi problema es la escala, el tamaño de la cuestión, que me parece fue insoportablemente reducido en esta película, al punto tal de llegar apenas a lo anecdótico, de quedar en lo trivial.
No es lo mismo darle o no a la cuestión la escala que le corresponde, y eso es absolutamente central si el objetivo es instalar el tema en agenda: un juicio de hace 40 años no va a ser más importante que la inflación, la guerra, y cualquier otra situación importante actual, a no ser que realmente venga al caso de explicar o representar algo; caso contrario es pasatiempo, tan banal como cualquier otro consumo mediático: así, el elegir entre Gran Hermano y Argentina 1985 pasa a ser una “cuestión de gustos”. Y, peor todavía: así, quienes le prestamos atención a la cuestión de la dictadura, quedamos como gente desconectada de la actualidad, viviendo en un pasado más bien remoto desde el que tratamos de dar sermones para obtener alguna forma de atención, mientras los problemas del mundo y de la vida actual pasan por otro lado; así pasamos a ser nosotres quienes no saben interpelar a quienes padecen el ahora.
Y me resulta sorprendente que esto se haya dado de esta forma, muy especialmente en el plano técnico. Porque la gente que hizo esta película a todas luces es muy capaz en lo técnico: su manejo de los recursos de género es más bien impecable. La pregunta es: ¿por qué eligieron ese género en particular?. Es casi como si hubieran querido hacer una película sobre 1985 con los recursos técnicos cinematográficos que eran estandar en 1985. Y estamos en 2022: tenemos muchos otros recursos en este momento histórico.
Creo que uno de los aspectos más elocuentes de todo esto es el cómo se planteó a, digamos, los villanos de la historia. Yo, que vivo en Argentina y tengo algún contacto mínimo con su historia, me cruzo con un oficial militar por la calle y me siento inevitablemente incómodo. El oficial militar, el “milico”, no es una figura trivial acá. Y no lo es, porque esa figura tiene la historia que tiene. Pero viendo a los milicos de la película, veía más bien unos tipos que eran simplemente los acusados en un juicio y nada más: no tenían mayor trascendencia que lucir de manera más o menos pintoresca. Videla era mucho más “raro” y hasta “pobre tipo” que intimidante en ninguna forma. Era como sacar a Hitler de su historia, y ponerlo como “un enano con un bigote medio raro y que pone caras ridículas”, ¿se entiende?
¿Qué persona que no sea de Argentina va a vivir con ese planteo una representación de lo que significan para nosotres los milicos? Hasta me pregunto si no hará daño a la imagen que dá frente a las nuevas generaciones, que saben que hubo un cuco hace poco en su historia pero que tienen tantos problemas en el mundo de mierda que les tocó vivir que probablemente no podría importarles menos.
Esos tipos sentados en los banquillos de acusados tenían que ser personajes malignos de magnitud histórica, no algunos meros señores en una mera película sobre un juicio en un país ignoto: son conceptos, entidades, nociones desde las que tomamos puntos de referencia y comparamos contra otras cosas y hasta terminamos haciendo memes. Los milicos son, en la historia Argentina, el triste límite conocido del sadismo y la crueldad; son casi la barrera que separa lo humano de lo inhumano. Esos milicos fueron y son supervillanos. Me parece que a los milicos, en el año 2022, hay que relatarlos como se relata a un Thanos, un Saurón, o alguno de esos: con la épica y el tiempo de relato que corresponde. Y esos milicos fueron resistidos y combatidos por gente cuya única diferencia con los superhéroes está en los superpoderes, porque todo lo demás que hicieron es digno de los mismos títulos; quién sabe si las aptitudes espirituales de algunas de esas personas no serán incluso verdaderos y legítimos superpoderes: porque, nuevamente, acá estamos hablando de los límites de lo humano.
Y, sin embargo, casi pareciera que la película no sólo no muestra superhéroes ni supervillanos, sino que sólo muestra algo así como supervíctimas: desde Strassera y su familia, hacia su equipo cercano y sus familias, y les demás funcionaries judiciales, y las víctimas concretas de los secuestros y torturas… todes víctimas de algo excepcionalmente victimario. Algunes por ser víctimas canónicas, pero todes les demás por verse atrapades en un sistema de relaciones de poder nefasto, cruel, y muy difícil de soportar. Como decía antes, la parte de las víctimas sí está muy bien planteada en la película, y esto es sumamente reivindicable. Decir algo como “todes somos víctimas” también es un punto de comunión entre partes, muy necesario tanto en aquel momento como en la actualidad: “víctimas versus victimarios” es un foco muy diferente al de “buenos contra malos” (especialmente en la parte de la culpa, con la que Strassera parece cargar), y ciertamente al de “peronistas contra antiperonistas” o “comunistas contra anticomunistas”. Eso me parece un acierto. Pero, junto con detalles técnicos como la ambientación o las actuaciones (increible la voz actuada de Alfonsín), me parece que para cualquier objetivo de la película se queda corto, y especialmente frente a la amplitud y complejidad del tema.
Precisamente, es un mundo enorme, complejo, e intenso, el que requiere un relato para una historia como la que atraviesa esa película, y no un héroe eventual suelto en un evento particular. Del mismo modo que a los villanos, a los héroes hay que plantearlos en sus inter-relaciones: nunca están solos ni aislados, siempre fueron muchos eventos los que llevaron a ese heroismo, y siempre hubo más héroes tapados y no tan tapados; la historia de la resistencia es la historia de muchísima gente haciendo muchísimas cosas, algunas de esas personas y acciones realmente importantísimas, y todo eso no puede nunca ser reducido (ni siquiera enfocado) solamente en Strassera, su equipo, y el juicio. Así es donde me parece que “Strassera es chiquitito”, y que la cuestión se anecdotiza si se enfoca de manera inadecuada. Algunas personas vamos a saber sacarle jugo a lo que muestra la película, pero… ¿y las demás personas? ¿No estaba hecha para ellas (también) la película? ¿Qué hacen esas personas con esta película que ofrece un material tan acotado?
Me parece que todas esas ausencias o hasta defectos son mucho más restricciones del medio que limitaciones ideológicas o profesionales de la gente que hizo la película. Y por lo tanto creo que mi problema con esta película es que no debió ser una película en absoluto: esta historia es para una serie, de muchas temporadas y con algunas películas también intercaladas, financiada por el Estado. Esta historia tiene finales de temporada desgarradores, tiene personajes que van apareciendo con el paso de los años y madurando y cambiando su trascendencia, tiene revelaciones con detalles intrincados que sólo se entienden dándoles tiempo y poniéndolos en contexto… y es una historia que marca generaciones, que durante décadas pide spinoffs y en 30 años pide remakes, y que así arma una cultura popular alrededor de la resistencia y el heroismo en nuestra historia real y reciente. Una película nunca le va a hacer justicia a todo eso, y va a estar siempre en falta con la magnitud de lo que implica. Un relato que le haga justicia a lo que pasó en los setentas, se parece mucho más a cómo se relata en Marvel que a cualquier otro producto de la historia del cine.
Eso, lógicamente, si hablamos de establecer agenda, y de tener un diálogo con una generación actual adecuada a recursos cinematográficos y narratológicos actuales. Si pretendemos hacer política desde el cine, tenemos que re-ver ese proyecto siempre fantasmagórico de “nuestro propio Disney“.
Y sé muy bien que este planteo mío no va a generar ningún efecto felíz en el creyente promedio del cine elevado y culto (en contraste con un cine más bien idiota), ni en sus equivalentes vinculados a literaturas, historias, o hasta por qué no ciencia política. Y eso va a ser especialmente disonante para elles, teniendo en cuenta que reniego de una posible banalización del tema. Pero yo pretendo ver a lo popular como lo que es (además, en paralelo, de lo que me parezca que debería ser), y a lo cinematográfico como técnica humana de acción social (sin importarme mucho francamente los detalles de sus reglas de géneros o métodos). Los pueblos van a considerar importante aquello que consideren importante en cada momento dado, y no a algo así como “lo objetivamente importante”: y hay razones pensables de por qué los pueblos de la actualidad le prestan más atención a unas cosas que a otras, donde hay debates legítimos por los modos y sus infinitos detalles, y ahí entran cuestiones como las que se discuten en este artículo. Pero lo concreto es que mientras tenemos cineastas como Leonardo Fabio, con todas sus virtudes, en el resto del mundo se sigue identificando al peronismo como a un pseudo-nazismo, mientras Disney no para de crecer desde hace 100 años y es una de las organizaciones más profesionales de la historia de la humanidad, sin tener por ello un target precisamente excluyente ni acotado a algún país en especial. Así que yo creo que la discusión por los modos del establecer agenda, especialmente desde lo mediático, tiene que considerar algunas cosas de lo popular en términos más empíricos que ideales.
Por otro lado, si lo que buscamos es otra cosa más vinculada a la información concreta, es muy probable que otras herramientas también nos permitan lograrlo. Por ejemplo, si hablamos de géneros, siempre vamos a tener al documental, y allí podemos dedicar más tiempo a datos que a recursos cinematográficos: ya no vamos a necesitar representaciones de cómo la pasaba Strassera con su familia ni recreaciones verosímiles del momento histórico, y probablemente tengamos entonces un poco más de presupuesto y de espacio en esas dos horas para saber por qué la ESMA era tan brava (especilamente, después de, y en contraste con, los testimonios previamente plasmados, que ya eran bravos). Lógicamente, una aventura como esa cambia el target, y especulo que lo vuelve todavía menos popular. Pero también le quita una buena cuota de banalidad a la película.
Con todo esto, irónicamente para su sesgo radical, opino que la película comparte una extraña cualidad con el peronismo: con todos sus defectos, está del lado correcto de la historia y hasta tiene momentos absolutamente reivindicables, razón por la cuál hay que defenderla y hasta por qué no militarla; pero con la conciencia de que no se hace por sus hipotéticas grandes y excepcionales virtudes, sino porque lo que está en frente es un absoluto espanto y entonces la vara queda bastante baja a la hora de encarar un proyecto que se pretenda popular.