Skip to content

La interminable querella entre los duros y los blandos, los antiguos y los modernos, los datos y la interpretación

Screen Shot 2013-04-06 at 4.47.04 PM

La Tradición Clásica

Hace chiquicientos años compré dos voluminosos tomos del FCE laboriosamente burilados por Gilbert Highet titulados la Tradición Clásica (traducción del original de 1949 de The Classical Tradition: Greek and Roman Influences on Western Literature). Alli en mas de 800 págines Highet se hacía preguntas que tienen hoy tanta vigencia (sino mas) que hace medio siglo atrás.

¿Qué debe nuestro mundo contemporáneo al mundo de Grecia y Roma? ¿Qué lazo nos une con Homero y Virgilio, con Píndaro y Horacio, con Cicerón y Plutarco? Para Highet los hombres del Renacimiento no necesitaban preguntárselo: la atmósfera en que ellos vivían estaba saturada del hálito de la Antigüedad, pues el Renacimiento, en la literatura, no fue en gran parte sino una resurrección del admirable pasado de Grecia y Roma. Highet, Batesonianamente buscaba (inventar) pautas que conectan.

Pero el hombre moderno, envanecido por sus adelantos técnicos, necesita plantearse esas preguntas. Es lo que hace ese libro de Gilbert Highet. Nuestra deuda para con el mundo clásico, el lazo que con él nos une, los bienes espirituales que de él hemos recibido: tales son sus temas. Tradición y creación individual son las dos grandes fuerzas que mueven la literatura. Y la tradición clásica ha sido y es, una de las más poderosas. Amplifivada hasta el paroximo por la daga de la muerte del libro que hoy vive su enésima reencarnación.

Gilbert Highet traza la historia de esta deuda de las literaturas modernas para con las literaturas clásicas, desde la remota Edad Oscura (bastante menos de lo que creemos) hasta los tiempos presentes, pasando por la Edad Media, el Renacimiento, la era barroca, la era revolucionaria o romántica y el siglo XIX.

¿El pasado inspiración o condena?

En rigor gran parte de la obra de Highet es una reelaboracion de la querella entre los antiguos y los modernos. Y revela una tensión ancestral e insuperable entre el pasado entendido como inspiración que nos ayuda a superarlo o reinventarlo, o el pasado como condena al revelarnos para nuestra consternación que todo tiempo vivido fue mejor que el nuestro y que solo nos queda revivir, devaluada, la experiencia que originalmente experimentaron en plenitud nuestros antecesores, siglos o milenios antes.

Se trata pues de un tópico de la cultura occidental, consistente en la comparación entre los autores considerados clásicos y los que en cada momento se tienen por actuales. Este debate, en sentido estricto, es tan viejo como el Renacimiento. Sin embargo, con ese rótulo, Querella, no se explicitará hasta avanzado el siglo XVII, durante la intervención de Charles Perrault en la Academia Francesa (con el poema El siglo de Luis el Grande 1687). El debate se agudizó con la publicación a partir de 1688, por parte del mismo Perrault, de los cuatro tomos de su notable Parallèle des anciens et des modernes, obra que habla de literatura y artes, pero que también invita a comparar las ciencias modernas con las pasadas.

Mientras que los “antiguos”, además de los ya citados, sumaban a Jean Racine, Jean de La Fontaine y Jean de La Bruyère; con los “modernos” se alinearon sobre todo Bernard Le Bovier de Fontenelle, secretario de la Academia de Ciencias de París, y Jean Desmarets de Saint-Sorlin. El salto a Inglaterra del debate, amplió el número de contrincantes e incorporó las ideas científicas sumando a Jonathan Swift, al bando de los antiguos.

La Querella es parte importante de la crisis de la conciencia europea a la que Paul Hazard le dedicó la obra La Crise de la conscience européenne (1680-1715), (1935). y como tal periódicamente revive, al punto de que hoy la vemos renaparecer en las infinitas disputas generadas alrededor de ejes claves en el desarrollo de Internet, de la Tercera Cultura y mas particularmente en el caso de la Analítica Cultural, la Big Data y el Machine Reading.

Empecemos por el principio

La infinita discusión que desde fines del siglo XIX hasta los primeros 40 años del XX arrinconó a las mejores mentes de la epistemología, a saber la necesidad de defender a rajatabla la unidad de la ciencia o en su defecto la excepcionalidad de las ciencia humanas frente a las de la naturaleza bajo el narcótico de la Posición Verstehen es harto conocida.

Asociado a las escaramuzas conceptuales de Weber, Dilthey e incluso del primer Heidegger mas de medio siglo se consumió en una dialéctica infernal que tuvo en autores como Nagel y Hempel, pasando por Popper y Lakatos distintas modalizaciones buscando definir los grados de elasticidad del método científico, cuando de salirse del encofrado de lo duro y formal se trataba, y de entrar en el mundo minado de la subjetividad, la voluntad, las pasiones y los intereses (desvelados) sin perder rigor pero sobretodo valor explicativo.

Habiendo ingresado a la Universidad de Buenos Aires a fines de los años 60, esas discusiones adoptaron distintos ropajes y salvo algún escolasticismo heredado no pasarían ya por la antinomia nomotetico vs ideográfico, sino por otras variantes mas aggiornadas y supuestamente mas actuales como fenomenología vs estructuralismo, falsacionismo vs psicoanálisis, constructivismo social vs individualismo metodológico y muchas otras variantes por el estilo.

Pero ya pasó mucho agua debajo del puente de estas querellas y controversias y hoy ya estamos muy metidos en el siglo XXI y si bien todo aquellos es relevante, lo es mucho mas aun mirado a la luz de nuevas discusiones y polémicas que curiosamente (para quienes tenemos memoria y nos gustan tanto la historia memética como las estrategias de aproximación indirectas) suenan tan parecido a lo visto entonces, que sorprende que muchos no encuentren la pauta que las conecta con las controvesias de hoy.

Cahiers pour l’analyse

Justamente de fines de los años 60 data una controversia que olía a querella entre antiguos y modernos y sacudía la aparición de cada una de las obras de Michel Foucault, quien al romper con los registros de las disciplinas concebidas, irritaba a propios y a extraños. Uno de los primeros ámbitos en donde abrevaría esa incomprensión mutua entre especialistas y generalistas, entre ortodoxos y rompeparadigmas, entre duros y blandos fue justamente la revista Cahiers pour l’analyse .

Se trató de una revista heterodoxa y tan atípica que probablemente nunca haya habido una igual después. Fue publicada por la Ecole Normale Supérieure de la Rue d´Ulm en Paris y entre sus practicantes/escribidores descollaron Trend setters meméticos como Louis Althusser, Jacques Derrida, Jacques Lacan, Gaston Bachelard; Michel Foucault, Claude Lévi-Strauss, Georges Dumézil. Asimismo tapizaron sus páginas personajes que devendrian estrellas como Alain Badiou, François Dagognet, André Green, Luce Irigaray y clásicos como George Boole, Georges Canguilhem, Georg Cantor, René Descartes y David Hume y tantos otros

Entre 1966 y 1969 aparecieron los únicos 10 números de la revista. Con la impronta en particular de los maestros pensadores Canguilhem, Lacan & Althusser , los Cahiers pretendieron ser filosóficos pero acunados en conceptos y rigor científico. A contrapie de la hermenéutica y la experiencia vivida, los Cahiers anudaron una compleja relación entre estructuralismo y psicoanálisis aderezado con una formalización matemática y lógica a veces de una dificultad (pero sobretodo de una sorpresa) inesperadas. Sus huellas siguen planeando sobre nosotros, y afortunadamente la web los ha revivido a casi 50 años de su circulación fundacional

En uno de sus números mas espectaculares el noveno, el Círculo de epistemología ametrallaba a intelectuales de una talla sin igual y entre ellos a Michel Foucault quien contestaría con una altura rayana en el vértigo con párrafos que in nuce consistirian la base de su obra metodológica por excelencia La arqueologia del saber.

Años mas tarde cuando Foucault se entreveraria ya fuese con La verdad y las formas jurídicas, pero mucho mas profundamente con la Historia de la Sexualidad se abriría una monumental controversia -que prolongaría esa disputa ya visible en los Cahiers- entre los historiadores profesionales y muchos que consideraban que Foucault mas alla de su talento descomunal, y de su atrevimientos epistemológico sin par, era mas un outsider en estas lides (ver ¿Olvidar a Foucault? Surveiller et Punir y la historiografia 20 años despues (nada casualmente en ese momento en Francia dos profesionales de la historia como Pierre Nora y Jacques LeGof revolucionarían la historia de la vida cotidiana con sus tres tomos en Faire L’Histoire).

Foucault vs los historiadores

En estas controversias epistemicas anticiparíamos lo que tres décadas mas tarde ocurriria con la invasión de la sacrosanta profesión de la crítica literaria por parte de la Big Data y las Digital Humanities,, que llevaria a que una década mas tarde, es decir hoy mismo estuviéramos viviendo el mismo tipo de querella entre antiguos y modernos, entre duros y blandos, entre cualitativos y cuantitativos como el que viviera Foucault vs los historiadores o El Circulo de Viena contra la hermeneutica, o como Racine vs Fontenelle muchos siglos antes.

Pero aunque se trata de controversias parecidas lo rico no es la repetición sino la diferencia (pace Deleuze), y por eso cuando nos enfrentamos a lo que nos pueden decir las plataformas y las herramientas (máquinas textuales de hoy) frente al sacrosanto sentido o el Canón destilado de la cultura occidental, si bien conviene recurrir a esos antecedentes también resulta halagador diseñar el marco y los nuevos escenario en el que esas disputas ancestrales hacen pie en pleno siglo XXI.

Y dado que NgRam es una herramienta de recorte y exegetica textual seguramente quienes primero alzarán la protesta y el cuestionamiento frente a su poder explicativo (cierto) serán los lingüistas, asi como los historiadores se enfrentaron a Foucault en su momento. Veamos la forma en que esta polemica va agigantándose cada dia frente a nosotros.

NgRam vs los linguistas. Las bases de datos de las intenciones (escritas) de la humanidad

El lanzamiento de Ngrams, hace mas de dos años atrás y su actualización a fines del año 2012, cambiaron algunas reglas de juego cuando de entender la inscripción material de la cultura se trata. Para ello las 500.000 millones de palabras que inventariaban originalmente mas de 5 millones de libros en varios idiomas, se pusieron a disposición on-line para el trabajo meticulosos y despiadado de lingüistas e historiadores . Ello permitió que hordas de personas pudiéramos convertirnos en lingüistas silvestresy jugáramos con el apareamiento de hasta casi 5 palabras en este largo periodo de la historia que coincide con la construcción de la conciencia y la mentalidad asociadas a Occidente.

Con solo comparar la frecuencia de uso de las palabras hombre/mujer que figuraron en forma harto asimétrica a favor del masculino durante siglos para recién invertir su presencia en 1970, confirmamos algo que quienes vivimos las luchas culturales de los 70 teníamos en claro pero sin capacidad de medición, el feminismo es también (sino sobretodo) una cuestión terminológica. La propuesta cultural de Google es que un chico de primaria puede detectar tendencias culturales, algo que sin ese corpus era territorio prohibido para historiadores, linguistas y eventualmente periodistas especializados.

La oferta quedo plasmada en el paper fundacional de Erez Lieberman Aiden, junior fellow en la Society of Fellows de Harvard y Jean-Baptiste Michel, un postdoctorando en Harvard con una decena de autires mas, y desde entonces la culturonomics quedó convertida en una disciplina hecha y derecha de un dia a otro. No solo podemos hacer nuestras propias compactaciones sino también usar las bases de datos construidas por Google para armar nuestras propias herramienta de búsqueda.

Cuando los físicos hacen lingüística

Como ya planteara Steven Pinker coautor del paper publicado en Science es maravilloso para la linguistica contar con bases de datos de esta profundidad y alcance aplicables por ejemplo a la variación en la conjugación de verbos, un trabajo que anteriormente se hacia en forma manual, acotada y con casos demasiado parciales como para auscultar tendencias.

Como era de esperar la reacción de los humanista no-digitales no fue muy auspiciosa, cuestionando la ausencia de tocayos en la redacción del paper, poniendo entre paréntesis el poder explicativo de una base de datos que necesita evidentemente de las interpretaciones para generar el sentido.

Yendo al fonde de la cuestión ¿pueden (o deben) los físicos hacer lingüística?, una pregunta que nos suena sospechosamente parecida a la que los historiadores profesionales le hacían a Foucault a principios de los años 70, y los hermeneutas a los lógicos en la década del 40. Mas concretamente ¿podemos hablar de un enfriamiento del vocabulario? No se trata tan solo de metáforas engañosas y finalmente mas taquilleras que esclarecedoras. Es lo que examine Ben Zimmer en su nota Is English ‘cooling’? A scientific paper gets the cold shoulder.

¿Qué significa sostener que el lenguaje se parece a un gas en el cual las palabras rebotan como lo hacen las partículas? ¿Se está enfriando el lenguaje al expandirse?, ¿Está cambiando mas lentamente el lenguaje a medida que crece? Aunque las hipótesis merecería un estudio mas profundo quienes han examinado este tipo de papers así como los usos que los legos en el campo (es decir los científicos que no tienen credenciales en las ciencia del lenguaje) hacen de Ngram, se sorprenden del conocimiento mas bien limitado que los creadores de Ngram tienen de la propia materia a la que supuestamente vendrían a reinventar, cual es nuestro conocimiento del lenguaje.

La coevolucion del lenguaje y la tecnología. Lucha de facciones, voluntad de dominio del capital intelectual

Puesto en términos mas critico el cuestionamiento apunta ya no a los físicos que hacen linguistica sino al propio ADN de las humanidades digitales: ¿pueden meros buriladores de números sin conocimiento de la sustancia de una disciplina hacerse preguntas pertinentes acerca del significado de un territorio cognitivo que les es ajeno?

¿Es cierto que una herramienta como Ngram brinda oportunidades para el estudio de las propiedades nanoescalables del lenguaje permitiendo examinar la evolución de las partículas elementales que conforman la estopa de la que está hecho el lenguaje?

Petersen, un italiano con un PhD en fisica de Boston University hace mucho que estaba interesado en usar métodos físicos en sistemas complejos (desde cotizaciones en bolsa hasta juegos como el baseball). Pero hay una larga distancia que va desde estas estadísticas mas bien acotadas y privadas de toda subjetividad, a los juegos del lenguaje, de alli las dudas de lingüistas e historiadores por igual.

Lo que estos profesionales justamente le critican al enfoque Big Data es su desinterés y falta de foco en los temas del detalle como provocativamente hace Danah Boyd & Kate Crawford en Six Provocations for Big Data.

En el caso de Ngram el primero y mas evidente es que el lenguaje no son la palabras escritas y escaneadas y mucho menos atomizadas en combinaciones de a 2 hasta 5 “gramas”. Aparte de que lo que el Google dataset llama palabras son desde errores de escaneo hasta todo tipo de rarezas tipográficas, lingüistas que trabajan en macroproyectos como The Linguistic Atlas Project sostienen que añadir un millón de palabras a bases que ya cuentan con uno o dos millones previos no generaran resultados mas significativos.

La tensión y querella entre especialistas y legos, entre investigadores cuantitativos y cualitativos aflora nuevamente en estos ejercicios y en estas propuestas que buscan digitalizar las humanidades para encontrar alternativamente reverencia (de parte de los idólatras de los números) y desprecio (de parte de quienes creen que el sentido es una pepita de oro que solo exploradores hiperpreparados disciplinariamente están en condiciones de desentrañar).

Habra que seguir ngrameando (y mas alla) buscando los alcances y limites de estas propuestas.

Published inAnaliticaculturalAnti-FilosofiaCiencia y TecnologíaConvergencia CulturalDiseñoGestión InnovaciónInteligencia ColectivaIrreduccionismoLenguajesMemeticaMetodología

11 Comments

  1. […] La Tradición Clásica. Hace chiquicientos años compré dos voluminosos tomos del FCE laboriosamente burilados por Gilbert Highet titulados la Tradición Clásica (traducción del original de 1949 de The Classical Tradition: Greek and Roman Influences on Western Literature). Alli en mas de 800 págines Highet se hacía preguntas que tienen hoy tanta vigencia (sino mas) que hace medio siglo atrás.  […]

  2. […] La interminable querella entre los duros y los blandos, los antiguos y los modernos, los datos y la … – La tensión y querella entre especialistas y legos, entre investigadores cuantitativos y cualitativos aflora nuevamente en estos ejercicios y en estas propuestas que buscan digitalizar las humanidades para encontrar alternativamente reverencia (de parte de los idólatras de los números) y desprecio (de parte de quienes creen que el sentido es una pepita de oro que solo exploradores hiperpreparados disciplinariamente están en condiciones de desentrañar). […]

  3. […] de las grandes masas de datos, moviéndose en un universo de APIs y algoritmos que prometen revolucionar nuestras concepciones epistemológicas más arraigadas. Esta irrupción del Big Data en los Media Studies merece una reflexión más profunda y teórica […]

  4. Alejandro, que oportuna y necesaria tu reflexión respecto al tema de Big Data y describes con acierto la tensión que se percibe de parte y parte. Para los humanistas tradicionales resistirse es una opción respetable aunque no realista dada la evidencia de las transformaciones. Lo deseable sería que contribuyeran a la construcción de modelos interpretativos complejos, que pudieran extraer la potencialidad de herramientas de análisis (como el big data), sin comprometer la calidad de la investigación. Esta ausencia de dirección teórica, es muy frecuente en los actuales proyectos digitales, comprometiendo ahí sí, la calidad de la materia prima (los datos). Personalmente he seguido el tema en mi blog a partir de los trabajos de Kate Crawford y otros, que aplican estos principios críticos a su trabajo periodístico, como es el caso de Jonathas Stray o Jeff Johnson para el tema de los datos. La construcción de una ética para los datos es urgente, y la contribución de los humanistas es fundamental para desarrollarla. Como sabemos hoy las herramientas se multiplican a un ritmo que no podemos igualar desde la teoría, pero al menos no debemos bajar la guardia en intentarlo, de otro modo no estaríamos contribuyendo a disminuir las brechas digitales que nos separan. Un saludo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *