Saltar al contenido

El mito de los hipervinculos y la descorporeizacion del significado

hal9000.jpg

Arritmias cognitivo-praxicas

Decididamente vivimos en mundos disjuntos. No sabemos si ontológica o gnoseologicamente, pero cada vez la distancia entre lo que queremos saber y lo que sabemos es mayor -a pesar de los «supuestos» e ininterrumpidos avances en el conocimiento.

Cada vez mas la distancia entre los logros tecnológicos y las realizaciones éticas se amplifica. Hay un desarrollo desigual e incomparado entre las dos patas del saber y del hacer.


Por suerte algunos pensadores se están tomando en serio esas arritmias cognitivo-praxicas. Es el caso de Nestor Garcia Canclini en su reciente Diferentes, Desiguales, Desconectados (Gedisa, 2004) que en forma diáfana expone la desconexion que hay entre saber y poder, entre detección y política, entre exhuberancia teórica e impotencia en la gestión (sobre el tema y desde una veta totalmente distinta pero no menos interesante contamos asimismo con The fortune at the bottom of the pyramid. Erradicating poverty through profits de C.K.Prahalad. Pearson, 2005).

Ya volveremos sobre las observaciones de Nestor y las de Prahalad pero antes haremos un detour por uno de nuestros caballitos favoritos, que es la red. Como últimamente nos ha dado mucho (¿será que teníamos ese meme bloqueado o inhibiddo?) por la filosofía de Internet, en vez de hacer una critica epistemologica vacua de las tentaciones/peligros que ella supone, lo que se ha demostrado «n» veces, preferimos centrarnos en uno de sus aspectos técnicos, los hipervinculos y decir algo nuevo a su respecto.

Si decimos que la reflexión será esta vez plenamente filosófica es porque la haremos de la mano del excelso Hubert Dreyfus, un filosofo post-heideggeriano que entendió mejor a Foucault que la mayoría de sus exegetas locales y que publicó no hace mucho Acerca de Internet (UOC, 2003).

Lo interesante del planteo de Dreyfus es que es equidistante al mismo tiempo del heideggerianismo estandar (que ha infestado gran parte del pensamiento critico) y que ha generado una actitud tecnofobica en la mayoría de los análisis sociológicos, comunicologicos y politologicos de las tecnologías en general y de Internet en particular, por una parte. Pero al mismo tiempo no cae en una tecnofilia ingenua que lo podría emparentar con los tecnofundamentalistas ingenuos.

De innovaciones e innovaciones

Por ello su punto de partida es atipico y radical. Para Dreyfus Internet es no solo una innovación (algo con lo cual comulgan tanto los tecnofilicos como los tecnofobicos ordinarios), sino un nuevo tipo de innovación que saca a relucir la verdadera esencia de la tecnología.

Las innovaciones ordinarias -esas que son inventariadas tan originalmente por Harold Evans en They Made America: Two Centuries of Innovators from the Steam Engine to the Search Engine( Little Brown, 2004), son siempre dispositivos o aparatos que satisfacen necesidades reconocidas previamente, logrando efectos inesperados.

En este caso a través del perfil de 70 de los inventores, entrepreneurs e innovadores norteamericanos (desde los previsibles Henry Ford, Thomas Edison y los Hermanos Wright ) pasando por Lewis Tappan (un abolicionista que soñaba con la idea de ratings en el crédito ), el Gral. Georges Doriot (pionero del capital de riesgo) queda claro este mecanismos de inventar por necesidad).

Ya sea que las innovaciones respondan a ese patrón (tal como nos enseñaron tan detalladamente Mark Stefik & Barbara Stefik en su fascinante Breakthrough: Stories and Strategies of Radical Innovation), o a la inversa hayan sido especulaciones puramente conceptuales que un dia encontraron su instrumentalización, el resultado fue siempre el mismo.

Por un lado las innovaciones siempre se salen de madre generando resultados pensados o impensados para sus inventores. ¿O acaso Alexander Graham Bell no suponía que el teléfono solo seria útil para la comunicación empresarial pero jamas hubiera dado un centavo por sus usos hogareños y menos aun inalámbricos?

¿Y que decir de Henry Ford quien se jactaba de haber convertido a los primitivos carros con motor en un medio de transporte seguro, económico e individual sin poder ni siquiera avizorar que destruirían los cascos urbanos o favorecerían la liberación sexual mas que ningún otro invento hasta llegar a los contraceptivos?

El caso de Internet es muy otro. Su objetivo inaugural como tantos otros hoy es irrelevante. La comunicación entre científicos (¿no resulta curioso que el origen de la red en 1969 tuvo su emulación en 1989 cuando Tim Berners Lee genero los protocolos de la web? En ambos casos lo que era un interés acotado, para una comunidad profesional, meramente comunicacional evoluciono -por mutaciones y en un proceso de puntuación magistral- en un modo de vida alternativo

Por su carácter ameboide y transversal Internet no satisface ninguna necesidad en especial. Cada nuevo uso que confiere le depara sorpresas sin fin.

Por eso Dreyfus dictamina con filosa precisión que si la esencia de la tecnología es hacer todo accesible y mejorable, entonces Internet es el dispositivo tecnológico perfecto, la culminación de aquella tendencia a flexibilizarlo todo hasta el limite, materializada en la digitalizacion y en la interconexión de toda realidad posible.

Como la Red nos permite prácticamente todo, son muchos los que imaginan que nos promete todo. El delirio tecnofilico que insiste en que si algo puede ser hecho debe ser hecho (que ha disparado fenómenos como la terapia genica, la especulación con las células madres, el patentamiento de genes y otras delicias por el estilo) ha repercutido con fuerza catalizadora en la propia red generando una serie de procesos de autotransformacion que cada vez cuesta mas pensar o dejar de pensarlos.

Hemos escrito hasta al hartazgo sobre estas cuestiones en La Generación Nasdaq y en innumerable editoriales de este news. Pero sin embargo se nos han pasado por alto algunos escorzos y detalles que permiten entender mucho mas que es este intríngulis en el que estamos metidos, y que nuevos enfoque epistemologicos deberíamos introducir si es que queremos salir del marasmo y sobretodo si queremos incidir politicamente en la gestión de este mundo anonadado.

El intringulis de los buscadores inteligentes

Entre las incontables (y posiblemente inalcanzables) promesas que el espacio Internet promete, esta la aparición de buscadores inteligentes que al dar justo con lo que necesitamos, resolverán los problemas de la educación de masas, permitirán que nos conectemos con toda la realidad, y nos brindaran una identidad aun mas flexible que la que ya tenemos y de este modo generaran nuevos sentidos a nuestra vida, para felicidad de muchos.

Escuchar estas promesas en el año 2005, después del escandalo de la caída de las punto.com, en el 2000 suena mas que nada a deja vu. Sin embargo las tendencias cíclicas y ciclonicas son una constante en la memetica, y nada casualmente el reciente endiosamiento de Google como el Amazon de mediados del siglo XXI pone bajo asecho nuestras resistencias, y devalúa nuestra capacidad critica y nuestra inveterada curiosidad. Por eso conviene revisar una dimensión poco investigada cuando de estos temas se trata. Cual es el grado de involucramiento corporal en nuestro uso y acople con la red.

Si bien numerosos trabajos cada tanto cuestionan los usos de la red tildándola de anti- o asocial, y si bien hay muchas opiniones a favor y en contra de la suplencia que el mundo virtual hace del real, hay un aspecto ontológico que no puede ser pasado por alto, mas alla de lo que la casuistica o los sondeos o encuestas tuercen para uno u otro lado.

La definición heideggeriano del Dasein como ser para muerte es un diagnostico acerado que cuesta no compartir. Nuestra finitud no es trascendible.. a menos que la tecnología la difiera… por un rato.

Los conocimientos cada vez mas detallados de lo mecanismos de envejecimiento, la función de los telomeros, etc. (bien investigados por el matrimonio Cereijido en La muerte y sus ventajas. México, FCE, 1997) no cambian un ápice este dato inextricable. Puede ser que la vida promedio se adelante unas cuantas décadas -hasta el punto que en «x» siglos la expectativa de vida alcanza con una funcionalidad que valga la pena lovivirla s 100, los 120 o los 140 años), pero esto no cambia en nada la tesis heideggeriana.

Curiosamente la aparición de la red y otras tecnologías asociadas ha hecho suponer a visionarios… o casi, como John Perry Barlow, Hans Moravec y Raymond Kurzweil -así como a los extropianos (ver la nota bautismal de Ed Regis Meet the extropians) que llevan estas posturas prácticamente hasta la caricatura- al sostener que la verdadera tara humana no es otra cosa que nuestro cuerpo.

Desde el dictum de Yeats de que su alma estaba atada a un animal en proceso de desaparición, pasando por la sentencia platónica de que el cuerpo era la tumba del alma, hay una larguisima tradición ontológica que execra el cuerpo y supone que una vida espiritual compensa todas las inseguridades y limitaciones terrenas.

Pero así como hay muchos filósofos de fuste que defienden este extremo, los hay ocasionalmente que argumentan en sentido contrario con Friedrich Nieztsche a la cabeza quien anticipándose a los extropianos en un siglo les contestaba por anticipado «no sigo vuestros pasos, despreciadores del cuerpo, pues considero no sois puentes tendidos hasta el superhombre» (Así hablo Zaratustra).

Nietzsche pensaba y lo compartimos plenamente aunque muchas veces pareceria que funcionáramos al revés, que lo mas importante para los seres humanos no son las capacidades intelectuales sino las posibilidades emocionales e intuitivas del cuerpo.

Sin ser demasiado sutiles no queda duda de que Nietzsche quería fomentar la idea de que los seres humanos en vez de continuar negando su muerte y finitud concibieran una fuerza afirmativa de sus cuerpos y mortalidad. Por eso cuando casi vivimos en la red, corresponde filosóficamente hacerse la siguiente pregunta. ¿Es el cuerpo un simple residuo en nuestra evolución como animales o por el contrario juega un rol estratégico en nuestra cognición y sensibilidad?

Cuerpos encarnados

No se trata de una pregunta menor porque hace por lo menos 10 años que una serie de investigadores, teóricos y publicistas de todo tipo insisten en que Internet se ha convertido y lo será cada vez mas una irresistible cultura alternativa.

Haciéndose eco de Raffaele Simone que insiste en que el ingreso a la tercera fase implica, como en las ocasiones anteriores, formas de saber lo que estamos perdiendo, Dreyfus actualiza la pregunta y la vuelca entera a las promesas de Internet disparadas por sus mas ardientes defensores.

Si entrar en el ciberespacio puede implicar dejar atrás nuestra corporalidad con sus formas animales, emociones, intuiciones, situaciones y habilidades debemos saber que lo hacemos con riesgos y propuestas, que pueden salir mal.

Porque si bien ese proceso a lo mejor merece ser vivido a pleno como aventura intelectual, ello no debería hacerse nunca al riesgo de perder algunas de nuestras capacidades fundamentales, nuestra habilidad para dotar de sentido a las cosas, distinguir lo relevante de lo irrelevante, dar importancia al éxito o al fracaso como condiciones necesarias para el aprendizaje así como respetando nuestra necesidad de aferrarnos al mundo para diseñar el sentido de realidad de las cosas.

Lo interesante del planteo de Dreyfus fue haber detectado en las insuficiencias de gran parte de las iniciativas que suponen que el mundo cambiara gracias a Internet (buscadores inteligentes, e-learning a mansalva, anulación de la distancia física y eliminación de la identidad personal bajo el florilegio de la multiplicidad de personalidade s anónimas) riesgos epocales sintetizados en la incapacidad de atisbar irrelevancia en la información y en las relaciones con los otros, incapacidad de desarrollo de habilidades que han tenido un valor evolutivo ancestral, incapacidad de percibir la realidad (en especial realidades alternativas) y sobretodo un rasgo distintivo crucial de la humanidad desconocimiento de como dotar de sentido al mundo.

Cuando recientemente cerrábamos nuestro ultimo libro Internet, imprenta del siglo XXI (Gedisa, 2005) marcábamos dos dudas acerca del futuro de la red. Uno remitía a la cantidad exuberante de paginas que la tapizan. El otro hacia referencia a las soluciones formalistas con que el programa de la web semántica pensaba solucionar esas y otras limitaciones.

Cual no habrá sido nuestra sorpresa al descubrir que solo un 30% del total de paginas de la red era accesible a los buscadores. Pero Dreyfus nos lleva mucho mas lejos al insistir que no se trata tanto de cantidad como de calidad y de que la irrelevancia en la búsqueda ha sido investigada hasta el paroxismo dadas las limitaciones e insuficiencias de la inteligencia artificial en los últimos 15 años.

La novedad de su aporte es responsabilizar a los hipervinculos unidireccionales y chatos (un rasgo distintivo de la web) por la falta de autoridad o de sistemas de catálogos concertados que orienten o circunscriban las asociaciones entre los enlaces.

Según Dreyfus la razón de los hipervinculos tiene poco o nada que ver con la comprensión o la asociación de significado, sino mas bien con la capacidad de búsqueda rápida por parte de las maquinas. Lo cierto es que la posibilidad de vincular cualquier cosa con cualquiera otra cosa sin ton ni son, quita relevancia al universo de documentos y vuelve cada mas vez difícil la recuperación de la información.

Ontologías y tipos de clasificación

Pero esta tarea es precisamente uno de las propuestas y de las promesas mas significativas de la red. Tener todo a la distancia de un click y poder encontrar cualquier cosa que se nos ocurra o necesitemos en un santiamén. La metáfora del cerebro mágico de nuestra infancia potenciada al infinito y con un grado de sofisticación y de riqueza inimaginable para cualquiera que no participe de esta aventura de las ideas.

Tradicionalmente la información se organizaba en forma de ontologías. La clasificación de los datos recaía en manos de expertos que organizaban la totalidad del conocimiento existente en jerarquías que semejaban a las taxonomías biológicas con sus divisiones encastradas en géneros y especies.

Si bien saludamos en su momento la liberación del esquema jerárquico y ramificado del saber, al hacerlo tan facilistamente perdimos de vista un hecho crucial de cualquier sistema clasificatorio. A saber la relación de co-constitucion que existe entre esquemas de clasificación y tipos de practicas. Esto no remite solamente a los saberes codificados de la ciencia sino que también esta presente en las tareas mucho mas concretas y pragmáticas de los saberes prácticos, por ejemplo agrícolas.

Aunque en Internet hay sitios de este tipo (y la Wikipedia seria un buen ejemplo al respecto pero también sitios altamente jerárquicos como son Agricola, Eric, PubMed (Medline), Web of science, la mayoría de los sitios, especialmente los de interés general mas consultados no reúnen ninguna practica en particular. Lo que pasa es que si no hay ninguna practica organizadora que oriente qué debe relacionarse con qué, la proliferación de enlaces puede crecer infinitamente y el sentido perderse fácilmente como la materia en un agujero negro.

Cuando la información se organiza sobre el esquema de una base jerárquica, el usuario puede seguir los enlaces relevantes porque se adscribe a cierto tema o cierto tipo de información previamente organizada a la cual se intenta alcanzar con un nivel de especificidad determinado.

La información almacenada en Internet no cuenta con criterios de organización de categorías, clases o miembros. El criterio, si es que puede llamarse tal es la libre interconexión de todos los elementos sin jerarquías y en un mismo nivel. Hay por lo tanto una clara oposición entre la cultura de las bibliotecas y la cultura de los hipervinculos. La oposición demuestra un claro enfrentamiento entre una taxonomía de un modo semántico de estructuración de la información orientado por el significado, a otro basado en la sintaxis formal donde el significado pierde toda relevancia.

El problema es que las navegación sin fin pero llena de ruido e irrelevancia es a veces valorada por encima del significado y la utilidad. Claro los que piensan y actúan en abstracto y no están acicateados por la necesidad de encontrar algún tipo especifico de datos celebran esta apoteosis de la dispersión de los hipervinculos.

Encontrar información en Internet no tiene equivalente en el descubrimiento una aguja en el pajar sino de una aguja en un bolsa de otras agujas.

Para quienes se solazan en los logros de la web semántica (ver el capitulo 11 de nuestro próximo libro Internet, imprenta del siglo XXI), el futuro no es demasiado auspicioso.

Tradicionalmente la búsqueda de datos funciono sobre entidades como nombres, direcciones, números de teléfono, balances de cuentas bancarias, números de seguridad social, ítems que tipicamente representan referencias claras e inequívocas. Pero si bien muchos documentos pueden representarse así, la mayoría de las búsquedas de información se guían mas por el contenido intelectual de los documentos que se espera encontrar que por los formalismos. Las descripciones de contenido intelectual casi nunca están determinadas, y en un campo tan vasto como la WWW se hacen irremediablemente imprecisas y vagas para cualquier cosa que no sea una búsqueda demasiado general.

Internet es tan nueva pero tan pegada a la vida de muchos que hoy tienen 25 años que parece haber existido siempre, sin embargo su uso masivo empezó en la Argentina en 1996/7. Antes de su existencia esas búsquedas quedaban en manos de referencistas, bibliotecarios y encargados de hemerotecas, todos especialistas en contenidos que los calificaban de determinadas maneras de modo tal que los usuarios pudieran encontrar lo que buscaban.

Computistas humanos

Pero hoy -y Yahoo es un buen ejemplo al respecto- es imposible conseguir la cantidad de catalogadores humanos que podrían brindarle sentido a los sitios casi infinitos que hay en la red. Ante este intríngulis los expertos vienen trabajando desde hace al menos 15 años buscando darle un corte definitivo al problema haciendo que las maquinas no solo se entiendan entre si, sino sobretodo con los seres humanos.

De hecho las primeras veces que dictamos nuestro programa en la materia de Procesamiento de Datos en la UBA éramos muy sensibles a estos problemas y justo hicimos un tipo de desarrollo que cuestionaba los principales programas de investigación en IA.

Fundamentábamos nuestra critica tanto al programa sintético como al mucho mas sofisticado programa conexionista, insistiendo en fallas fundamentales como su ausencia de respeto por el enraizamiento del conocimiento, la biología de la cognición y la enaccion corporal.

Para nuestra sorpresa, esa criticas resultaron bien fundadas y todos los intentos dentro y fuera de la web de defender a rajatabla búsquedas inteligentes artificiales encallaron en los mismos problemas que diagnosticamos hace 10 años, aunque en esa época ni nos imaginábamos la relevancia de nuestras criticas para señalar limitaciones constitutivas de la web.

Estamos hablando de la representación de la información. Estamos hablando de como almacenar datos a mansalva y de como recuperar informaciones significativas a partir de su manipulación.

A principios de los 90 y después de casi un siglo de frustraciones en los desarrollos en IA investigadores como Douglas Lenat sabían que el óptimo presupuesto por los primeros investigadores que suponían que con unos pocos millones de datos lograrían representar todos los hechos acerca del mundo que daba significado a las personas, no se alcanzaría fácilmente.

El proyecto CYC

Por eso al poco tiempo quedo claro que lo que había que hacer era sistematizar el sentido común compartido por las personas. De ello trato el proyecto CYC iniciado en 1985, que ya costo mas de 15 millones de dólares. CYC es una base de datos de conocimientos orientada a que las computadoras interpreten aspectos del sentido común como factores en la información, lo cual supondría un primer paso en la resolución del problema de las búsquedas.

Pero los resultados, a pesar de acumular millones de datos son pobrisimos. Sucede que en el caso humano los cambios en la relevancia obedecen fundamentalmente a cuerpos e intereses y hasta ahora nadie ha podido (mas alla de las fantasías de las películas Inteligencia Artificial de Spielberg o de Yo Robot de Asimov) programar una computadora para que responda certeramente a los criterios de relevancia.

Douglas Lenat, que es bien cabeza dura en cuanto a llevar adelante su proyecto, ha buscado reemplazar el sentido de relevancia por formalismos lógicos a los que ha denominado axiomas de relevancia específicos y generales. Pero los resultados han sido tan pobres e irrelevantes como antaño. Cuando Lenat detecto que ni miles de axiomas de relevancia solucionaban el problema abandono esta pata del proyecto.

El resultado es que las maquinas no pueden reconocer el significado de las cosas, y por ello no pueden reproducir aquello que el juicio humano incorpora en principio en los procesos de clasificación e indexacion de documentos (lo que Don Swanson denomina la falacia de la abundancia).

Si este proyecto y muchos otros de la IA fracasaron, ello se debió a la ignorancia del rol de nuestros cuerpos a la hora de dar sentido y significado al mundo que nos rodea.

Como bien dice Dreyfus nuestros intereses corporales se extienden en el mundo que nos rodea con tal amplitud que ni notamos como construimos los significados del cuerpo mismo (para una referencia ver Samuel Todes Body and World).

Este fenómeno por un lado obvio y por el otro catastrófico nos habla de una dualidad esencial que se ha instalado a partir del advenimiento de la web. Cada vez existe mas información en el mundo. Nuestra única forma de acceder a ella es a través de computadoras sin cuerpo que no comparten nuestro mundo y que por lo tanto no entienden el significado de nuestros documentos y de nuestros sitios web.

Volviendo a lo que decíamos al principio de esta nota, las búsquedas para ser útiles necesitan ser relevantes y precisas. En Internet vivimos presos de la falacias de la abundancia aunque la relevancia y precisión combinadas solo es generada en la mayoría de los casos por un 2% de los sitios.

Hay quienes sueñan o sufren por la idea de un sistema aristotélico o deweyiano de indexacion de la web, pero ello de ser posible no solucionaría para nada el formato de hipervinculos que tenemos actualmente (habría que investigar si soluciones como las que proponen 7 usos diferentes de los hipervinculos mejoraría el panorama).

Los primeros search engines creaban índices de palabras asociadas a una lista de documentos que las congenian, basados en puntuacion sobre repeticiones y discriminado cuando las palabras aparecían en el titulo, en el texto, la sinopsis. Según los expertos con esta metodología no se puede recuperar mas que un 10% de documentos útiles.

Las maquinas de popularidad analizan las actividades de millones de internautas encontrando los sitios que reciben mas visitas y el tiempo de consulta. En estos casos la efectividad aumenta hasta un 20%.

Otras técnicas se basan no tanto en el conteo de entradas sino en el análisis de los documentos. Según Gordon Rios guru de Inktomi -uno de los motores de busqueda mas interesantes hasta la llegada de Google- es impensable conseguir mas de 20/30% de precisión para búsquedas razonables.

La cifra del 30% vuelve a aparecer como mantra en estos análisis. No vemos mas que el 30% de la web, solo un 30% de los documentos existentes relevantes llegaran a nuestras manos. La razón es siempre una y la misma. El criterio de relevancia no puede operar sin contar con sentido común y este ultimo es imposible sin un fundamento corporal de relación con el mundo en el que estamos inmersos.

Asi las cosas llegamos a la conclusión de que al no contar el ciberespacio con nuestras capacidades corporales para aprehender significados, y dado encima que el sistema de relevancia no esta a nuestra alcance, la posibilidad de convertir a la web en un universo de sentido se desvanece asintoticamente.

¿Para que servirá el data mining entonces? ¿Porque Google vale lo que dicen que vale -mas de U$S 50.000 millones? ¿Porque programas como Autonomy dicen alcanzar lo que finalmente queremos? ¿Porque hay una asimetría tan grande entre lo que queremos y lo que podemos?

Habrá que investigar el tema con mas detalles y sobretodo no caer presos de ningún tipo de extremismo ni tecnofobico ni tecnofilico. Y en el caso de la enaccion ver como (ya se lo planteaba Francisco Varela hace mas de dos décadas -todavía estamos esperando ver a la maquinas enactivas en acción) como traducir nuestra epistemología afinada y valiosa en herramientas que la extienden al mundo practico. Sobretodo al de la educación y el domestico, sin perder de vista el corporativo, el del entretenimiento y sobretodo el caso de la invención.

Y también darle unos coscorrones a Dreyfus a ver si no metio la pata en algo grueso

Algunas referencias preliminares

Papers de Dreyfus

El proyecto CYC

Lenat, Douglas B. From 2001 to 2001: Common Sense and the Mind of HAL en David G. Stork Hal’s Legacy: 2001’s Computer as Dream and Reality

Anthes, Gary H. Computerizing Common Sense Entrevista con
Doug Lenat

Minsky, Marvin Why A.I. Is Brain-Dead

Devastadora critica del libro de Dreyfus Dreyfus on the Internet

Publicado enHipertxt/Lectoescrit

Sé el primero en comentar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *