Saltar al contenido

En el comienzo fue Turing ¿pero cuál de los dos?

1 La máquina imaginaria (pero bien real) de Turing

Si bien la inteligencia artificial ha oscilado durante décadas entre éxitos furibundos y frustraciones no menos llamativas, los innumerables logros alcanzados en la última década (podemos poner como divisoria la compra de Deep Mind por parte de Google en 2014 y todos los subproductos de la IA posteriores) ignoran cuestiones clave acerca del comportamiento humano, y de su simulación por parte de las máquinas.

Ejercicios fantásticos como los logrados en el campo de la creatividad artificial (reseñados en dos obras recientes de notable valía como son los trabajos de Arthur I Miller The Artist in the Machine: The World of AI-Powered Creativity y Marcus de Sautoy Programados para crear) nos hacen olvidar la naturaleza asintótica de estas aproximaciones.

Cada vez que creemos domesticar alguna rama ignota -pero sumamente productiva de nuestro intelecto y algunas veces de nuestra sensibilidad- (la que nos llevaría a ser creadores únicos y a convertirnos en el mas excepcional de todos los animales (Alexander, 1990)), los problemas centrales de la decidibilidad, que afanaron a Turing en sus escritos pioneros de 1936, y que siguen siendo el abc de toda la computación (la famosa máquina-a o máquina automática), vuelven al tapete y arruinan nuestras certezas mecanisistas y reduccionistas.

La máquina imaginaria de Turing consistía en una larga tira de papel y una herramienta para leer y escribir en ella, como si se tratara de una grabadora. La tira de papel es la memoria; el cabezal de lectura/escritura es el procesador. Escrito en la cinta hay un conjunto de instrucciones, que se pueden borrar, sobreescribir y agregar, a medida que la máquina calcula.

Por un lado, es un mecanismo increíblemente simple. Por otro lado, es capaz de ejecutar todas y cada una de las tareas que incluso la supercomputadora más poderosa puede realizar en la actualidad. Si bien las máquinas posteriores se desarrollaron bajo todo tipo de formas, este proceso de lectura y almacenamiento, cálculo y reescritura sigue siendo la base de su funcionamiento. Casi todas las computadoras del mundo (al menos todas las que utilizamos nosotros tanto legos como expertos, casi mil millones pertenecientes a las 5 generaciones exitentes), son solo una versión más elaborada de esa tira de papel y del cabezal de lectura/escritura.

Estas computadoras imaginadas por Turing son responsables de casi todos los aspectos de nuestras vidas. Pero su absoluta ubicuidad enmascara una poderosa realidad: casi todas las computadoras que funcionan hoy en día representan solo una pequeña fracción de la  computadoras posibles.

Como bien dice James Bridle (2022) una vez que una forma de ver el mundo se ha moldeado en una herramienta, es muy difícil pensar de otra manera (Toda herramienta es teoría concretizada Gastón Bachelard). Todas estas máquinas comparten la misma arquitectura básica, la misma disposición de procesador y memoria.

Este tipo de computadora es el resultado de una cadena muy específica de descubrimientos y decisiones, algunas que se remontan a casi mil años, que han dado forma a como funcionan casi todas las computadoras que existen -sus posibles adyacentes- las han traído hasta nosotros y resulta sumamente difícil imaginar otras evoluciones (tanto para atrás y sobretodo para adelante).

Pero…….

Turing también reconoció que otro tipo de máquina era posible, una máquina de elección o e-machine, porque que las máquinas-a no agotaban el universo de las construibles. A ese tipo “alternativo” de máquina las denominó máquina-o (u oracular)

Esta o-máquina se detiene en momentos críticos de su cálculo para ‘esperar la decisión’ de lo que él llamó ‘el oráculo’. Turing se negó a describir más esta entidad, además de sostener que «no puede ser una máquina».

La o-máquina de Turing, el oráculo, es precisamente la que nos permite ver lo que no sabemos, reconocer nuestra propia ignorancia, como hizo Sócrates en Delfos. Turing se concentró en las máquinas-“a” porque estaba interesado en un lado del problema: el de la decidibilidad, en todo aquello que es algoritmizable, en todo lo que puede ser descripto en una serie finita de pasos.

Pero lo que nos interesano menos -como biólogos, etólogos y epistemólogos evolucionistas somos- es la indecidibilidad. Especialmente cuando nuestras búsquedas están enderezadas a entender cómo y qué son los otros, los diferentes en forma y sustancia, los no-humanos, léase extraterrestres, animales, plantas y sobretodo máquinas no-binarias o  máquinas-o. Tal el programa de trabajo de este cuatrimestre en UDESA que ya va entrando en su cuarta y última fase.

2 Indecibilidad is the name of the game.

La indecidibilidad no es una barrera para comprender, sino una señal, algo interesante, imprevisto, no discernible, incluso útil, pero es irreductible a planes, algoritmos, mecanismos o designios externos (los nuestro para ellos) .

Desde que Gottfried Leibniz ideó el Calculus ratiocinator en 1694 con el fin de establecer un marco teórico universal para el cálculo lógico (asociado a la «característica universal«), tratamos al mundo como algo para ser computado y, por lo tanto, susceptible de computación.

Pero el mundo no es como una computadora (creer que lo es es reificar una metáfora confundiendo al concepto con la cosas como denunciaron hace rato Lakoff & Johnson, 1995) . Las computadoras, como nosotros, como las plantas y los animales  son como el mundo. Algunos más que otros, algunos mejor sintonizados con sus procesos, y muchos somos no-computables..

Las máquinas que necesitamos para dar sentido a este mundo omnipresente, participando de sus juegos del lenguaje (Wittgenstein, 1987), no deberían ser más más abstractas, sino más parecidas al mundo. Es por ello que algunos outsiders han imaginado recorrer este camino a contracorriente, aspirando a indagar esas zonas recónditas mas allá de los algoritmizable.

Fue el caso de los pequeños robots construidos por el neurofisiólogo William Grey Walter (1910-1977) en el Burden Neurological Institute de Bristol a finales de la década de 1940. Grey Walter los llamó Machina speculatrix, denotando una nueva especie de máquina, aunque son más conocidas como tortugas. El mismo Walter citó a la Falsa Tortuga de Alicia en el País de las Maravillas de Lewis Carroll: «¡Lo llamamos Tortuga porque nos enseñó!»

El primer par de tortugas, a las que Walter llamó Elmer y Elsie, también estaban equipadas con sensores de luz. Esto les daba una habilidad observada en muchos animales, llamada fototaxis.

La incertidumbre, la aleatoriedad, el libre albedrío o la independencia tan sorprendentemente ausentes en la mayoría de las máquinas bien diseñadas (máquinas-a de Turing) aparecían en estos experimentos pioneros al punto de que 20 años antes de que se definiera formalmente el test de Turing, las tortugas pudieron pasar exitosamente la prueba del espejo.

Grey -quien anticipó en estos diseños la obra posterior de Rodney Brooks, Hans Moravec & Mark Tilden (creador de la Bea Robotics) no dudo a calificar a sus robots de parásitos, que dependían de sus huéspedes humanos para nutrirse y estimularse

3 En la huella de los pioneros de Ross Ashy a Stafford Beer (1926-2002)

Definida en 1948 por Norbert Wiener como ‘el estudio científico del control y la comunicación en el animal y la máquina‘, la cibernética se extendió incansablemente a lo largo de las disciplinas, influyendo en los estudios de aprendizaje, cognición, autoorganización, retroalimentación biológica, robótica y gestión empresarial, sin llegar nunca a ser unificada, atada a un discurso fijo o instalada cómodamente en un solo departamento académico, al punto de que hoy pertene de pleno derecho al paradigma antidisciplinario.

En esa tradición pionera donde la suerte aún no estaba echada, y las computadoras digitales no podían cantar todavía victoria sobre las analógicas, otro visionario como William Ross Ashy (1903-1972) trabajó con homeostatos, dispositivos electrónicos autorregulados por retroalimentación. Dados suficientes homeostatos, Ashby creía que se podía crear cualquier conjunto complejo de sistemas de retroalimentación de formación de memoria.

En 2022 domesticados por el evangelio digital tematizamos a la tecnología principalmente como una solución a los problemas que enfrentamos (incluidos, con demasiada frecuencia, los que hemos creado nosotros). Pero Walter y Ashby y los otros cibernéticos tempranos (muchos de ellos devenidos en artífices de la cibernética de segundo orden CREA, 1985) concebían a la tecnología como algo muy diferente: una entidad con su propia agencia y habilidades, cuyas reacciones eran inciertas y cuyo comportamiento debería reflejar sus propios encuentros con el mundo (algo que luego tematizaría Bruno Latour (fallecido hoy) en mútliples niveles).

Para la mayoría de los filósofos de la mente, la prueba crítica de si una máquina es o no un “cerebro” es si puede o no “pensar” (con lo difícil, que es definir pensamiento). Pero para el biólogo el cerebro no es una máquina de pensar, es una máquina para actuar; obtiene información y luego hace algo al respecto.

A la cibernética no le interesa que hay en la caja negra: le importa cómo funciona la caja y qué relaciones se forman cuando entra en juego el mundo. Como tal, es una forma de pensar sobre mentes más que (o distintas) humanas que se corresponde estrechamente con nuestro rechazo del pensamiento jerárquico, antropocéntrico e «inteligente» y nuestra aceptación del ser relacional y agente.

La U-Machine y la o-machine son lo mismo. Cuando se enfrentan a la necesidad de tomar decisiones sobre cosas que son demasiado complejas o novedosas para ser calculadas o interpretadas a través de la experiencia existente, tanto Beer como Turing buscaban algo más allá de la máquina tal como la entendemos tradicionalmente, algo que surge y es capaz de funcionar en un estado de desconocimiento –propiedades emergentes- como la conciencia, la intencionalidad o el propósito, que equivocadamente asignamos solo a los humanos.

Beer creía que en el mundo existe una clase de sistemas extremadamente complejos (a los que hoy llamamos “wicked problems”) que en principio son incognoscibles. Estos sistemas incluían al cerebro, la empresa y la economía. Desde este punto de partida se dispuso a construir máquinas que pudieran operar frente a tal incognoscibilidad, un viaje que lo llevaría a algunos lugares muy extraños. Que nos sorprendían cuando coexistíamos con ellos hace 50 años atrás, y que con el paso del tiempo (y la consolidación del paradigma digital reduccionista), no dejan de ser cada vez mas interesantes, inverosímiles e inspiradores. Y por eso volver a ellos es decir que nunca nos alejamos demasiado de su ethos y -sobretodo-, de sus propuestas políticas.

4 De la fábrica cibernética de Allende

El problema que nos plantean tanto la inteligencia artificial como la Cybernetic Factory es que hemos estado tratando de atrapar a un cerebro dentro de la máquina, cuando el verdadero cerebro, el oráculo, está afuera. El oráculo es el mundo. Estamos haciendo todo al revés y encima lo celebramos a diario con el endiosamiento de un mundo digital que si bien automatiza y simplifica, al mismo tiempo genera desigualdades crecientes y se despreprocupa cada vez mas de lo humano y de su acople con la naturaleza, cayendo en tecnoutopías ingenuas como las de la «singularidad«.

Cualquier cuestión tecnológica a escala suficiente se convierte en política. Y es a la política a la que debemos referirnos para ver qué lecciones podemos extraer del mundo más que humano, incluidas nuestras tecnologías, para lograr relaciones más justas e igualitarias.

Toda la actividad está en el interior, por ejemplo, cuando colocamos electrodos en el cerebro de chimpancés y moscas de la fruta, o quitamos las raíces y los nódulos de las plantas, pero la verdadera acción está en el mundo. Ahí es donde todo surge e intraactúa. La vida sucede cuando todo rebota en todo lo demás

No casualmente la acción mas exitosa de Stafford Beer fue la implementación de una red de máquinas télex en más de 500 fábricas, conectadas a las oficinas de planificación de los municipios y el gobierno central (Medina, 2015).

Beer creía que esta red formaría el sistema nervioso de algo parecido a una Fábrica Cibernética en todo el Chile de Allende: totalmente conectado, autónomo y altamente sensible a las condiciones cambiantes. Solo oudo pasar una prueba importante: enrutar con éxito una huelga de camiones respaldada por la CIA en la que los télex se usaron para coordinar las entregas de alimentos alrededor de los bloqueos de carreteras, antes de que Allende fuera derrocado, también por la CIA en 1973.

Gaia, la Tierra a un nivel infinitamemnte mas grande, es un sistema de retroalimentación cibernética, la realización de la Fábrica Cibernética de Beer a escala planetaria, en la que las entradas y salidas son agua, aire y roca, y la Máquina-U es toda la biosfera resoplando y  retorciéndose, creciendo y adaptándose. Por eso una y mil veces James Bridle nos recuerda que el mundo no es como una computadora; las computadoras son como el mundo.

5. El moho del fango y la computación no convencional

Una de las estrellas de la computación no convencional, un sucesor moderno de la Dafnia de Beer, es el moho mucilaginoso, en sí mismo una categoría inclasificable de organismo que los científicos no están realmente seguros dónde ubicar.

Identificados tradicionalmente como hongos, bajo un examen minucioso, los mohos mucilaginosos , adquieren una extraña individualidad comunal y, como la propia disciplina de la cibernética, se niegan continuamente a establecerse en un dominio cartesianamente claro y distinto. ¿Son organismos aislados o son parte de un colectivo (Johnson, 2001)? ¿O lo que es peor, son una y otra cosa alternativamente?

En 2010, otro moho mucilaginoso llamado Physarum polycephalum (o moho de muchas cabezas o blob) reveló ser un planificador urbano muy eficaz, cuando recreó una de las redes de transporte más sólidas y eficientes del mundo.

No se trató de un simple ejercicio de unir puntos, sino de lograr un mapa realista en el que los parches de luz brillante (que a Physarum no le gustan) correspondiesen a montañas y lagos, lo que requería que el mojo hiciera el mismo tipo de concesiones que los ingenieros habían tenido que implementar en su diseño ferroviario a lo largo de décadas. Después de un día de adaptarse a su entorno, el parecido con un mapa real del Gran Tokio fue inconfundible, planteando innumerables nuevos interrogantes acerca del comportamiento inteligente de las entidades no-humanas.

Repetido el ejercicio para el famoso problema del viajante de comercio según el cual dada una lista de ciudades y las distancias entre cada par de ellas, ¿cuál es la ruta más corta posible que visita cada ciudad exactamente una vez y al finalizar regresa a la ciudad origen?, los investigadores se encontraron con una llamativa sorpresa.

Porque el moho tardó solo el doble de tiempo en resolver un mapa de ocho ciudades que en resolver un mapa de cuatro ciudades, a pesar de que había casi mil veces más rutas posibles. El moho mucilaginoso completó fácilmente una tarea para la cual las computadoras más poderosas del mundo, y los humanos, fracasan olímpicamente.

En 1971, el físico estadounidense Leon O. Chua propuso la idea de un componente electrónico novedoso al que llamó ‘memristor’, una resistencia con memoria, lo que la hace capaz de recordar su propio estado (retener datos) incluso en ausencia de energía.

Si se usaran memristores dentro de las computadoras, colapsarían la división entre procesador y almacenamiento que es el estandar en todas las computadoras modernas y aumentaría enormemente su eficiencia y potencia, transformando el mapa de la computación en el proceso.

No fue sino hasta 2008 que un equipo de Hewlett-Packard descubrió cómo construir uno, y aunque los memristores aún prometen revolucionar la forma en que funcionan las computadoras, siguen siendo una curiosidad de laboratorio pero la idea del memristor, como una red electrónica sin escala, ha estimulado un trabajo extraordinario en biología.

Así se ha demostrado que la Venus atrapamoscas, el Aloe vera o que la Mimosa púdica (plantas supuestamente pertenecientes a un reino menor), muestran un comportamiento memrístico. Queda cada vez más claro que todas las plantas vivas, así como la piel, la sangre y los conductos sudoríparos de los cuerpos animales (incluido el nuestro), son memristores potenciales. Solo queda (no es poca cosa) descubrir cómo integrar tales estructuras en nuestra tecnología para diseñar nuevos híbridos en dirección de las máquinas-o (usando para ello desde bolas de billar hasta cangrejos)

6. Desde el Water Integrator hasta Superestudio

Son numerosos los antecedentes, muchos de estos trabajos anticipatorios se remontan a casi 70 años atrás, y la impresión que todo esto nos deja es algo que ya habíamos experimentado hace décadas en mercados de nicho.

No siempre la tecnología mas eficiente es la que triunfa (Beta vs VHS). No necesariamente los sistemas mas eficientes para el usuario logran vencer al músculo marketinero (Internet Explorer vs Netscape) y en lo que es un caso mucho mas importante como el que estamos analizando aquí, un modelo de procesamiento de la información centrado en la predictibilidad dejó en el desván de los trastos viejos a otro basado en la impredictibilidad. Que a la postre sería mucho mas desafiante -y con consecuencias epistemológicas y ontológicas mas notables- como los trabajos mas recientes en IA parecen dejar a la vista.

Por eso conviene recorrer esos experimentos hoy olvidados sumados a los ya vistos mas arriba, como fue el caso del Water Integrator de Vladimir Lukyanov, una computadora analógica construida en la Unión Soviética en 1936.

Los procesos materiales, físicos, incluso geológicos, fueron modelos para resolver problemas en matemáticas puras. Del mismo modo, las primeras computadoras digitales comenzaron como modelos de problemas específicos (cifras criptográficas, reacciones nucleares, sistemas meteorológicos) y se convirtieron en solucionadores de problemas generalizados a medida que comenzamos a desasociarlos y desagregarlos en partes reensamblables: memoria, procesamiento, instrucciones de comando, etc.

Gradualmente, el modelo del mundo en el corazón de la máquina se vuelve cada vez menos visible a medida que la máquina misma se vuelve más y más abstracta. El nivel más alto de abstracción es la máquina de Turing completamente automática.

Pero las máquinas-Oráculo, entre ellas los integradores de agua, fueron intentos de bajar esa abstracción de vuelta a la tierra: recombinando el increíble poder del procesamiento mecánico con preocupaciones materiales, y quizás, con el tiempo, con la ética, la moralidad y la vida misma -como muchas cuestiones acerca de las IA están obligando a hacernos- mas allá de la retórica digital.

Nada casualmente los diseñadores especulativos (al mejor estilo de Dunne & Ruby, 2012) siempre imaginaron estas alternativas que la historia de la mercadologia convirtió en caminos intransitados de la historia. Basta para ello asomarnos a Supersurface – An Alternative Model for Life on the Earth (1972) una película muy poco conocida de Superstudio, un grupo arquitectónico italiano que operó entre los años 1966 y 1978 enmarcados en el antidiseño, buscando un nuevo alineamiento entre el diseño y el medio ambiente, uno en la que la invención humana y el mundo natural se complementaran, en lugar de contradecirse al peor estilo del turbocapitalismo financiero-extractivo.

La promoción de la legibilidad (como oposición a las cajas negras) siempre fue el leit motif de estas propuestas marginales. La construcción de sistemas legibles por todos, que contribuyesen a una representación compartida del espacio, en oposición a las representaciones cerradas y ocultas del espacio, propias de las computadoras digitales es un desideratum al que siempre queremos aproximarnos, pero que 50 años mas tarde sigue siendo excéntrico y aspiracional.

No casualmente James Bridle nos recuerda que el mejor ejemplo de la computadora hidráulica como herramienta pedagógica (como máquina legible que no solo calcula, sino que también educa), fue el que encontró por primera vez, cuando era niño, en el Museo de Ciencias de Londres.

Se trataba de la Computadora Analógica de Ingreso Nacional Monetario, o MONIAC, construida en 1949 por el economista Bill Phillips cuando era estudiante en la London School of Economics. MONIAC ​​se presentaba como un modelo funcional de la economía británica. MONIAC -como sus compañeras de ruta de entonces y primeras máquinas “pensantes”, la ENIAC (1946) de 27 toneladas- tenia el tamaño de una heladera grande y, al igual que el integrador de agua de Lukyanov, constaba de una serie de tanques y tuberías.

Todas las computadoras son simuladores (de propósito general). Están basadas en modelos abstractos de aspectos del mundo, que ponemos en marcha, para luego olvidar inmediatamente que son modelos. Contradiciendo la sentencia de Korzybski para quien “el mapa no era el territorio”, en el caso de los modelos computacionales los tomamos como si fueran el mundo en si.

Lo mismo ocurre con nuestra propia conciencia y nuestro Umwelt. Confundimos nuestras percepciones inmediatas con el mundo tal como es, pero en realidad, nuestra conciencia es un modelo continuo, un proceso constante de reevaluación y reintegración con el mundo tal como se nos presenta. Y en constante transacción con la visión de las innumerables otras especies que nos rodean (Yong, 2022).

MONIAC ​​fue una máquina de simulación que se convirtió en una máquina de decisión. Esta es la forma en que opera todo cálculo (exitoso). Primero, modela el mundo y luego intenta reemplazar el mundo con el modelo. Nuestras mentes también son máquinas de simulación que se convierten en máquinas de decisión: pensamos, procesamos y actuamos en constante intraacción con el mundo. La pregunta obligada que debemos hacernos entonces, es ¿cuáles son las características de los modelos, y por lo tanto de las máquinas, que crean mundos mejores?

7. El no-binarismo, una aspiración muy difícil de lograr

Hace décadas que hacemos campaña por lo no-binario sin demasiado éxito. Una cosa es “saber” que en el mundo en el que vivimos, establecemos dos categorías distintas, hombre y mujer, entre las que todos deben elegir. Pero eso en realidad no refleja toda la diversidad de la experiencia humana (si lo sabrá Facebook que nos da la opción de “elegir” entre 58 opciones de género), aunque nos sigue limitando a tres pronombres. Igual es el camino a seguir. Por eso debemos decirle que no a la división sin resto del binarismo.

La segunda condición para una revitalización de las máquinas-o es la descentralización. Debemos basarnos en lecciones como las de los pulpos (Montgomery, 2018) y del moho mucilaginoso reconocinedo el poder de las empresas comunitarias, cooperativas y progresivamente holocráticas por sobre las que proliferan ahora jerárquicas y burocráticas.

El movimiento de código abierto es uno de esos ejemplos de redistribución. Esta es la práctica de publicar el código base completo, cada línea de código que constituye una pieza de software, para el escrutinio y la crítica públicos, descentralizando el conocimiento y proporcionando la base para la autoeducación colectiva.

El campo de la computación distribuida es otro ejemplo: ha dado origen tanto a la democracia extrema del intercambio de archivos y las criptomonedas como a iniciativas científicas como SETI@home y Folding@home con resultados mas que llamativos al aunar millones de máquinas con un propósito común, superando así el poder de cómputo de las mas grandes supercomputadoras existentes. Y con fines totalmente al suyo.

No se trata tanto de una solución a un problema de naturaleza técnica sino de un enfoque de naturaleza ontológica, no buscamos optimizar funciones o acelerar procesos con criterios puramente rentables. El proyecto de descentralización también abarca el proceso de descentramiento de nosotros mismos: el reconocimiento de que los humanos no somos la especie más importante del planeta, ni el eje alrededor del cual gira todo lo demás (Haraway, 2016).

La tercera condición, no saber, significa reconocer las limitaciones de lo que podemos saber y tratar con respeto aquellos aspectos del mundo que están más allá de nuestro alcance, en lugar de tratar de ignorarlos o borrarlos, o peor aun desconocerlos o relativizarlos. No se trata del culto mítico del misterio, sino de revalorizar ciertos aspectos desconocidos y fundantes de lo conocido como hace de manera ejemplar Rene Girard (2013).

Aplicaciones como los automóviles autónomos, la robótica, la traducción de idiomas e incluso la investigación científica (la generación del conocimiento en sí y el uso de programas para inventar hipótesis científicas) se están desplazando hacia enfoques de aprendizaje automático, precisamente porque se reconoce que la respuesta adecuada a los nuevos estímulos y fenómenos no puede preverse requiriendo de enfoques híbridos o centauro (Daugherty & Wilson, 2018).

Un ejemplo de este tipo de sistemas de desconocimiento es el Algoritmo Optometrista, desarrollado por Google para Tri Alpha Energy que está desarrollando una tecnología de fusión nuclear, una fuente de energía limpia y casi ilimitada que ha sido materia de ciencia ficción durante décadas. Hacerlo requiere cálculos intensamente complejos, sopesando miles de variables para cada ejecución de prueba de su reactor experimental, miles (¿o millones?) más de las que cualquier investigador humano podría evaluar nunca de manera significativa.

La escala del problema significa que un enfoque puramente programado (como operan las máquinas de Turing convencionales, es decir el 99.99% de las computadoras existentes) también podría perderse en ramas interminables de un árbol infinito de posibilidades, sin mejorar significativamente el resultado. El algoritmo funciona menos como una máquina ciega basada en reglas y más como un optometrista que prueba diferentes lentes, consultando constantemente con su paciente: ¿Mejor así? ¿O así? ¿Más así, o así? He aquí excelente ejemplo de computación centauro no-secuencial.

Para cerrar este primer paneo que busca poner en sincro, ejemplos históricos, caminos no explorados, prototiopos funcionales y nuevas teorías encarnadas en dispositivos no secuenciales, examinaremos un último y curioso caso,  el robot móvil controlado por cucarachas, o Roachbot (2004-2006).

Una diferencia clave entre el Roachbot y la tortuga de Grey Walter es que un elemento del sistema permanece incognoscible para nosotros. A diferencia de las tortugas, la cucaracha en el corazón de la máquina de Hertz no ha sido construida por nosotros. Está haciendo lo suyo, es un oráculo. En términos cibernéticos, ha sido «entrenada», pero no ha sido dominada (aunque la cucaracha podría discutir esta afirmación constreñida como está a nuestros caprichos).

Termina aquí este breve mapeo de las máquinas no-secuenciales. Resulta sorprendente que a lo largo de casi 90 años no hayamos explorado más en detalle estos caminos alternos. Llama la atencíón como el “path-dependency” de gran parte de la literatura científica, sus grandes visionarios, laboratorios de investigación de tamaño gigantesco, etc hayan logrado hasta ahora contornear los cantos de sirena de la complejidad, y se hayan contentado con máquinas que juegan sobre seguro, y que se hallan mas que cómodas en el terreno de la predictibilidad. Y de paso hemos abandonado la posibilidad de transitar muchos otros futuros posibles (además de deseables)

Sin embargo desde el COVID-19 a la Guerra de Ucrania, desde la crisis de los misiles de Cuba de 1962 hasta la que se está dibujando hoy en el horizonte, desde la crisis del petróleo de 1973, a la imposibilidad de seguir jugando con el fuego de la energía del carbón y el petróleo -además de las crisis sistémicas en economía, política y cultura-, parecen mostrar que la danza de lo predecible ya se agotó, y que es tiempo de empezar a diseñar teorías enfoques, encuadres y máquinas capaces de bailar con la impredictibilidad, en vez de tratar de eliminarla -que es como eliminar a la propia raza sapiens/demens, algo en lo que estamos encaminados cada vez mas, crisis y apocalipsis mediante.

NB Este post recoge a mano alzada muchas de las geniales elaboraciones hechas por James Bridle capítulo 6 Non-Binary Machines en su reciente obra Ways of Being. Beyond Human Intelligence (Penguin Random House, 2022) .

Referencias

Alexander, R.D How did humans evolve Reflections on the unique species. Ann Arbor, 1990.
Ashby. W.R. Introducción a la cibernética. Buenos Aires Nueva Visión, 1972.
Beer, Stafford Platform for Change. John Wiley & Sons, 1975.
Bridle, James Ways of Being, a book about AI, non-human intelligence, ecology, biological computing, more-than-human relations, and much else. Penguin Books, 2022.
Brooks, Rodney Cuerpos y Máquinas. De los robots humanos a los hombres robot. Ediciones B, 2003.
CREA Cahiers nº 7 Histoires de Cybernetique. Ecole Polyrechnique, 1985,
Daugherty, P.R & Wilson, James H Human + Machine. Reimagining work in the age of AI. Harvard Business Review, Press, 2018.
Dunne, Anthony & Ruby, Fiona. Speculative Everything. Design, Fiction and Social Dreaming. The MIT Press, 2012.
du Sautoy, Marcus Programados para crear. ¿Cómo está aprendiendo a escribir, pintar y pensar la inteligencia artificial? Acantilado, 2019.
Girard, Rene Des Choses Cachées Depuis la Fondation du Monde Gasset, 2013.
Gray Walter, William El cerebro viviente. FCE, 1961.
Johnson, Steven Berlin Sistemas emergentes: o qué tienen en común hormigas, neuronas, ciudades y software. Turner, 200?
Haraway, Donna J. Manifiesto de las especies de compañía. Sans Soleil Ediciones, 2016.
Harnden, Roger & Leonard, Allenna How Many Grapes Went into the Wine: Stafford Beer on the Art and Science of Holistic Management. Wiley,1994.
Johnson, Steven Berlin Sistemas emergentes. O qué tienen en común hormigas, neuronas, ciudades y software. Turner, 2001.
Lakoff, George & Johnson, Mark Metáforas de la vida cotidiana. Catedra, 1995.
Medina, Eden Revolucionarios cibernéticos. Tecnologías y políticas en el chile de Salvador Allende. LOM, 2015
Miller, Arthur I. The Artist in the Machine: The World of AI-Powered Creativity
Montgomery, Sy El alma de los pulpos: conoce a la criatura más sorprendente del planeta. Seix Barral, 2018
Moravec, Hans Mind children. The future of robot and human intelligence. Cambridge Harvard University Press, 1988.
Pickering, Andrew The cybernetic brain. Sketches of Another Future University of Chicago Press, 2010.
Turing, Alan Systems of logic based on ordinals, Proc. London math. soc., 45, 1939.
Wiener, Norbert Cybernetics or control and communication in the animal and the machine [1947]. Cambridge, Harvard University Press, 1969.
Wittgenstein, Ludwig Investigaciones filosóficas. UNAM, 1987.
Yong, Ed An Immense World. How Animal Senses Reveal the Hidden Realms Around Us. Random, 2022

______

Publicado enCiberculturasDiseñoEscenarios UDESAIAInfo-TecnologíasInnovacion y BarbarieInteligencia ColectivaLong NowPolialfabetismosPulso del MundoReseñasSoftware SocialTendencias

Sé el primero en comentar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *