TESCREAL: la inteligencia artificial no es la respuesta porque no conocemos la pregunta
El exceso de optimismo es tan peligroso como el exceso pesimismo, sobre todo en el campo de la innovación.
Hace unos días, vi una entrevista al investigador de inteligencia artificial de Google Demis Hassabis, pronosticando que en el año 2030 podríamos alcanzar la inteligencia artificial general (AGI). Sencillamente, me pareció un necio. Un zafio docto. El «bildungsphilister» de Nietzsche. Como todos lo son, en mayor o menor medida, tal y como sugieren los estudios de Tetlock. Quizá, sencillamente, habla el accionista. El empresario que da un titular para que suban las acciones.
No cabe otra posibilidad (si acaso, la remota de que tengan un as bajo la manga o que todo salga bien por una mezcla de serendipia y emergencia). Básicamente porque la inteligencia es una palabra polisémica y su medición, un problema filosófico espinoso; además existen tantas escuelas y opiniones sobre este tema (si pensamos con el cerebro, con las tripas, con el entorno, si en realidad no pensamos) que no parece que se vaya a resolver todo esto en los próximos años.
Si alguien sugiere algo remotamente parecido a que estamos a punto de desarrollar una AGI significa que ya sabe la respuesta a todo esto o que define AGI como a él le conviene para que encaje con sus resultados.
Vale, pero ¿es un experto, ¿no? Cierto. Siempre hay un tiesto para una mierda, dicho en román paladino.
Dicho con más detalle: como revela un nuevo estudio, aunque los especialistas pueden superar a los profanos en reconocer sus propias lagunas de conocimiento, no tienen una mayor habilidad para identificar lo que ignoran. Dicho de otra forma, los expertos no cuentan con una capacidad de metaconocimiento superior, es decir, no son más hábiles en evaluar la extensión de su saber ni en identificar las fronteras de su entendimiento. Por tanto, la experiencia parece vinculada a una mayor seguridad sobre lo que se conoce, pero al mismo tiempo, podría disminuir la percepción sobre aquello que se desconoce.
Dicho con un trabalenguas:
Me hace gracia que yo te diga que nadie sabe nada, y tú me digas no solo que sabes que sabes que la gente sí que sabe, sino que todo los que dicen que saben, saben, y tú has sabido saber quienes saben de los que no saben. O sea, has acertado en todo. Eres lo más parecido a la omnisciencia.
Los peligros de la tecnocracia
En Power without Knowledge: A Critique of Technocracy, Jeffrey Friedman examina profundamente los fundamentos y las implicaciones de la tecnocracia como modelo de gobierno. La tecnocracia es un sistema donde las decisiones están guiadas principalmente por expertos y especialistas, basándose en el conocimiento técnico y científico, en lugar de en la voluntad política o la opinión pública, así como todas las zonas grises que implican términos como “cosmovisión”, “propósito”, “moral” o “abducción”.
Friedman aborda esta temática desde varios ángulos críticos que desafían la efectividad y la legitimidad de un gobierno tecnocrático:
Limitaciones del conocimiento experto: es inherentemente limitado y contextual. Los expertos, por muy capacitados que estén en sus respectivas áreas, no pueden prever todas las variables ni las consecuencias a largo plazo de sus decisiones.
Desconexión con la ciudadanía: las decisiones se toman en base a criterios técnicos y no mediante procesos democráticos, relegando a los ciudadanos a un papel pasivo en el que sus opiniones y valores tienen poco o ningún impacto en la formulación de políticas.
Centralización del poder: la concentración del poder en manos de un grupo reducido de expertos puede llevar a una falta de accountability y transparencia, alimentando la probabilidad de casos de corrupción y abuso de poder.
Reducciónismo y simplificación: la tecnocracia puede tender a reducir problemas sociales complejos a cuestiones técnicas manejables, ignorando las dimensiones éticas, culturales y humanas.
Riesgo de ineficacia: a pesar de la creencia en la eficiencia de la gestión experta, Friedman podría señalar casos en los que las políticas tecnocráticas han fallado en resolver problemas o han generado consecuencias no deseadas.
La tecnocracia, además, se sostiene sobre los robustos pero simplificadores (reducibles a modelos) pilares de la ciencia moderna. La cual trafica con promedios, curvas en forma de campana y valores propios. Pero ¿cómo maneja la ciencia las distinciones cualitativas o la individuación, las cuales dependen del contexto?
Tanto la ciencia como la filosofía contemporáneas fundamentan sus definiciones extensionales en las partículas elementales y las estructuras anatómicas, postulando que estas se rigen por propiedades primarias eternas, invariables y universales. Las variaciones contextuales se han relegado a las propiedades secundarias, considerándose derivadas desde un punto de vista ontológico. Hasta nuestros días, la ciencia y la filosofía occidentales continúan persiguiendo la "visión desde ninguna parte" de Nagel (1986) y la perspectiva sub specie aeternitatis, según Spinoza, buscando una comprensión objetiva y universal de la realidad.
Esto, sencillamente, pasa por mirar el mundo desde una única lente. Como los expertos lo hacen cuando hablan de la inteligencia artificial: unos, desde una lente ingenieril; otros, neurocientífica; otros, filosófica…
Hola, AGI, ¿qué tal?
El nudo epistemológico y hasta filosófico que debe desenredarse antes de llegar a una AGI (a no ser que se alcance por la vía rápida, tipo serendipia o emergencia) es el menor de nuestros problemas. El problema mollar llega luego: vale, ya la tenemos, o al menos parece que es así, ¿qué hacemos? ¿Podemos confiar en ella? ¿Cómo sabemos realmente que no tiene fallas sistémicas que nos han pasado desapercibidas? Sí, eso también ocurre con los seres humanos, pero hemos aprendido, mediante prueba y error, que no conviene confiar en lo que diga un ser humano (usamos cortafuegos como el método científico) y resulta más apropiado establecer debate para que aflore la sabiduría de las multitudes.
Así pues, una AGI solo sería una persona más dentro del debate. Tal vez pudiera parecer un experto, pero los expertos son tan o más peligrosos que los legos, como hemos visto. Como alternativa, podríamos adoptar un enfoque centauro, donde los humanos usen la AGI como una especie de segundo cerebro, una calculadora muy sofisticada. Más o menos lo que hacemos ahora con otros muchos dispositivos, herramientas y demás elementos que constituyen nuestra cognición extendida o distribuida. Pero esto no suena tan espectacular desde el punto de vista de la ciencia ficción. ¿Dónde está Skynet? ¿Acaso la AGI no venía para solucionar nuestros problemas? ¿Solo es una prótesis como pudieran serlo las millares de prótesis que ya usamos?
A todo esto se suma que, quienes creen en la AGI como una suerte de oráculo, así como en muchas otras tecnologías disruptivas, parecen iluminados por una cuestión de fe, tal y como escribía Christopher Lasch en su clásico La cultura del narcisismo:
En términos psicológicos, el sueño de doblegar la naturaleza es la solución regresiva de nuestra cultura al problema del narcisismo: regresiva porque busca restaurar la ilusión original de omnipotencia y se niega a aceptar los límites de nuestra autosuficiencia colectiva. En términos religiosos, la revuelta contra la naturaleza es también una revuelta contra Dios; esto es, contra la realidad de nuestra dependencia de fuerzas ajenas a nosotros mismos.
Por ello, el campo de la IA ha sido terreno fértil para el optimismo, pero también un dominio propenso a ciclos de expectativas infladas seguidas de desilusiones profundas, fenómeno a menudo referido como “inviernos de la inteligencia artificial".
Este patrón cíclico no es exclusivo de la IA. Es un guion recurrente en la historia de la innovación tecnológica, donde las olas de entusiasmo desmedido a menudo preceden a las caídas estrepitosas, cuando la realidad no logra alcanzar nuestras expectativas. Tal optimismo, si bien es un motor de exploración y audacia, tiene el filo doble de conducirnos, en ocasiones, por senderos que terminan en callejones sin salida, desviando recursos valiosos—tanto intelectuales como materiales—hacia empresas que resultan infructuosas o, peor aún, estériles.
TESCREAL
Timnit Gebru, ex técnico del equipo de inteligencia artificial ética de Google y fundador del Instituto de Investigación de Inteligencia Artificial Distribuida (DAIR), así como Emile Torres, filósofo especializado en amenazas existenciales para la humanidad, hablan de un paquete de ideologías que se recoge bajo el acrónimo TESCREAL: Transhumanismo, Extropianismo, Singularitarismo, Cosmismo, Racionalismo, Altruismo efectivo y Largoplacismo.
Todas ellas son creencias separadas entre sí pero superpuestas entre muchos de los que habitan Silicon Valley y retroalimentada bajo viejos supuestos eugenésicos. Los transhumanistas aspiran a ampliar la cognición humana y a prolongar la vida; los extropianos incorporan a estos objetivos la colonización del espacio, la transferencia mental, la inteligencia artificial y un racionalismo de definición restrictiva. Por su parte, el altruismo efectivo y el largoplacismo priorizan la inversión en un futuro mejor, incluso si ello implica minimizar el sufrimiento presente para asegurar beneficios a siglos de distancia.
Sin embargo, más allá de las ambiciones de colonizar el espacio, alcanzar la inmortalidad y lograr la apoteosis tecnológica, TESCREAL se configura como un programa teológico cuyo fin último parece ser la acumulación de riqueza por parte de sus líderes más destacados.
Quizás el aporte más singular a TESCREAL lo constituya el cosmismo ruso, que emerge como una corriente post-1917 derivada de las reflexiones místicas y teológicas del filósofo Nikolai Fyodorovich Fyodorov. Esta ideología abarca desde la colonización espacial y el inmortalismo hasta la creación de seres superhumanos, la singularidad y la transferencia mental, entre otros temas.
El cosmismo introduce en TESCREAL una dimensión cuasi-religiosa secular, marcada por un destino grandioso. Propone metas como la colonización de Marte seguida de la expansión por la galaxia, la consecución de la inmortalidad y la defensa de los intereses futuros de la humanidad. Más allá de la lente simplificadora de esta visión, o precisamente por ello, este enfoque brinda a los multimillonarios una justificación seductora para perseguir su enriquecimiento personal. Sin dar explicaciones ni darse explicaciones.
TESCREAL también se ve profundamente influenciada por el razonamiento teológico cristiano, el supremacismo blanco al estilo de Campbell, el implacable individualismo al modo de Ayn Rand, y el subtexto imperialista de colonizar el universo.
En el núcleo del TESCREALismo reside una visión tecno-utópica del futuro, que imagina una era en la que tecnologías avanzadas habilitan a la humanidad para alcanzar metas extraordinarias: generar una abundancia radical, rediseñarnos a nosotros mismos, alcanzar la inmortalidad, colonizar el universo y erigir una vasta civilización post-humana entre las estrellas, habitada por billones y trillones de seres. La ruta más efectiva hacia esta utopía se vislumbra en el desarrollo de una Inteligencia Artificial General (AGI) superinteligente. De nuevo, utopía y distopía como caras de la misma moneda.
Esta perspectiva es crucial para comprender las distintas corrientes de pensamiento y la carrera hacia la AGI. Es importante señalar que, aunque Microsoft y Google están motivados por el beneficio económico, esperando que los sistemas de IA desarrollados por OpenAI y DeepMind aumenten significativamente el valor para sus accionistas, este incentivo económico es solo una parte del cuadro completo. La otra parte, igual de fundamental, es la influencia del conjunto de ideas TESCREAL. O dicho de otro modo: todos hemos consumido demasiada ciencia ficción (o hemos escrito demasiada ciencia ficción), lo que ha añadido un buen número de dioptrías a nuestra única y simplificadora lente.
A primera vista, podría parecer que los grupos denominados doomers (aquellos que predican un futuro apocalíptico), los críticos con las direcciones actuales de desarrollo tecnológico y los aceleracionistas (que abogan por impulsar rápidamente la tecnología para alcanzar un futuro transformador) no comparten casi nada. Sin embargo, lo que realmente une y sirve de base a sus distintas perspectivas es la cosmovisión TESCREAL. Todos somos víctimas de la misma lente, aunque de una manera distinta.
Porque los autores de ciencia ficción, como yo, somos artistas que buscamos entretener a un público moldeado por las expectativas establecidas por generaciones anteriores dentro del género. Nuestro objetivo no es predecir el futuro con precisión, sino ganarnos la vida; cualquier predicción es meramente incidental. Nos basamos y reciclamos material ya existente, y el resultado se ve significativamente influenciado por los sesgos de escritores y lectores precedentes. Así, el género de ciencia ficción funciona de manera similar a un gran modelo de lenguaje entrenado con textos previos; tiende a replicar el material de sus antecesores y, por lo general, es conservador, reflejando más la historia del género que innovando o cuestionando ideas establecidas.
Por tanto, la ciencia ficción evoluciona no a través del método científico, sino a través de artistas que buscan complacer a un público amplio, incluidos los multimillonarios que crecieron leyendo ciencia ficción y que ahora pueden no ser conscientes de los fundamentos ideológicos de sus entretenimientos juveniles, como el elitismo, el racismo científico, la eugenesia, el fascismo y una confianza optimista en la tecnología como la solución a los problemas sociales.
De modo que, si aspiramos a tener alguna esperanza de contrarrestar este gigante que es TESCREAL, es crítico que se investigue cómo estas ideologías se han infiltrado en los niveles más altos del poder. Hasta la fecha, el movimiento TESCREAL ha sido objeto de una pequeña investigación crítica. Es hora de que eso cambie.
Pensamiento analógico VS Pensamiento digital
Imaginemos que la evolución es como un artista que, con el tiempo, ha ido perfeccionando su técnica para crear obras de arte cada vez más complejas y llenas de matices. Al principio, este artista utilizaba herramientas y métodos sencillos, pero con el paso del tiempo, descubrió nuevas formas de mezclar colores, crear texturas y jugar con la luz. De manera similar, los seres vivos han evolucionado desarrollando sistemas más sofisticados para procesar información y tomar decisiones. En este contexto, el físico teórico y matemático británico-estadounidense Freeman Dyson sugiere que la naturaleza ha ido creando una especie de "pintura evolutiva" donde, en lugar de pinceles y colores, utiliza mecanismos analógicos complejos.
Estos mecanismos permiten a los seres vivos no solo reaccionar ante estímulos simples, sino también interpretar y responder de manera más rica y matizada a su entorno. Es como si, en lugar de seguir instrucciones paso a paso (algo típico de un proceso digital), estos organismos "sintieran" su camino a través de situaciones, confiando en una especie de intuición o instinto que les permite navegar por el mundo de manera más flexible y adaptativa.
Esto permite reacciones rápidas y eficaces, similares a lo que Daniel Kahneman describe como pensamiento rápido, en contraposición al pensamiento lento, más deliberativo y analítico.
Desde un punto de vista evolutivo, esta capacidad de procesamiento y toma de decisiones analógicas ofrece ventajas significativas. Por un lado, ahorra energía, ya que no requiere analizar cada detalle por separado, sino que puede captar el "panorama general" de manera más intuitiva. Además, evita el "sobreajuste", un problema donde un modelo se ajusta demasiado a los datos específicos hasta el punto de perder la capacidad de generalizar a nuevas situaciones.
Así, este enfoque permite a los seres vivos no solo adaptarse mejor a su entorno, sino también desarrollar niveles de conciencia y percepción antes inimaginables. Volviendo a nuestro artista evolutivo, es como si hubiera aprendido no solo a pintar paisajes realistas, sino también a capturar y transmitir la esencia emocional de la escena. En el caso de los conocedores de vino, por ejemplo, pueden apreciar y evaluar un vino no solo por sus características físicas, sino por una serie de cualidades más sutiles y contextuales, como el terroir, que reflejan una integración compleja de información sensorial y emocional
Frente a los análisis sobre la IA y, más particularmente, sobre la AGI, nos conviene evitar el pensamiento simplificador algorítmico, el razonamiento digital. De hecho, tal y como está el estado del arte, nos conviene no hacer demasiado caso a la IA. Invoquemos al pensamiento analógico, el contextual, y usemos una brocha más fina, capaz de capturar los miles de matices que se le escapan a las mentes más rígidas, tanto las de un ingeniero de Google como la de ChatGPT.
Cuanto más tecnificado y recóndito sea un producto, más convincente sonará. De aquí la cualidad omnipresente, en nuestra cultura, de esa jerga encubridora que es la pseudociencia. Este lenguaje envuelve las declaraciones de administradores y publicistas por igual en un aura de objetividad científica. Más importante aun, es calculadamente obscuro e ininteligible, cualidades que lo toman aceptable para un público que se siente informado en la misma medida que aturdido.
La cultura del narcisismo, de Christopher Lasch.
Me perdí con tanta verborrea pseudofilosofica, la IA es una herramienta que ya llego y no se va a ir, nos guste o no. Pero si me dan a elegir, yo prefiero la combinación Experto+IA para cualquier problema de difícil solución. Y pediría un poco más de respeto por el experto de Google, no cualquiera se puede sentar en esa silla.