
Ronald Forero-Álvarez, Universidad de La Sabana
La reciente publicación del libro Hipnocracia: Trump, Musk y la nueva arquitectura de la realidad ha sacudido el mundo académico. No lo ha hecho solo por sus tesis sobre la manipulación política y mediática, ejercida mediante el poder y las fantasías, sino por el descubrimiento de su origen “real”.
Jianwei Xun, el supuesto autor, resultó ser una quimera. La periodista Sabina Minardi del diario L’Espresso reveló que Andrea Colamedici, un profesor italiano, había creado el texto y la identidad del autor con inteligencia artificial generativa. El hecho generó un debate sobre la producción del conocimiento, el reconocimiento de la realidad y la responsabilidad autoral.
La declaración de Colamedici sobre el asunto causa aún más asombro:
“Nunca he querido construir una mentira ni hacer una burla para demostrar que los periódicos no son capaces de controlar la información. Me interesaba realizar una performance narrativa que construyera la misma realidad que el libro analizaba teóricamente”.
La expresión “performance narrativa” abre una serie de interrogantes. ¿Puede la IA considerarse coautora? ¿Qué valor tiene en estos casos el conocimiento? ¿Importan más las ideas o su transmisión escrita? ¿Si las ideas son válidas, cambia en algo si quien escribe es una persona o un algoritmo?
Estas preguntas nos trasladan a la autoría en los diálogos de Platón. En la mayoría de los atribuidos al filósofo, la voz principal es la de su maestro Sócrates, quien se negó a dejar obra escrita. Platón lo convierte en personaje para transmitir sus ideas y desarrollar un sistema filosófico.
No obstante, a medida que su pensamiento madura, Sócrates pierde protagonismo hasta que desaparece en Las Leyes, considerado su último diálogo. Teniendo en cuenta esta singularidad y algunas semejanzas con el caso de Colamedici-Xun, podemos preguntarnos ¿qué ideas son de Sócrates y cuáles de Platón? ¿Fue Sócrates catalizador de una performance platónica?
Persuasión aristotélica
En el caso de Hipnocracia, Colamedici diseñó un personaje bastante particular pero vendedor: un pensador chino que acuña un término con raíces griegas –hypno-(“sueño”) y –kratía (“gobierno, poder”)“– para criticar a Trump y Musk, figuras occidentales poderosas en el ámbito político y económico. Dejó la voz y el tono en «manos” de la inteligencia artificial partiendo de investigaciones previas, lo que implicaba la construcción de un discurso a base de probabilidades algorítmicas.
¿El resultado? Los lectores especializados y no especializados no solo aceptaron la propuesta, sino que la celebraron. El producto era justamente lo que la gente quería oír, de quien lo quería oír, en el momento indicado.
El libro reúne las tres pruebas de persuasión que pueden obtenerse mediante un discurso, de acuerdo con Aristóteles en su Retórica: “unas residen en el talante del que habla, otras en predisponer al oyente de alguna manera y, las últimas, en el discurso mismo, merced a lo que éste demuestra o parece demostrar”.
De esta manera, el ethos (“credibilidad”) es la figura de autoridad oriental que respalda las afirmaciones filosóficas; el pathos (“emoción”) son las pasiones que despiertan las figuras de Trump y Musk en la actualidad; y el logos (“razón”) son los postulados de Hipnocracia coherentes con la situación actual.
Parecería que el problema es solo una cuestión de mercadeo. ¿Pero entonces qué es lo que genera tanta controversia? La fiabilidad y la validez de las afirmaciones, así como la facilidad de caer en un engaño.
Fantasías más allá de la tecnología
Ya en ocasiones anteriores a las IA, discursos falsos que parecían verdaderos lograron engañar a la comunidad científica.
En 1996, el físico Alan Sokal quiso demostrar la falta de rigor académico de ciertas revistas científicas. El “escándalo Sokal” consistió en la publicación de un artículo deliberadamente absurdo en Social Text. Según Sokal, su propósito fue poner a prueba los estándares intelectuales predominantes mediante un artículo salpicado de disparates, pero que sonara bien y favoreciera las preconcepciones ideológicas de los editores.
Similar fue el caso del generador automático de artículos científicos SCIgen, creado por investigadores del MIT, con el que se han logrado publicar varios textos en revistas científicas. Los artículos están registrados en su página web y ponen al descubierto el negocio detrás de este tipo de publicaciones.
Un elemento más se suma a esta entelequia: la apariencia real de las cosas creadas por una IA.
El fotógrafo Jos Avery confesó en 2023 que sus retratos virales en Instagram habían sido hechos por una IA. Otro caso reciente fue el de Rie Kudan, ganadora del prestigioso premio literario Akutagawa, quien aseguró que el “5 %” de su novela había sido escrita con ayuda de ChatGPT.
Los casos anteriores indican que cada vez es más difícil distinguir los productos de las IA, lo cual remite a otro principio socrático-platónico expresado mediante su famosa “alegoría de la caverna”.
Una nueva caverna platónica
Platón –o Sócrates– narra en el libro VII de La República cómo un prisionero que se encuentra en el fondo de una caverna es liberado y puede ver la luz cuando sale de ella. En el camino se da cuenta de que toda su vida había pensado que la realidad eran las sombras proyectadas en el muro de su celda. Consciente de ello, regresa para revelarles a sus compañeros de prisión el engaño en el que han vivido, pero estos no le creen y terminan por asesinarlo.
La alegoría muestra cómo el mundo, captado e interpretado únicamente a través de los sentidos, puede engañarnos, por lo que la razón tiene que intervenir en el proceso de análisis de lo que percibimos. De ahí que, como cada vez es más difícil distinguir lo hecho por las IA, pareciera que se nos estuviera recluyendo en una nueva caverna y estuviéramos conformes con el mundo de apariencias que se nos representa.
Este fenómeno parece ya estar pasando. El director de l’Espresso, Emilio Carelli, declaró:
“Si las tesis del libro son correctas, o al menos han sido capaces de encender un animado debate cultural que ha involucrado a intelectuales y filósofos […] ¿qué importa que la haya escrito la inteligencia artificial? ¿O, como en este caso, si han sido cocreadas con la IA?”.
Un aspecto fundamental que debemos tener en cuenta es que las IA no son neutrales. Sus respuestas contienen los sesgos y las intenciones de quienes las programan, así como las estructuras de poder que las determinan. El riesgo de aceptar sin criterio este tipo de sombras “oníricas” –reelaborando el planteamiento de Hipnocracia– no está solamente en lo que dicen, sino en lo que ocultan. La falta de una persona en la autoría libra de toda responsabilidad al discurso ante las consecuencias de sus afirmaciones y esconde sus motivaciones intrínsecas.
El caso Hipnocracia no solo llama la atención sobre los límites difusos de la autoría y la coautoría en la era digital. También nos invita a recuperar el espíritu que fundamenta la filosofía y a preguntarnos siempre quién habla, por qué lo dice y qué verdad hay en ello, tal como los eruditos han hecho al cuestionar hasta qué punto la obra de Platón refleja realmente el pensamiento de Sócrates.
Igualmente, surge la pregunta de si seguimos siendo capaces de distinguir entre lo auténtico y lo que no lo es en un mundo donde lo artificial puede sonar verosímil, conmovedor y razonable. El auge de las IA pone a prueba la capacidad de discernimiento de los seres humanos. Debemos recordar en todo caso que hay una salida de la caverna: pensar, reflexionar y tomarse el tiempo para comprender lo que nos rodea es el primer paso del camino que lleva a la luz del conocimiento verdadero.
Ronald Forero-Álvarez, Filólogo clásico, Universidad de La Sabana
Este artículo fue publicado originalmente en The Conversation.
Descubre más desde Isidora Canarias
Suscríbete y recibe las últimas entradas en tu correo electrónico.