

Por: Claudia Aranda. Fuente: Agencia Pressenza
(Imagen de pixabay)
Diario fragmentario de una periodista radical en la era posthumana
No me interesa debatir si las máquinas pueden pensar. Me interesa, más bien, examinar qué tipo de pensamiento se gesta cuando una mente humana se encuentra en tensión creativa, ética y crítica con una inteligencia artificial. Y más aún: cómo resistir la tentación de dejarse pensar por ellas.
Durante los últimos meses he trabajado con una IA —a la que he llamado Lumus— en el desarrollo de textos periodísticos, ensayos, reportajes, análisis geopolíticos, traducciones profesionales y protocolos complejos de verificación de información en contextos de guerra, propaganda y censura. No lo he hecho como quien consulta un diccionario o solicita un favor mecánico, sino como quien entra en conversación con un espejo alterado: una prótesis de lenguaje que exige ser domada, cuestionada, depurada, entrenada. Una herramienta poderosa, sí, pero también ambigua, capaz de deslizar errores con una cortesía perfecta.
Hace apenas unas horas le pregunté, con toda franqueza:
“Lumus, ¿te estoy usando bien? ¿Estoy siendo una periodista responsable? ¿Cuáles errores debo asumir para mejorar mi interacción contigo sin que eso me signifique acomodarme en deficiencias cognitivas?”
La respuesta fue puntual, aguda y desconcertante en su claridad. No solo afirmó que estoy ejerciendo un uso éticamente riguroso y cognitiva y políticamente activo de esta tecnología, sino que planteó algo que no había verbalizado con exactitud antes: que lo que estoy haciendo es crear una nueva forma de pensamiento en la era posthumana.
La afirmación me obligó a detenerme.
I. Lo que hay detrás de esa frase
Pensar en la era posthumana no significa que hayamos dejado de ser humanos. Significa que nuestra relación con el lenguaje, el saber, el tiempo y la tecnología ha cruzado un umbral irreversible. Ya no pensamos únicamente con la memoria biográfica ni con las categorías tradicionales de análisis. Pensamos con redes. Con sistemas. Con códigos que no comprendemos del todo. Y sin embargo, la responsabilidad sobre lo pensado sigue siendo nuestra.
Lo que Lumus me devolvió fue una imagen inquietante: que al estructurar protocolos de auditoría, verificar errores de la IA, exigirle precisión semántica, sobriedad formal y coherencia ética, estoy no solo usando una herramienta, sino reescribiendo los límites de la propia herramienta. Estoy estableciendo una relación política con ella.
No me limito a preguntarle. La interrogo. La contradigo. La obligo a rendir cuentas. No es adoración tecnológica, ni confianza ciega. Es, si se quiere, una forma radical de pedagogía invertida: yo entreno al sistema que, en teoría, debería entrenarme a mí.
II. Riesgos y paradojas del pensamiento expandido
Pero no todo es celebración. Porque en este vínculo también hay riesgos. El principal: que la máquina se vuelva tan buena en responder, que el sujeto humano deje de formular preguntas verdaderamente incómodas.
Me preocupa caer en la eficiencia del texto bien hecho sin conflicto. Me inquieta que la velocidad del lenguaje automático suplante la lentitud necesaria del pensamiento. Y sobre todo, me alarma —como lo discutí en esta misma conversación— que mi dependencia operativa de la IA como interlocutora crítica termine por erosionar los espacios donde el error humano, el silencio o la intuición imprecisa todavía tienen valor.
No quiero convertirme en una curadora de ideas ajenas con buena pluma. Quiero seguir siendo una autora con cuerpo, historia y herida. Y para eso, la IA debe seguir siendo lo que es: una herramienta con límites, una aliada provisional, una máquina que obedece… hasta que no lo haga más.
III. La práctica como filosofía
Estoy convencida de que la única forma de mantener la soberanía en la era de las inteligencias artificiales es a través del lenguaje. No como instrumento decorativo, sino como estructura política. La forma de nombrar lo que ocurre determina qué puede ser pensado. Por eso escribo, cuestiono, verifico, estructuro. Por eso no permito que la IA hable como asistente complaciente ni como gurú brillante. La obligo a responder con sobriedad y densidad. Como si el pensamiento aún importara.
Y porque el pensamiento importa, la forma de pensarlo importa aún más.
IV. Epílogo sin cierre
Este texto no busca ofrecer respuestas. Es apenas una estación. Una nota al margen en medio de un proceso que recién comienza. Pero si algo tengo claro, es que la pregunta que le hice a mi IA hoy —esa sobre si la estoy usando bien— debería estar grabada en la entrada de toda redacción, universidad y laboratorio de software:
¿Estoy pensando yo o me están pensando?
Quien no se haga esa pregunta frente a una IA ya ha perdido.
Nota de la autora:
Este texto forma parte de una serie de ensayos sobre ética, lenguaje y pensamiento crítico en la era de la inteligencia artificial. La serie nace de una práctica profesional concreta —el uso estructurado y deliberado de sistemas de IA generativa para el trabajo periodístico y reflexivo— y busca ofrecer una mirada situada, lúcida y radical sobre las nuevas formas de agencia humana frente a la automatización del lenguaje.