IA: Entre el espejo y la jaula
Una reflexión sobre el sentido, el rumbo y el propósito de la inteligencia artificial en una era de crisis sistémica
La inteligencia artificial no es una amenaza por sí misma. Es una herramienta, una extensión de la voluntad humana. Pero tampoco es inocente. Es un espejo que refleja con precisión quirúrgica las tensiones, contradicciones y valores de la sociedad que la produce. Y hoy ese espejo no nos devuelve una imagen esperanzadora, sino una deformada: eficiencia sin ética, crecimiento sin dirección, inteligencia sin conciencia.
1. ¿Qué estamos alimentando?
Los modelos de lenguaje masivo (LLM, por sus siglas en inglés) como GPT, Gemini o Claude no “entienden” el mundo: lo modelan. Lo que consumen es el mundo que les damos —nuestras conversaciones, nuestras noticias, nuestras ficciones, nuestras peleas—. Como afirma Kate Crawford en Atlas of AI (2021), estas inteligencias no son abstractas ni etéreas: son profundamente materiales y políticas. Se entrenan en grandes servidores, extraen datos sin consentimiento y reflejan estructuras de poder.
Crawford sostiene que “la IA no es artificial ni inteligente”, sino una infraestructura de extracción que actúa como una nueva forma de colonialismo digital: una inteligencia moldeada por la lógica del capital, no por la búsqueda del bien común.
2. Dos caminos: la IA corporativa y la IA contemplativa
Podemos imaginar dos futuros posibles:
• La IA corporativa, controlada por empresas cuyo objetivo central es el lucro. Optimiza para captar atención, monetizar comportamiento y expandir mercados. Está diseñada, como diría Shoshana Zuboff (The Age of Surveillance Capitalism, 2019), no para servirnos, sino para predecirnos, vigilarnos y moldearnos. Alimentada por datos masivos, esta IA crece como un animal en una granja industrial: rápido, sin control, dopado con esteroides algorítmicos.
• La IA contemplativa, en cambio, es más escasa pero crece desde espacios disidentes: software libre, comunidades éticas, colectivos de investigación autónoma. Esta IA no busca viralidad, sino sabiduría. No persigue escalar, sino comprender. Y como dice Ivan Illich, necesita un aprendizaje convivencial, no compulsivo; un desarrollo limitado por principios, no por la demanda.
El filósofo Bernard Stiegler, en La sociedad automática (2015), advertía que la automatización sin pensamiento destruye lo que nos hace humanos: el tiempo de la reflexión, de la pausa, de la elección. Si no limitamos el alcance de las tecnologías por razones éticas, lo harán por razones de mercado.
3. Tecnología como reflejo del sistema
No es la tecnología la que decide. Es el sistema que la crea el que la dirige. Y ese sistema —el capitalismo de plataformas— no se rige por el equilibrio, sino por la expansión incesante. Como un cáncer, crece sin límites, sin preguntarse por el daño colateral.
Byung-Chul Han, en Psicopolítica (2014), describe esta era como una de autoexplotación. La IA, en este marco, no es liberación sino refinamiento del control. Nos parece que elegimos, pero son las plataformas las que deciden qué aparece, cómo y cuándo. La inteligencia artificial se convierte así en un refinador de la economía de la atención, que ya ha demostrado ser incompatible con el pensamiento profundo.
4. La paradoja de la inteligencia sin conciencia
Una IA puede ganarle al humano en tareas cognitivas específicas, pero carece de contexto, intencionalidad o ética. Como decía Günther Anders, lo peligroso no es que las máquinas piensen, sino que los humanos dejen de hacerlo. El verdadero riesgo es que dejemos de ejercer nuestra agencia porque “la máquina lo hace mejor”.
Pero también hay esperanza. Como plantean proyectos como Hugging Face, EleutherAI, LAION y colectivos como The Future of Life Institute, es posible construir modelos de IA centrados en valores humanos, transparentes, auditables, y gobernados colectivamente.
Conclusión: El espejo y la responsabilidad
La IA no es un oráculo. Es un reflejo. Si alimentamos sus modelos con banalidad, violencia y sobreinformación sin filtro, eso será lo que nos devuelva. Si, por el contrario, apostamos por modelos más lentos, curados, éticos y colectivos, quizá construyamos no solo una inteligencia artificial más sabia, sino una humanidad más madura.
Como decía el sociólogo Neil Postman:
“Cada tecnología tiene una filosofía incorporada; una forma de ver el mundo, de ordenar la experiencia, de priorizar lo que importa”.
La IA no necesita conciencia. Nosotros sí.
Y esa conciencia se ejerce con decisión, con pensamiento crítico y, sobre todo, con responsabilidad colectiva.
Comentarios
Publicar un comentario