Y me refiero al hecho de que las nuevas tecnologías de la información y la comunicación, y más recientemente la Inteligencia Artificial, puedan convertirnos en una especie ociosa que no tenga en nada que pensar. Es fundamentalmente crítico que recuperemos la necesidad de que el factor humano vuelva a ser el eje no solo de la convivencia entre nosotros, sino de la manera de percibir el mundo y de interpretarlo. Hay que volver al pensamiento y a la reflexión humana, no podemos abandonar nuestro espíritu creativo a las máquinas: podrán ayudarnos mucho, si, como siempre lo han hecho, pero no debemos delegar absolutamente la gestión del conocimiento a las máquinas.
Albert Einstein decía que "la educación no consiste en aprender los hechos, sino en entrenar la mente para pensar".
La gran paradoja de nuestro conocimiento actual se resume en un ejemplo: si hoy alguien abre una tumba egipcia es casi capaz de seguir la lectura de lo que allí esta escrito. Todavía se están interpretando, por ejemplo, papiros que quedaron quemados en las bibliotecas de Pompeya o Herculano. Hoy tenemos más disponibilidad y acceso a la cultura que nunca antes en la historia de la Humanidad, sin embargo.. ¿quién podría leer hoy los textos guardados en un disco de 3 pulgadas y media de los inicios de la era de los ordenadores? Si dentro de 1.000 años encontraran algunos discos duros de la actualidad solo servirían para colocarlos en la estantería de algún museo, y serían inaccesibles.
Hay otra paradija que nos puede describir el futuro hacia el que podemos ir si depositamos todo nuestro acervo en las m´quinas pensantes. Albert Einstein también decía que la memoria es la inteligencia de los tontos, y ya sabemos que las máquinas tienen mucha más memoria que los humanos, pero el filósofo Immanuel Kant también decía que "se mide la inteligencia de un individuo por la cantidad de incertidumbres que es capaz de soportar". Vamos a ver cuanta incertidumbre es capaz de tolerar una máquina en el futuro, especialmente cuando los humanos decidan no compartir cierta información con las máquinas para evitar que otros puedan adoptar decisiones acertadas.
Precisamente los servicios de inteligencia de todo el mundo están regresando al factor humano, especialmente por la desconfianza que generan las nuevas tecnologías, que facilitan las transmisión de la información de manera inconveniente. Un mail, un mensaje de WhatsApp o un pen-drive han llevado a la cárcel a muchos. Solo tenemos que fijarnos en lo les ha ocurrido a todos los integrantes de la llamada “Koldosfera”….. La mejor manera de preservar la seguridad de una informaci´no es no compartirla con nadie, algo que multiplica por 1.000 las posibilidades de riesgo y de fracaso si se emplean herramientas tecnológicas, todas ellas fácilmente accesibles.
Hoy en día la inteligencia artificial (IA) ya no es una promesa futurista: es la infraestructura invisible que sostiene decisiones cotidianas, desde recomendaciones médicas hasta juicios crediticios y estrategias empresariales. Modelos avanzados procesan volúmenes de datos inimaginables, generan código autónomo y optimizan procesos a velocidades que superan con creces la capacidad humana.
Sin embargo, esta omnipresencia plantea el mayor desafío de nuestra era: ¿cómo evitar que la IA nos controle en lugar de servirnos? ¿Cómo diseñar herramientas y protocolos que garanticen que el factor humano siga siendo imprescindible?
El riesgo de perder el control no es ciencia ficción especulativa. La dependencia creciente de sistemas autónomos crea vulnerabilidades sistémicas. Cuando una IA toma decisiones críticas sin supervisión efectiva, errores o sesgos se amplifican a escala masiva. Ejemplos incluyen algoritmos que discriminan en contrataciones o diagnósticos médicos, o modelos manipulados por "poisoning" de datos que distorsionan la percepción pública.
Aunque las predicciones más alarmantes sobre superinteligencia —capaz de auto-mejorarse hasta superar a la humanidad— se han retrasado hacia la década de 2030, el problema de alineación persiste: ¿cómo aseguramos que una IA potente persiga objetivos humanos sin interpretaciones peligrosas?
Y más aún… ¿resulta conveniente que toda la información esté en todo momento disponible para todo el mundo? o… ¿debe haber restricciones? ¿Quién y cómo establecerá los límites?
El verdadero reto radica en la inercia económica y tecnológica. Las empresas compiten por eficiencia y escala, lo que incentiva delegar cada vez más autoridad a la IA. En sectores como finanzas, logística o defensa, los sistemas autónomos ya superan a los humanos en velocidad y consistencia. Esta dinámica crea un círculo vicioso: cuanto más dependemos de la IA, más difícil resulta revertir la delegación. Escapar al control requiere romper esta lógica, priorizando la soberanía humana sobre la optimización inmediata. De hecho, la velocidad en la toma de alguna decisión puede generar a su vez una debilidad o un nuevo riesgo, imaginemos estas decisiones en un campo de batalla, pueden resultar catastróficas por precipitadas.
Las regulaciones emergentes representan el primer intento estructurado de respuesta. El Reglamento de Inteligencia Artificial de la Unión Europea (EU AI Act), en vigor desde agosto de 2024 y plenamente aplicable para sistemas de alto riesgo en agosto de 2026, clasifica la IA por niveles de riesgo y prohíbe prácticas inaceptables como el scoring social o la vigilancia biométrica en tiempo real.
Este marco obliga a evaluaciones de conformidad, transparencia y auditorías para sistemas de alto riesgo, y establece sandboxes regulatorios nacionales para probar innovaciones de forma controlada. A nivel global, 2026 se perfila como el año de la gobernanza de IA: marcos como ISO 42001 enfatizan transparencia, accountability y supervisión humana, mientras diálogos multilaterales en la ONU buscan normas compartidas, aunque sin tratados vinculantes que limiten usos militares o de vigilancia masiva.
Pero qué duda cabe que la IA nos ha superado ya mismo, y solo acaba de comenzar su desarrollo. Podríamos decir que está en embrión.
Por eso la regulación sola no basta. Se necesitan protocolos técnicos y organizativos que integren al humano de forma obligatoria. El enfoque "human-in-the-loop" (HITL) emerge como pilar esencial: en lugar de sistemas totalmente autónomos, la IA propone opciones y el humano valida, corrige o decide en casos ambiguos.
Esto se aplica en dominios sensibles: en medicina, un modelo diagnostica pero el médico confirma; en justicia, una herramienta analiza patrones pero el juez interpreta contexto ético. El diagrama de Venn que compara capacidades humanas y de IA ilustra por qué este enfoque es irremplazable: los humanos aportan accountability, creatividad, empatía, juicio ético y ética, mientras la IA ofrece velocidad, escala y consistencia.
Otro protocolo clave es la IA explicable (XAI). Los modelos actuales son "cajas negras"; protocolos obligatorios de interpretabilidad —como mapas de atención o contraejemplos— permiten auditar por qué una decisión fue tomada. Esto, combinado con auditorías independientes y métricas de robustez ante ataques adversarios, reduce el riesgo de manipulación oculta.
La educación y la alfabetización en IA son igualmente críticas. En 2026, empresas y gobiernos deben implementar programas masivos para que profesionales entiendan límites, sesgos y riesgos de la IA. Sin ciudadanos y trabajadores capacitados, la supervisión humana se vuelve nominal: un humano que no comprende el sistema no puede controlarlo. Pero para la inmensa cantidad de los empleados, públicos o privados, la IA se ha convertido ya en una herramienta cotidiana que solo comprenden por su fácil manejo y su usabilidad, una herramienta incluso imprescindible que se emplea incluso para cuestiones estúpidas como manipular una foto para subirla a redes sociales, o hacer chistes para enviar a amigos por WhastApp. La IA convive ya con nosotros y nos hemos habituado a su manejo, desinhibiendonos de cualquier responsabilidad o trascendencia.
Es urgente y necesario que algunos sectores, como la Defensa y la Seguridad principalmente,pero también los vinculados al Gobierno, preserven el factor humano y redefinan roles.
La IA debe automatizar tareas repetitivas, liberando a las personas para actividades que requieren juicio moral, innovación creativa y conexión emocional. Y para eso tendrán una utilidad necesaria e infinita que mejorará con el tiempo.
Pero sectores como el arte, las terapias, la diplomacia o el liderazgo político deberían seguir dependiendo de la intuición y empatía humanas. Protocolos como "human veto" en sistemas autónomos o "red teams" éticos que simulan escenarios adversos pueden institucionalizar esta prioridad.
El camino no va a ser nada fácil y podemos vaticinar costes irreparables para algunos Estados u organizaciones humanas, como empresas, universidades o laboratorios de investigación, donde los costes podrán ser altísimos.
La competencia geopolítica —entre EE.UU., China y la UE— presiona por rapidez sobre seguridad. Pero 2026 ofrece una ventana: la superinteligencia no es inminente, y la gobernanza está ganando tracción. Si implementamos regulaciones estrictas, protocolos HITL, transparencia obligatoria y educación masiva, podemos escapar al control pasivo y hacer que la IA sea una herramienta poderosa, pero subordinada.
El factor humano no es un obstáculo a la innovación; es su garantía última. Mantenerlo imprescindible no es nostalgia: es estrategia de supervivencia en una era donde la inteligencia artificial puede ser más capaz, pero nunca más humana.