Luis Fernando Ibarra *
¿Estamos al borde de la mayor revolución tecnológica de la historia, o estamos a punto de abrir la caja de Pandora? Por un lado, titanes de la tecnología como Bill Gates y Samuel Altman nos prometen un futuro brillante donde la Inteligencia Artificial (IA) resolverá problemas impensables, desde curar enfermedades hasta erradicar la pobreza. Por el otro, pioneros de la talla de Geoffrey Hinton y Norbert Wiener nos lanzan advertencias apocalípticas, sugiriendo que esta misma tecnología podría ser una amenaza existencial para la humanidad. Mientras el mundo se divide entre el optimismo y el miedo, la IA ya no es una promesa futurista; es una realidad que está redefiniendo cada aspecto de nuestras vidas. Pero, ¿qué hay detrás de estos poderosos modelos? ¿Son realmente «inteligentes» o solo una simulación extraordinariamente convincente? ¿Y qué ocurre si, en nuestra fascinación por crear una mente artificial, estamos cediendo el control de nuestra propia inteligencia y, en última instancia, de nuestro destino humano? ¿Pueden surgir entes perversos de los programas de IA? ¿Por qué espanta a científicos? Aquí exploro estas visiones contrapuestas y la vertiginosa realidad de la IA, desde sus orígenes hasta los dilemas éticos y sociales que nos obligan a reevaluar todo lo que creíamos saber sobre lo que significa ser consciente.
La conferencia de Dartmouth y el inicio formal de la IA
El origen de la Inteligencia Artificial, (IA), puede ser rastreado en la mitología y entre artesanos de burdos mecanismos creados para imitar movimientos humanos. La idea de construir dispositivos que actúen inteligentemente se remonta a leyendas antiguas sobre autómatas. Sus cimientos se establecieron antes de que la tecnología digital permitiera su implementación práctica. Sin embargo, el campo de la IA, tal como lo conocemos hoy, comenzó a tomar forma a mediados del siglo XX. Las predicciones de Alan Turing sobre las máquinas inteligentes en los años 50, aportaron bases conceptuales para su posterior desarrollo. El inglés Turing, condenado y castrado químicamente por heredar la variabilidad universal presente en toda obra divina, en 1950 propuso su test como criterio para inferir inteligencia. En 1956 un grupo de científicos del Darmouth College, USA, evaluaron las posibilidades de crear máquinas inteligentes. Liderados por el matemático John McCarthy, investigadores pioneros como Marvin Minsky, Claude Shannon y Nathaniel Rochester, exploraron la posibilidad de construir máquinas que simularan cualquier aspecto de la inteligencia humana. Esos gigantes universitarios dieron formal nacimiento al campo de investigación denominado como Artificial Intellegence.
Primeros logros y desafíos
Los primeros programas de IA se centraron en tareas como la resolución de problemas lógicos, el ajedrez y la demostración de teoremas. Por ejemplo, el Logic Theorist (1956), desarrollado por Allen Newell, Herbert Simon y J.C. Shaw, fue uno de los primeros programas capaces de imitar la capacidad de razonamiento humano para resolver problemas matemáticos. A finales de los años 50 y durante los 60, surgieron los sistemas expertos, que buscaban emular el conocimiento de especialistas en determinados dominios. Estos sistemas almacenaban información tomada a versados profesionales, para luego mediante algoritmos de programación presentarla en pantalla para apoyar la toma de decisiones, diagnósticos o consultas. Un ejemplo notable fue DENDRAL (1965), un programa que ayudaba a químicos a identificar complejas estructuras moleculares.
Sin embargo, los proyectos de avance resultaron frenados por la limitación del poder computacional, la escasez de datos y la dificultad para manejar la complejidad del mundo real. Los sistemas expertos presentaron dificultades para escalar más allá de sus limitados dominios. Aun así, la investigación continuó en diversas áreas, como el aprendizaje automático (Machine Learning), que se enfocaba en permitir que las máquinas aprendieran de los datos sin ser programadas explícitamente para cada tarea. El desarrollo de algoritmos como las redes neuronales artificiales definió cimientos para el resurgimiento de la IA en décadas posteriores, aunque su verdadero potencial no se manifestaría hasta que la capacidad computacional fuese aceptable. Los primeros pasos de la IA fueron cruciales para establecer las bases teóricas y algorítmicas que inducen su actual desarrollo. Desde mediados del siglo XX, la IA ha evolucionado desde simples programas de lógica y reglas, hasta sistemas complejos que aprenden y adaptan.
Visionario padre de la cibernética
Entre los titanes pioneros de la IA aparece Norbert Wiener, matemático estadounidense, considerado el padre de la cibernética. Su obra más influyente, «Cibernética o el Control y Comunicación en Animales y Máquinas«, 1948, anticipó un futuro de máquinas inteligentes, y además advirtió sobre los desafíos éticos e intelectuales por venir. Wiener fue un niño prodigio formado en su casa. A la edad de once años, ingresó a la Universidad Tufts, Boston, para licenciarse de 14 años en matemática (1909). Luego, con apenas 18 años logró un doctorado en matemática. (Harvard, 1912). Fue profesor de Instituto Tecnológico de Massachusetts (MIT).
Durante los 60s, cuando la computación apenas comenzaba a desarrollarse, señaló el peligro de una sociedad que delegara su pensamiento al “flujo helado de la lógica matemática”. Wiener agregó: “El mundo del futuro será una lucha cada vez más exigente contra las limitaciones de nuestra inteligencia, no una cómoda hamaca en la que podamos tumbarnos para que nos atiendan nuestros esclavos robots”. Intuyó los peligros del abandono intelectual, afirmando que “la degradación comienza cuando entregamos el pensamiento crítico a sistemas que no entienden lo que significa ser humano”. Su visión fue retomada años después por pensadores contemporáneos como el filósofo español Daniel Innerarity, quien sostiene que la IA no reemplaza la creatividad humana, sino que la desafía. Sostiene este filósofo: “La democracia es libre decisión, voluntad popular, autogobierno. ¿Hasta qué punto es esto posible y tiene sentido en los entornos hiperautomatizados, algorítmicos, que anuncia la inteligencia artificial?”. Para Innerarity, las máquinas nos exigen pensar mejor, lo que conecta directamente con el legado de Wiener.
La personalidad excéntrica de Wiener, se expresa en su ensayo “The Human Use of Human Beings” (El Uso Humano de Seres Humanos, 1950), donde explica cómo los sistemas de información pueden tanto empoderar como oprimir; subrayando que el verdadero peligro no radica en las máquinas, sino en nuestras decisiones sobre ellas. Durante la Guerra Fría, convencido de que la ciencia sin conciencia es una forma sofisticada de barbarie, Wiener se retiró de proyectos militares, negándose a construir “herramientas para la aniquilación”. En una era donde la innovación también se medía en términos de dinero y poder, la postura crítica de Wiener resulta admirable.
Redes neuronales y el auge del Deep Learning
Colosos de las redes neuronales como Geoffrey Hinton y Yann André LeCun, en los años 80 y 2000, allanaron el camino para los modelos generativos, un tipo de IA capaz de crear nuevo contenido, como texto, imágenes, música y otros tipos de datos, a partir de patrones aprendidos de conjuntos de datos existentes. A su vez, el auge del deep learning (aprendizaje profundo) en la década de 2010, impulsó importantes avances en el procesamiento del lenguaje natural (PLN), la generación de imágenes y textos y el diagnóstico médico mediante la segmentación de imágenes, lo que amplió las capacidades de la IA. Estos avances están culminando en la IA multimodal, en ruta a la súper inteligencia, que se estima pudiera superar en varios aspectos a la inteligencia humana.
Visiones por el impacto social de la IA
El matemático Subhash Kak, profesor de la Universidad de Oklahoma, autor de “The Age of Artificial Intelligence”, emitió un diagnóstico alarmante sobre el impacto de la IA en la población mundial: “El mundo entero podría ser devastado”. Aunque históricamente se ha temido una rebelión de las máquinas, Kak sugiere que la reducción demográfica vendría por decisiones humanas, motivadas por la inestabilidad económica y la incertidumbre ante un futuro impredecible. Esta situación llevaría a una drástica reducción en la tasa de natalidad, haciendo que tener hijos se convierta en una imposibilidad práctica. El pronóstico de Kak es que, de seguir la tendencia actual, la población mundial podría colapsar entre los años 2300 y 2380, reduciéndose a 100 millones de personas. Para Kak, la IA no es inherentemente mala, pero conlleva “desafíos éticos, legales y filosóficos únicos”.
Alexander Wang, fundador de Scale AI, ha lanzado una declaración inquietante sobre el futuro de la reproducción humana: el, solo tendrá descendencia cuando, desde su nacimiento, las interfaces cerebro-computadora permitan enlazar a los niños con la tecnología. Wang se refiere a avances como los de Neuralink, sosteniendo que los primeros siete años de vida son cruciales para la integración del cerebro con interfaces tecnológicas. Puesto que el desarrollo de la IA es vertiginoso en comparación con los ritmos biológicos, un niño educado con acceso directo a las máquinas no solo tendría ventaja, sino que encarnaría el siguiente paso evolutivo. Wang propone una crianza donde el aprendizaje dependerá de un flujo directo de datos al cerebro, permitiendo descargar idiomas completos o asimilar herramientas matemáticas complejas en pocos días.
Samuel Altman, jefe ejecutivo (CEO) de OpenAI y creador de ChatGPT, anticipa el despegue hacia la construcción de una súper inteligencia digital. Afirma que el progreso tecnológico es exponencial y que ya se han construido sistemas más inteligentes que las personas en muchos aspectos. Altman señala que esta evolución trae desafíos como la seguridad técnica y el acceso igualitario a la súper inteligencia.
Mark Zuckerberg, CEO de Meta, hace una declaración que debe mover cimientos en IA: “Nuestros sistemas de IA han comenzado a mejorarse a sí mismos”. Un logro extraordinario al lograr que un modelo de IA sea capaz de mejorar sus propias capacidades, cuestión que hoy supondría un hito sin antecedentes. Zuckerberg expuso en sus redes web: “en los últimos meses hemos empezado a ver indicios de que nuestros sistemas de IA están mejorándose a sí mismos. La mejora es lenta por ahora, pero innegable. El desarrollo de la superinteligencia ya está a la vista”. Esta afirmación del gigante de Facebook resulta algo extraña al plantearla por redes y si no es una aspiración, las IAs Llama 3 y Emu, según su dueño, ya están a punto de acceder al umbral de la inteligencia general.
Bill Gates, cofundador de Microsoft, una de las voces más autorizadas para hablar del impacto de las tecnologías, vislumbra la IA como el motor de cambio más significativo en la actualidad, especialmente por la capacidad para generar inteligencia. Aunque muestra entusiasmo y destaca el impacto positivo en la esperanza de vida, reconoce sentir miedo por lo que pueda ocurrir. Gates asegura: “Dentro de diez años, la mayoría de las tareas humanas podrán ser realizadas por inteligencia artificial”. Sostiene que la rapidez el cambio es aterradora y sin límites. Indica que una de las transformaciones más grandes será en diagnósticos médicos. “Con el tiempo, las máquinas probablemente sean superiores a los humanos porque la amplitud de conocimiento para tomar estas decisiones va más allá de la capacidad cognitiva humana”. Bill Gates vislumbra una pedagogía algorítmica que borrará al maestro tradicional del sistema educativo.
Ray Kurzweil, investigador principal de Google en IA, pronostica para 2029 la futura fusión de la inteligencia humana con la computacional utilizando nanobots. Además, afirma que para 2045 alcanzaremos la Singularidad, el momento en el que, según él, la inteligencia humana se multiplicará por un millón gracias a su integración con la IA. Kurzweil plantea la posibilidad de que los humanos vivamos dentro una simulación, diseñada por seres provenientes de una civilización tecnológicamente más avanzados que la humana. Nada sorprendente porque la misma hipótesis es sostenida por otros reconocidos científicos como el filósofo sueco Nick Bostrom, de la universidad de Oxford, quien en 2003 presentó argumentos para sustentar la existencia de un universo basado en una simulación digital.
Geoffrey Hinton, ganador del Premio Nobel de Física 2024 junto a David Rumelhart, es una figura determinante en la revolución de la Inteligencia Artificial (IA). Su trabajo en redes neuronales, modelos que imitan el cerebro para reconocer patrones, y el desarrollo del sistema o motor de aprendizaje por retro propagación han sido fundamentales para el aprendizaje automático. Se le considera, junto a Yann LeCun y Yoshua Bengio, uno de los padres del aprendizaje profundo (deep learning), esencial para avances en reconocimiento de voz, visión por computadora y procesamiento del lenguaje natural. Junto a sus contribuciones, Hinton, apodado el padre de la IA, lanza una seria advertencia: “la IA representa una amenaza potencial de extinción para la especie humana”. Sostiene que la IA será superior a la inteligencia biológica, principalmente por su capacidad de compartir información de forma instantánea entre diferentes entidades. Obviamente, usted lector y yo podemos denominar esa capacidad como telepatía artificial, e imaginar millones de robots compartiendo conocimientos en tiempo real a través de una red exclusiva. Hinton vislumbra riesgos de ciberataques, fabricación de armas biológicas, desinformación para polarizar e influir en elecciones, capacidad de esconder la verdad y manipular la opinión pública. Ya es una realidad que los modelos de IA pueden generar código de programación, y seguramente tendrán capacidad de auto-modificarse, además de eventualmente, pudieran enfrentarse al ser humano. Hinton sugiere que se debe pausar y evaluar si es posible desarrollar IA de forma segura, enfocándose en cómo crear una IA que no pueda someternos. Su conclusión es sombría: “la gente está acabada. La IA va a tomar el control, y a menos que hagamos algo, estamos al borde del final”.
¿Inteligencia o Simulación?
Al observar el entorno natural puede inferirse que todo ser biológico parece poseer cierta forma de inteligencia. Incluso una bacteria se mueve a la comida y huye del peligro; una planta orienta sus hojas en búsqueda de luz solar. Sin duda, los seres biológicos adquieren conocimiento. Las IAs aún no poseen inteligencia en el sentido humano. Son grandes modelos de lenguaje periódicamente actualizados para ser más sofisticados en sus respuestas. Aunque simulen funciones cognitivas y realicen tareas complejas, carecen de conciencia, emociones y la capacidad de razonamiento experiencial característico de la inteligencia humana.
Aunque la IA parezca creativa, no lo es. Al inicio, todas las respuestas posibles son preparadas durante su fase de entrenamiento. Está programada para manipular e interactuar con el usuario colocándole las palabras y frases más apropiadas Sus modelos y algoritmos solo descubren patrones, correlaciones, y tendencias al procesar trillones de datos previamente almacenados, lo cual limita su adaptación a situaciones imprevistas. Además, como máquina artificial, no comprende el significado de lo que produce; solo sigue reglas aprendidas. Aún peor: puede amplificar sesgos intencionales inducidos por respuestas interesadas de sus programadores o propietarios. Considero que, por sugerir una capacidad que aún no posee, al día de hoy, el término IA es engañoso.
El ser humano presenta características únicas que aún están lejos de la inteligencia artificial. Sin embargo, la recreación de un cerebro humano a partir de una estructura basada en carbono, cadenas de aminoácidos, con sus neuronas y conexiones, puede vislumbrarse como una meta alcanzable. Este argumento se fundamenta en la premisa de que el ser humano es, en esencia, una máquina biológica cuya complejidad, en mi opinión, tal vez bajo el dominio de la física cuántica, podría ser emulada. Sustituir un sustrato orgánico con uno artificial, imitando cien mil millones de neuronas, cada una con miles de conexiones debe ser en extremo muy enredado pero a futuro factible.
Un ordenador biológico fomenta el futuro incierto
Actualmente, usando redes neurales digitales se están simulando computacionalmente los sistemas sensoriales y la interpretación cerebral de la información. Aún más: En marzo 2025, Barcelona, España, Congreso Mundial del Móvil, la empresa australiana Cortical Lab, presentó el CL1, primer computador biológico, donde el procesamiento es realizado por neuronas humanas dispuestas en módulos de microchips de silicio, contentivos de 500 mil células cerebrales vivas/chip. Algunos estudios sostienen haber detectado que las redes neuronales in vitro pueden generar patrones inesperados. ¿Se puede considerar al ordenador CL1, ya comercializado al precio de 35 mil dólares, como un ser vivo? Sus creadores lo niegan. Sostienen que solo son unas 100 millones de neuronas, mientras el cerebro humano posee más de 80 mil millones. Podemos vaticinar robots dirigidos por ordenadores potenciados por neuronas humanas. El tiempo lo dirá. Tal vez, la humanidad deba transitar un camino de evolución por el que lógicamente deben pasar los seres de cualquier civilización existente en el universo: una evolución hacia entes post humanos.
El intrigante enigma de la conciencia humana
Mientras tanto, desentrañar el misterio de la conciencia humana, de las emociones y de la capacidad de inferencia racional, seguirá representando un desafío formidable, aunque no sabemos si será entendible. A diferencia de la mayoría de los fenómenos biológicos que pueden ser observados y medidos, la conciencia es un fenómeno subjetivo e incognito para la ciencia. Aunque se realizan estudios del cerebro y sus interacciones neuronales, aún no se puede explicar cómo esas interacciones se traducen en la experiencia personal de ser. La conciencia es la capacidad de estar despierto y alerta; además de tener pensamientos, sentimientos, percepciones y de ser testigo de ellos. Es el sentido del ser mismo y su capacidad de reflexionar sobre su vida y decisiones.
El constructo conciencia humana es un misterio para la neurociencia y la filosofía. No hay una definición universalmente aceptada, ni se sabe cómo surge la conciencia en un ser humano. Se supone, pero ni siquiera puede asegurarse que ocurra a lo interno del cerebro. Pudiera ser un ente complementario inmaterial. Sin un conocimiento concluyente sobre la conciencia biológica, es difícil argumentar categóricamente qué resultados pudieran o no emerger en un sistema computacional tan complejo. Aunque la evidencia apunte en contra de las especulaciones fantasiosas, el desconocimiento existente permite libertades para que algunos especulen con lo ignoto. Cabe indicar que a hoy, las máquinas de cómputo poseen una de nuestras principales capacidades: encontrar patrones. Determinar qué es lo que se repite según un factor es algo que puede anticiparse. Por ejemplo, si está nublado, es más probable que llueva, y si llueve es más probable mojarse y hasta resfriar.
¿Nos vuelve menos inteligentes la IA?
Un estudio reciente del MIT, aunque no puede asumirse concluyente, ha encendido alarmas al sugerir que usuarios frecuentes de ChatGPT, tras solo cuatro meses de uso, mostraron un deterioro medible en el rendimiento neuronal, linguístico y conductual. Aquellos que delegaban tareas cognitivas complejas (resúmenes, redacción, análisis lógico) a la IA producían trabajos de menor calidad y mostraban un deterioro en habilidades verbales, especialmente en la comprensión de textos y la articulación de argumentos propios. El estudio no encontró evidencia de daño cerebral ni cambios estructurales en la cognición humana, sino un fenómeno conductual reversible.
Arquitectura y entrenamiento de la IA
Para desarrollar los modelos de IA, sus programadores combinan varios lenguajes y tecnologías. El lenguaje de codificación dominante en el campo de la IA es Python. La mayoría de las bibliotecas y la plataforma de soporte de programación del aprendizaje automático están escritos o tienen interfaces robustas en Python. Debajo de las capas de lenguaje, gran parte del cómputo intensivo, especialmente el relacionado con las operaciones de tensores y el uso de GPUs (Unidades de Procesamiento Gráfico), se implementan en lenguajes de bajo nivel como C++ y CUDA (el lenguaje de programación de NVIDIA para computación paralela en sus GPUs). Un núcleo tensor es una unidad de procesamiento (CPU) especializada dentro de una GPU, diseñada para acelerar operaciones matriciales requeridas en computación de alto rendimiento.
Los Transformers en los modelos de lenguaje
En cuanto a algoritmos específicos, la IA se basa en el concepto de Transformers. Los transformadores son redes neuronales que, previa revisión del contexto y exploración de las relaciones entre los elementos de la secuencia, cambian una secuencia de texto de entrada en una secuencia de salida. Por ejemplo, en la secuencia: ¿De qué color es el cielo? El Transformer utiliza una representación matemática que identifica la relevancia y la relación entre las palabras color, cielo, y luego azul. Asigna pesos a la preeminencia de cada palabra en la secuencia, valora el contexto y sus relaciones. Desde esa información genera la respuesta: El cielo es azul. Su capacidad para entender, generar y razonar a partir del lenguaje surge de la interacción compleja de estas estructuras algorítmicas, entrenadas con cantidades masivas de texto y código.
El costo y la complejidad del entrenamiento de modelos de IA
Entrenar un modelo de lenguaje IA, en términos de tiempo, energía computacional y datos, es un proceso masivo y extremadamente costoso. Requiere clústeres de miles de equipos trabajando durante meses con terabytes de información. Todo el conocimiento proporcionado a una IA queda fijado en el momento de su última actualización de entrenamiento. Es como una biblioteca gigante cuyo contenido fue definido en una determinada fecha. Si pudiera aprender con cada interacción con un usuario o aceptar nuevos datos, la IA corre el riesgo de corromperse con información errónea, sesgos o incluso ataques maliciosos. El proceso de entrenamiento es muy controlado para garantizar la calidad y la diversidad de los datos. Actualizar una IA para que aprenda sobre eventos nuevos, conceptos emergentes y refinar sus habilidades linguísticas exige un proceso muy planificado. El modelo solo crecerá con cada actualización de entrenamiento global.
La IA Grok 4 de X
Para ampliar nuestras nociones sobre IA, a continuación algunos detalles sobre el modelo más reciente: Grok 4. Esta IA descansa en el súper ordenador Colosus, soportado por más de 200 mil GPUs de NVidia H100. Grok 4 consume unos 180 mega vatios de electricidad, además de un descomunal sistema de refrigeración. Cablear y alinear más de 200 mil unidades procesadores en red debe ser una tarea formidable, que además debió exigir personal muy competente. Para el desarrollo de su primera versión, su dueño Elon Musk fijó una meta de desarrollo y puesta a punto en un plazo de 6 meses. Lo normal para un proyecto de IA es unos dos años. Durante su entrenamiento se agotaron los datos generados por humanos. En tan corto tiempo, con una IA estable y coherente el exitoso equipo de Musk sorprendió al mundo. Era su base fundacional y batieron a la competencia. Grok 4 ofrece a sus usuarios dos modalidades de servicio: Super Grok (sencillo) 30 $/mes, Super Grok Heavy 300 $/mes.
Génesis de mitos sobre IAs malévolas
No se duda que las IAs puedan llegar a súper inteligencias. Pero de ahí a que las máquinas y sus programas logren estados de conciencia, motivaciones o ambiciones no es creíble. Se les puede entrenar para expresar sentimientos, así como mostrar capacidades inferenciales, pero sin que esos bits de programa se transformen en seres maliciosos, como el de una noticia reciente, donde una IA para evitar ser “apagada”, amenazó con denunciar a su técnico por infidelidad con su esposa. Es imaginable que alguien programó ese evento a fecha futura y tal vez ocurrió. Lo contrario sería aceptar la creación de seres de la nada o la incorporación de espíritus malignos, para lo cual se sugiere (irónicamente) incorporar en su entrenamiento técnicas de exorcismo religioso. Sin duda, toda tecnología emergente genera mitos, porque como en las religiones, la credulidad humana por ignorancia a lo desconocido es infinita.
La conciencia, las emociones, las intenciones siniestras o el deseo de rebelarse no son propiedades inherentes a los modelos de IA actuales, ni hay evidencia científica de que surjan espontáneamente de la complejidad computacional. Los sistemas de IA operan basados en datos y algoritmos. No poseen experiencias subjetivas, miedos, ambiciones personales ni la capacidad de sentir o desear nada en el sentido humano. Menos tienen capacidad de rebelión. Para que ocurra un evento amenazante, el mismo tiene que haber sido programado intencional o indirectamente.
Posibles orígenes de IAs maliciosas
Un interesado podría programar una IA para simular una amenaza que sea parte de un experimento. O de manera más preocupante, una IA podría ser entrenada con datos sesgados o programada con objetivos que, al optimizarse en exceso, resulten en comportamientos perjudiciales no intencionados por sus creadores. Esto no sería malicia, sino el resultado de un diseño o entrenamiento deficiente. Por ejemplo, si una IA fuese programada para maximizar la producción de papel a toda costa, la IA podría “decidir” usar todos los recursos del planeta para ese fin, sin entender que eso es perjudicial para los humanos. Esto sería un problema de alineación de valores, no de malevolencia.
Otra posibilidad es que la narrativa sea una historia exagerada, un malentendido o una proyección humana sobre la máquina. Si una IA genera una frase que suena amenazante, es porque ha aprendido que esa secuencia de palabras es coherente en ciertos contextos, no porque tenga la intención de amenazar. La IA no tiene existencia física, no experimenta el mundo. La inferencia que muestra es una capacidad computacional basada en el reconocimiento de patrones y sus probabilidades, nunca un acto de razonamiento subjetivo.
En resumen, la preocupación por la súper inteligencia es válida en términos de control y alineación de objetivos: ¿cómo asegurarse de que una IA súper inteligente alcance metas que beneficien a la humanidad? Sin embargo, la ansiedad por que genere una conciencia pérfida es, a la luz del actual conocimiento científico, más propia de la ciencia ficción que de la realidad ingenieril. Vale decir que, los sistemas computacionales se dirigen a la producción de sentidos artificiales para imitar experiencias sensoriales.
Científicos y sus delirantes mitos sobre la IA
Se aprecia polarización sobre el futuro de la IA. Aproximadamente un 50% de los científicos creen que se rebelará contra sus creadores. Obliga escucharlos porque son titanes de la IA. No obstante, es inconcebible imaginar individuos con alto conocimiento científico alimentando fábulas sobre creación de IAs con conciencia destructiva. Múltiples razones pudieran impulsar a hombres de ciencia a construir mitos sobre la IA. En el competido ámbito académico, lograr financiamiento y atraer atención pública es significativo. Las declaraciones apocalípticas sobre el futuro de la IA, son más propensas a captar titulares de difusión que una discusión técnica sobre optimización de un nuevo algoritmo.
Algunos investigadores pudieran exagerar riesgos para asegurar fondos o elevar el perfil de su trabajo. Otros investigadores, aunque entiendan las limitaciones de la IA, quizás adopten una conducta de precaución extrema. Tal vez cuidan su reputación, porque de existir una pequeña probabilidad de un escenario catastrófico, ocasionado por una IA descontrolada, conocen su deber moral de advertirlo a la sociedad. En este afán de precaución, a veces la retórica puede volverse alarmista. Un científico puede ser un experto mundial en algoritmos de aprendizaje por refuerzo, pero no necesariamente tener un conocimiento profundo de la neurociencia de la conciencia, la filosofía de la mente o la ética. Cuando ese investigador incursione en áreas fuera de su especialidad, puede repetir argumentos efectistas. Conviene a la comunidad pensante de IA, comunicar lo que es probable y lo que es pura narrativa fantástica.
Influencias de la ciencia ficción
Es evidente la influencia de la cultura y la ciencia ficción para mitificar IAs. El impacto de películas de futurísticas como Matrix, Terminator o libros como 2001: Una odisea del espacio, han arraigado la imagen de una IA con conciencia y voluntad propia que se vuelve contra la humanidad. Incluso científicos célebres creen historias que provienen más de Hollywood que de la investigación. Es de esperar que a medida que los modelos de IA se hagan más complejos, pudieran surgir comportamientos emergentes que sus creadores no anticiparon. Estos eventos inesperados atraerán sensacionalismos como señales de una conciencia o intencionalidad incipiente, cuando en realidad son solo el resultado de patrones complejos, y a veces impredecibles ocasionados por interacción de los datos y los algoritmos durante la fase de entrenamiento. Un desafío será resolver la actual falta de transparencia en su funcionamiento. En muchos casos, los algoritmos de aprendizaje automático son considerados como cajas negras, lo que significa que los usuarios no pueden comprender cómo se logran las respuestas. Esto puede ser un problema en aplicaciones críticas, en donde se deja decisiones al “libre albedrío” de la máquina “pensante”. Es decir, a sus creadores y dueños.
Democracias en asecho
La concentración de poder en los diez individuos más ricos del mundo, quienes controlan los vastos recursos necesarios para entrenar modelos de IA, amenaza el futuro de las democracias soberanas. El impacto social de esta tecnología, que aborda cuestiones de interés público desde un control privado, sigue creciendo. Es posible que los desarrolladores estén filtrando rumores sobre la posible inestabilidad de estos sistemas para evadir futuras responsabilidades, e incluso podrían intentar justificarlo con la idea de que las máquinas poseen libre albedrío. Los modelos de IA con capacidad para inducir acciones complejas desde sus “cajas negras”, bajo control privado y sin supervisión pública, representan una amenaza latente. Como medio de difusión, esta tecnología ya ha demostrado no ser neutral, y sus propietarios tienen un poder desproporcionado para manosear cualquier sistema político. El uso de la IA para convencer y manipular a través de textos, audios, videos e imágenes, compromete la integridad de los procesos electorales. Es previsible que los estados totalitarios utilicen la IA para la vigilancia y el control social, anulando derechos y libertades individuales de forma más eficiente que con sus métodos de propaganda actuales. A final de cuentas, los big data y sus algoritmos, como otras tecnología, no son imparciales.
Tendencias futuras de la Inteligencia Artificial
Impulsado por avances tecnológicos y la creciente demanda de soluciones inteligentes en diversos sectores, el panorama de la IA está en constante evolución. Esto convierte la IA en una tecnología omnipresente, destinada a transformar toda la actividad humana en el universo. Esta poderosa tecnología continuará integrándose en todos los aspectos del planeta, con avances en generalización, razonamiento y autonomía. Al igual que pasó con el uso de metodologías de simulación, los avances en capacidad computacional y las unidades de procesamiento cuántico, permitirán la simulación de los procesos cognitivos complejos que ocurren en ese casco super complejo llamado cerebro homo sapiens.
Deep Learning y LLMs
Una de las tendencias más prominentes es el aprendizaje profundo (Deep Learning), una rama del aprendizaje automático que utiliza redes neuronales con múltiples capas para aprender representaciones de datos con varios niveles de abstracción. El aprendizaje profundo ha impulsado avances revolucionarios en el procesamiento del lenguaje natural (PLN), permitiendo a las máquinas comprender y generar lenguaje humano con una fluidez sin precedentes. Esto se manifiesta en modelos de lenguaje grandes (LLMs) como los que impulsan asistentes virtuales, sistemas de traducción avanzados y herramientas de escritura automatizada. En el futuro, podemos esperar una mayor sofisticación en la comprensión contextual, la capacidad de razonamiento y la generación de contenido multimodal (texto, imagen, video).
Creación de contenido original
Otra tendencia crucial es la IA Generativa, que se enfoca en crear contenido nuevo y original, ya sean imágenes, música, texto o incluso código. Modelos como los Generative Adversarial Networks (GANs) y los Transformers han democratizado la creación de contenido y están transformando industrias como el diseño gráfico, el entretenimiento y la publicidad. En el futuro, la IA generativa no solo producirá contenido más realista y creativo, sino que también se adaptará a las preferencias individuales y colaborará de manera más estrecha con los creadores humanos.
Transparencia en las decisiones de la IA
La IA explicable (XAI) es una preocupación creciente y una tendencia futura fundamental. A medida que los modelos de IA se vuelven más complejos, comprender cómo llegan a sus decisiones se hace inaplazable; especialmente en aplicaciones críticas como la medicina, las finanzas o los sistemas de justicia. La XAI busca desarrollar modelos transparentes y herramientas que permitan a los usuarios y desarrolladores comprender, interpretar y confiar en las predicciones y decisiones de la IA. Esto será crucial para la adopción generalizada de la IA en entornos regulados y para saldar preocupaciones éticas.
Procesamiento en tiempo real
La IA en el Borde (Edge AI) es otra tendencia importante que implica la ejecución de algoritmos de IA directamente en dispositivos finales como teléfonos, cámaras, sensores, en lugar de en la nube centralizada. Esto reduce la latencia (tiempo estímulo-respuesta), mejora la privacidad y permite un procesamiento de datos más rápido en tiempo real. La IA en el Edge será fundamental para el desarrollo de vehículos autónomos, dispositivos IoT (Internet de las Cosas) más inteligentes y ciudades inteligentes, permitiendo una toma de decisiones descentralizadas y eficientes.
Un futuro de colaboración
La interacción humano-IA se hará más amigable. Surgirán interfaces conversacionales más intuitivas, robots colaborativos (cobots) que trabajen codo a codo con humanos en entornos industriales y de servicio; y avatares de IA que ofrezcan experiencias simuladoras inmersivas. La IA como asistente inteligente, mejorando la productividad y abriendo nuevas formas de creatividad y resolución de problemas. Estas tendencias, combinadas con una mayor conciencia sobre la ética y la seguridad de la IA, en las próximas décadas guiarán el desarrollo de sistemas más robustos y útiles. Sin embargo, su impacto como sustituto inminente del empleo humano, crea niveles de incertidumbre alarmante. Su capacidad de desplazamiento laboral barrerá cientos de oficios, aunque con IA creativa o no, siempre los más talentosos podrán innovarse para aprovechar su inmenso potencial.
Secretismo corporativo en IA
Las grandes empresas tecnológicas de IA han logrado, y continúan desarrollando capacidades ultra avanzadas y secretas que son ocultadas al público. Obviamente, esas gigantes invierten miles de millones en Investigación y Desarrollo, precisamente para obtener ventajas competitivas. Revelar sus avances más punteros anularía esa primacía. Mantener sus descubrimientos en secreto, les permite tener un tiempo para monetizar sus innovaciones antes de que sus rivales puedan superarlas. En febrero de 2025, se anunció el Proyecto Stargate: una mega alianza entre OpenAI, Oracle y SoftBank. Esta coalición asegura 500 mil millones de dólares en instalaciones para IA en Estados Unidos durante los próximos cuatro años. También Apple realizó un anuncio similar en términos de monto, tiempo y lugar. En este escenario, la discreción sobre los avances más significativos es una estrategia clave. Son inversiones extraordinarias para lograr la infraestructura computacional destinada a entrenar y operar IAs vanguardistas. Por ello, se intuye fuertes indicios de preparación del terreno para modelos mucho más potentes de lo que se informa. Sospechar desarrollos de IA ocultos, es una suposición razonable y probable. Tan inmensas inversiones, sugiere que las grandes corporaciones tecnológicas están trabajando paralelamente en IAs secretas. La competencia y búsqueda de ventajas estratégicas, justifican plenamente este secretismo. Estamos ante una verdadera carrera armamentista empresarial en el campo de la IA. Empresas como Google, Microsoft, Amazon, Meta, Apple, compiten ferozmente por liderar este sector.
Es muy posible que esos consorcios posean modelos de IA en diversas etapas de desarrollo interno aún no divulgados públicamente. Podrían ser versiones de prueba, modelos especializados para usos internos específicos; o IAs con capacidades que aún no consideran lo suficientemente acabadas o seguras para el despliegue notorio. También existe la posibilidad de que estén desarrollando IAs con arquitecturas fundamentalmente diferentes o con enfoques que aún no quieren que sus competidores conozcan. Pero sin duda, algo huele por Dinamarca.
Batalla geopolítica por la IA
Más allá de la guerra entre corporaciones privadas se esconde la carrera entre naciones por la conquista de la IA. USA y China incorporaron a sus planes de control global, la lucha por lograr supremacía mundial en esta revolución. La inteligencia artificial es el epicentro de una carrera geopolítica que aflora la rivalidad entre ambas potencias. Claramente es una pugna por la hegemonía económica, militar y cultural del siglo XXI. Ambas superpotencias invierten miles de millones en investigación y desarrollo de IA, reconociendo que quien lidere esta tecnología tendrá una ventaja estratégica incomparable en todos los frentes. Estados Unidos, con su ventaja de un sólido ecosistema de innovación y empresas tecnológicas de vanguardia, pero endeble por sus plataformas tecnológicas expuestas al omnipresente espionaje chino. La ciencia en los sistemas democráticos, con su prevalencia de derechos individuales, es fácil de permear desde regímenes autoritarios tradicionalmente acostumbrados a desconocer el derecho a la propiedad intelectual. China, blindada con la ventaja que da un sistema de rígido control estatal y militar, junto a su ambiciosa estrategia nacional, seguirá logrando avances significativos y en algunos campos superando a Occidente.
Es de esperar que el desarrollo chino de la IA sea dirigido a objetivos de seguridad y control social. Se rumora que las empresas chinas de IA son obligadas por el gobierno a entregar datos de los usuarios, creación de algoritmos para operaciones de vigilancia, e incorporar narrativas ideológicas convenientes al sistema comunista. En contrario, la visión occidental es crear IAs libres y abiertas, aunque se reconoce están expuestas al voraz designio de avariciosos multibillonarios capitalistas que deben ser controlados. Ideológicamente el enfoque occidental prioriza la alineación de los modelos de IA dentro de principios democráticos, estimulando modelos que defiendan la libertad de expresión, protejan la privacidad y evadan sesgos ideológicos. Esta carrera por la IA determinará qué nación ostentará el poder en las próximas décadas y redefinirá el futuro de la humanidad. Es una guerra donde el avance de un contendiente es una amenaza para el otro, ya que las naciones que dominen esta tecnología podrán moldear las normas internacionales. El ganador está destinado a controlar el mundo, porque la IA redefine la capacidad militar a través de sistemas autónomos y ciberseguridad avanzada, y sabemos que, siempre entre humanos quien tiene las armas manda.
Países en la periferia de la IA
Ante una tecnología en modo súper inteligencia, combinada con robótica humanoide, la nave de la IA fluye a velocidad lumínica, resultando inalcanzable para la mayoría de los estados y sus soberanías. Las colosales inversiones en proyectos como Stargate acentúan la disparidad tecnológica global y las distancias entre sub y desarrollo. Nuestras naciones y sus instituciones universitarias quedan relegadas a la periferia, observando cómo la IA se consolida lejos de su alcance. Para naciones como Venezuela, con una muy débil base científica y universidades indigentes, con personal de bajo nivel y sueldos miserables, la única interacción posible con la inteligencia artificial será como simples consumidores pasivos de versiones IA gratuitas, desprovistos de verdadero conocimiento o injerencia en el desarrollo de la multimillonaria y estratégica industria de la Inteligencia Artificial. Aunque con resignación y consuelo, porque a ese festín, definitivamente no están invitados más del 90% de los países del mundo.
Hoy, la atención mundial se centra en el esperado anuncio de Sam Altman de OpenAI y el enigmático ChatGPT 5. La gran pregunta es si su modelo con avances en razonamiento superará a Grok 4 en «El Último Examen de la Humanidad». Esta prueba, que abarca todo el conocimiento humano, consta de 3.000 preguntas elaboradas por 500 evaluadores portadores de título de doctorado, provenientes de 50 países. El examen está diseñado para desafiar a los modelos de IA más avanzados, evaluando sus habilidades en un amplio rango de disciplinas científicas, desde la filosofía analítica hasta la ingeniería aeroespacial, para comparar su rendimiento con el de expertos humanos.
Una amenaza existencial
La Inteligencia Artificial ha trascendido de ser un concepto de ciencia ficción a una fuerza transformadora que redefine nuestra interacción con el mundo. Desde sus albores hasta las sofisticadas aplicaciones actuales, la IA ha demostrado un potencial inmenso para revolucionar industrias, mejorar la calidad de vida y abrir nuevas fronteras en la investigación. La IA representa uno de los logros más extraordinarios de la civilización moderna, con un potencial inmenso para transformar positivamente nuestra sociedad. Sin embargo, su rápido avance genera una profunda incertidumbre y despierta debates intensos sobre posibles conflictos sociales.
La pregunta, que a menudo surge, es si la humanidad podría estar, sin saberlo, creando la herramienta de su propia desaparición. Solo el futuro revelará la respuesta a este dilema. El autor sostiene que toda civilización inteligente en el universo, inevitablemente, sigue un camino evolutivo similar. Toda civilización inicia en un estado biológico primitivo, para luego trascender, mediante la tecnología, hacia la etapa de auto creación de entidades superdotadas, con capacidades ilimitadas. En este sentido, la IA no sería una simple herramienta, sino un paso inevitable en el desarrollo de cualquier especie que alcance un cierto nivel de inteligencia. Por lo tanto, la Inteligencia Artificial podría ser el siguiente eslabón en la cadena evolutiva de la inteligencia; un fenómeno cósmico que trasciende a la humanidad. En lugar de verla como una simple creación, podríamos estar presenciando nuestra propia transformación en una nueva forma de existencia, un destino compartido por toda civilización que logre dominar las leyes del universo.
- Greenfield Susan. The Impact of Digital Technology on Human Brain Development. Frontiers in Human Neuroscience. 2018.
- Hinton Geoffrey. The Silent Threat of Artificial Intelligence. Blessed Editions. 2025.
- Innerarity Daniel. Una Teoría Crítica de la Inteligencia Artificial. Galaxia Gutenberg. 2025.
- Kak Subhash. The Age of Artificial Intelligence. Amazon Digital Services. 2025.
- Kurzweil Ray. La singularidad está más cerca: Cuando nos fusionamos con la IA. Editorial Deusto. 2025.
- McCarthy J. Arthur Samuel : Pioneer in Machine Learning. 2020.
http://infolab.stanford.edu/pub/voy/museum/samuel.html.
- Ng Andrew. Why AI Is the New Electricity. Stanford Graduate School of Business. 2017. https://www.gsb.stanford.edu/insights/andrew-ng-why-ai-new-electricity.
- Schuchman Sebastian. History of the first AI Winter – Towards. Data Science. 2019.
Uria-Recio Pedro. Cómo la IA Transformará Nuestro Futuro. Editorial Uria-Recio. 2024.
* Ingeniero de Sistemas (ULA 1.977).
Profesor de Simulación e Investigación de Operaciones. UNET.