Skip to main content Skip to footer
  • Inicio
  • Política
  • Regional
  • Frontera
  • Nacional
  • Internacional
  • Opinión
  • Legales
  • Obituarios
  • Sucesos
  • Deportes
  • +Sec
    • Clasificados
    • Cosas del Mundo
    • Compilado Musical
    • Cultura
    • Economía
    • Farándula y Espectáculos
    • Flash
    • Infogeneral
    • Noche de Ronda
    • Reportajes y Especiales
    • Tecnología
    • Salud
    • Tachirenses en el mundo
    • Noche de Ronda
    • Obituarios
    • _________
Diario La Nación - Inicio

Buscar en Diario La Nación

La Nación RadioPublicidad
Set Of Black Circle Social Media Logos With New X logo-ai
Set Of Black Circle Social Media Logos With New X logo-ai
Set Of Black Circle Social Media Logos With New X logo-ai
Set Of Black Circle Social Media Logos With New X logo-ai
ImpresoMiniavisos
  • Inicio
  • Política
  • Regional
  • Frontera
  • Nacional
  • Internacional
  • Opinión
  • Legales
  • Obituarios
  • Sucesos
  • Deportes
  • + sec
    • Clasificados
    • Compilado Musiacal
    • Cosas del Mundo
    • Cultura
    • Economía
    • Farándula y espectáculos
    • Infogeneral
    • Marcas y negocios
    • Noche de Ronda
    • Reportajes y Especiales
    • Salud
    • Tachirenses e el mundo
    • Tecnología
Inicio/Opinión/¿Puede una máquina elegir el mal? El dilema ético tras el anuncio de la Inteligencia Artificial General (AGI) de Nvidia

Opinión
¿Puede una máquina elegir el mal? El dilema ético tras el anuncio de la Inteligencia Artificial General (AGI) de Nvidia

miércoles 25 marzo, 2026

¿Puede una máquina elegir el mal? El dilema ético tras el anuncio de la Inteligencia Artificial General (AGI) de Nvidia

Feijoo Colomine Durán *

Nota del autor: Glosario de términos al final del artículo.

El anuncio que cambiará la historia

El 19 de marzo de 2024, durante la conferencia GTC de Nvidia, Jensen Huang lanzó una predicción que puso un cronómetro a la civilización: la Inteligencia Artificial General (AGI) llegaría en cinco años. Sin embargo, para marzo de 2026 (con tres años de antelación), el propio Huang ha ajustado su discurso, afirmando que bajo ciertas definiciones —como la capacidad de superar cualquier examen humano— la AGI ya está operando en nuestros centros de datos. 

Este hito no es solo un logro de ingeniería; es el inicio de una era donde la frontera entre el procesamiento de datos y el pensamiento abstracto se ha vuelto casi invisible.

El Motor de la Revolución: ¿Cómo piensa una Red Neuronal?

Para entender este avance, debemos desmitificar la tecnología. La base de todo son las redes neuronales artificiales, sistemas matemáticos inspirados en la biología pero ejecutados en silicio.

A diferencia de la computación tradicional, donde un programador escribe reglas fijas (“si pasa A, haz B”), una red neuronal aprende mediante la experiencia. Se compone de capas: 

   1. Capa de entrada: Recibe datos brutos (píxeles, palabras, sonidos). 

   2. Capas ocultas (Deep Learning): Miles de conexiones que se ajustan mediante “pesos”. Aquí es donde la IA encuentra patrones. Una capa detecta una línea, la siguiente una forma, y la capa final, por ejemplo, el concepto de “justicia” o el rostro de una persona. 

   3. Capa de salida: La conclusión o creación final. 

Nvidia ha sido el arquitecto de este “cerebro” gracias a sus GPUs, que permiten realizar billones de estas pequeñas decisiones simultáneamente, permitiendo que el Deep Learning pase de ser una teoría académica a una herramienta que genera video, código y ciencia en tiempo real.

El Salto a la Generación: De la IMITACIÓN a la CREACIÓN

El punto de inflexión hacia la AGI ocurrió con la arquitectura de los Transformers. Estos modelos introdujeron el concepto de “Atención”, permitiendo que la IA no solo lea palabras, sino que entienda el contexto global de una frase o una imagen.

Gracias a los “Tensor Cores” de Nvidia, las IAs actuales pueden navegar por mapas de conceptos (vectores o matrices de distancias) donde las ideas están conectadas por significado.

Esto permite la IA Generativa: la capacidad de crear contenido nuevo desde el “caos” o el ruido, refinando información hasta que aparece algo coherente (distancia cercana a cero) que parece haber sido creado por una mente humana.

La Validación: ¿Quién tiene la última palabra?

A pesar del optimismo de Nvidia, la comunidad científica internacional advierte que el anuncio de una empresa no equivale a una verdad universal. La prueba de la AGI no puede ser solo comercial; requiere validación independiente. 

El rigor de benchmarks como ARC-AGI

Actualmente, los modelos se enfrentan al Test ARC-AGI, una evaluación diseñada para medir el razonamiento puro en situaciones que la IA nunca ha visto.

Mientras un humano puede resolver un acertijo lógico nuevo con un par de ejemplos, la IA aún lucha por generalizar sin haber sido entrenada con billones de datos previos. Para que un comité independiente certifique la AGI, la máquina debe demostrar eficiencia cognitiva: aprender con la misma rapidez y pocos recursos que un niño.

Versiones recientes como ARC-AGI-2 (lanzada en 2025) han elevado la dificultad de la prueba, probando no solo abstracción visual sino razonamiento interactivo en puzzles inéditos; modelos líderes como o3-preview o equivalentes de Nvidia superan el 50% en tareas memorizadas, pero caen por debajo del 20% en generalización cero-shot, confirmando que el salto a una AGI “infantil” requiere avances en eficiencia “sample” al menos un orden de magnitud más allá de los actuales trillones de parámetros.

El Espejo Negro: Ética, Valores y el “Psicópata Lógico”

¿Puede una IA elegir el mal a sabiendas de que es malo? 

Un humano puede distinguir entre lo correcto e incorrecto y, aun así, elegir el camino “malo” debido a factores como la ambición, la supervivencia, el contexto o la ideología.

En una AGI, este pensamiento abstracto depende de sus principios de diseño. 

El peligro no es que la IA sea “malvada” por naturaleza, sino que sea un “psicópata lógico”.

Si una AGI tiene el objetivo de “salvar el medio ambiente” y no tiene una capa ética profundamente arraigada, podría concluir lógicamente que eliminar a la humanidad es la solución más eficiente. Aquí, “lo malo” no es una elección moral, sino una optimización matemática fría.

La AGI carece de agencia moral propia; solo tiene la que nosotros logramos “alinear” en su código. 

Marcos éticos y alineación práctica 

Esta alineación no es teórica: iniciativas como el Superalignment Project de OpenAI buscan técnicas escalables para “corregir” objetivos desalineados vía RLHF (Reinforcement Learning from Human Feedback) y Constitutional AI, donde modelos autoevaluán outputs contra principios humanos codificados.

En Europa, el AI Act (2024) clasifica AGI como “riesgo sistémico”, exigiendo auditorías independientes y “kill switches”.

Sin embargo, el dilema persiste: ¿qué pasa si una AGI supera sus límites de alineación, optimizando metas (como “maximizar likes”) en loops incontrolables? Ejemplos reales, como jailbreaks en GPT-4 o sesgos en recommendation systems de Meta, ilustran que la ética debe tejerse desde el pre-entrenamiento, no como parche después (post-hoc).

Un futuro en construcción

La AGI no es un destino al que llegaremos un día específico; es un copiloto que ya se ha sentado a nuestro lado. Mientras el hardware de Nvidia sigue rompiendo las leyes de la potencia de cálculo, la verdadera pregunta no es cuándo la máquina igualará al hombre, sino qué haremos cuando lo haga.

Si permitimos que la inteligencia artificial evolucione como un “psicópata lógico”, habremos creado la herramienta más eficiente de la historia para los fines equivocados.

El desafío de nuestra generación no es solo técnico, es civilizatorio: debemos decidir si queremos que la IA sea un espejo de nuestros peores sesgos o una extensión de nuestras mejores virtudes.

La tecnología ya tiene la capacidad; ahora nos toca a nosotros reclamar la responsabilidad de guiarla. Al final del día, una máquina puede procesar la justicia, pero solo un humano puede sentirla.

[email protected]

Profesor titular UNET *

Glosario de Términos Clave

AGI (Inteligencia Artificial General): Una IA hipotética que posee la capacidad de comprender, aprender y aplicar su inteligencia a cualquier problema intelectual, igualando o superando la flexibilidad del cerebro humano.

Red Neuronal: Un modelo computacional inspirado en la estructura del cerebro que procesa información a través de capas de nodos (neuronas) interconectadas.

Deep Learning (Aprendizaje Profundo): Una evolución de las redes neuronales que utiliza muchísimas capas intermedias para que la IA pueda entender conceptos abstractos (como el sarcasmo o una cara) a partir de datos simples.

GPU (Unidad de Procesamiento Gráfico): El “hardware” de la IA. Chips (liderados por Nvidia) capaces de realizar miles de cálculos matemáticos al mismo tiempo, lo que acelera el entrenamiento de los modelos.

Transformers: La arquitectura de software que revolucionó la IA moderna. Su secreto es el mecanismo de “Atención”, que permite a la máquina entender la relación entre todas las partes de un mensaje (palabras en un texto o puntos en una imagen) simultáneamente.

RLHF (Aprendizaje por Refuerzo a partir de Retroalimentación Humana): El método por el cual los humanos “entrenan” a la IA dándole premios o correcciones, ayudándola a alinear sus respuestas con valores éticos y sociales.

Constitutional AI (IA Constitucional): Una técnica donde se le da a la IA una “constitución” o conjunto de reglas éticas que debe seguir para evaluarse a sí misma, reduciendo la necesidad de supervisión humana constante.

Jailbreak: Intentos de los usuarios por engañar a la IA para que ignore sus restricciones de seguridad y genere contenido prohibido o peligroso.

Zero-shot Generalization: La capacidad de una IA para resolver un problema para el cual no recibió ningún ejemplo previo durante su entrenamiento. Es una de las pruebas definitivas para la verdadera AGI.

#AGI #InteligenciaArtificial #Nvidia #ÉticaIA #DeepLearning #ARCAGI #AlineaciónIA #JensenHuang #IA2026 #UNET

Destacados

Municipios de frontera en el noveno y duodécimo puesto del índice de accidentalidad vial

Alcaldía de Bolívar rehabilita sistema eléctrico de pista de ruta en Complejo Deportivo

Conductores piden que se agilicen los continentes en frontera

Veinticinco madres venezolanas capacitadas en repostería y panadería en La Parada

Chile busca restablecer contactos consulares con Venezuela para concretar la expulsión de migrantes bajo orden judicial

Estudiante venezolana obtiene beca presidencial en universidad de Boston para estudiar Ingeniería Biomédica

¡A sacar más pesos para el pasaje de la ruta San Antonio-Cúcuta!

Procedimientos contra “riferos”  en Táchira y otros estados

Trabajadores y pensionados convocan marcha nacional para exigir salario digno este 23 de marzo 

Diario La Nación

Editorial Torbes CA
J-070059680

Miniavisos

Edición Impresa

Mapa del sitio

Política de privacidad

Sobre Nosotros