Inicio Opinión La AGI en manos humanas: anatomía de un desenlace anunciado

La AGI en manos humanas: anatomía de un desenlace anunciado

77
0
Ramón Morel
Spread the love

Este texto se presenta como una respuesta directa a los comentarios, objeciones y lecturas críticas generadas por el artículo anterior sobre este mismo tema. No busca suavizar ni rectificar lo planteado, sino profundizar allí donde surgieron incomodidades, dudas o intentos de relativizar, llevando el análisis a sus consecuencias últimas.

Por Ramón Morel

La historia humana no es una marcha hacia la virtud; es una carrera armamentista entre capacidad y autocontrol. Y el autocontrol, como bien sabemos, siempre llega tarde. El poder nunca ha sido un problema técnico, sino moral. Y la moral, cuando se mezcla con poder absoluto, suele salir por la puerta de atrás.

La premisa es simple y brutal: el ser humano no cambia cuando obtiene más poder; se revela. La AGI, una inteligencia artificial general capaz de aprender, razonar y optimizar cualquier dominio mejor que cualquier humano, no sería una herramienta neutral. Sería el mayor amplificador de la naturaleza humana jamás creado. Y la naturaleza humana, despojada de romanticismo, es ambiciosa, acumulativa, jerárquica y profundamente temerosa de perder control.

La falacia fundacional: “esta vez será distinto”

Cada enfoque optimista sobre la AGI parte de una ficción recurrente: que quienes la controlen actuarán guiados por el bien común. Es la misma ficción que acompañó al átomo, a la banca central, a Internet y a los datos personales. La historia demuestra que togía que permite concentración de poder termina concentrándose. No por conspiración, sino por eficiencia sistémica. El poder se agrupa porque puede, porque conviene y porque quien lo tiene siempre encuentra una razón “técnica” para conservarlo.

La AGI no sería diferente. Al contrario: sería el punto final del proceso.

De la élite económica a la élite ontológica

Hasta hoy, las élites controlan recursos, narrativas y violencia. Con la AGI controlarían algo más profundo: la capacidad misma de decidir qué es verdad, qué es eficiente y qué es posible. La AGI no solo optimiza procesos; optimiza decisiones. Y quien define los objetivos define el mundo.

Aquí ocurre el salto cualitativo más peligroso: la élite deja de ser solo dominante y pasa a ser epistémica. No manda únicamente; sabe mejor. O, más exactamente, dice saber mejor, respaldada por sistemas que nadie fuera de su círculo puede auditar ni comprender del todo.

El ciudadano común no sería oprimido por soldados, sino por modelos. No habría censura explícita, sino irrelevancia algorítmica. No habría prohibiciones, sino optimizaciones que siempre lo dejan fuera.

El mito del control alineado

Se habla mucho de “alinear” la AGI con valores humanos. El problema es incómodo: no existen valores humanos universales, existen intereses humanos dominantes. La alineación real no sería con la humanidad, sino con quienes definan los parámetros iniciales, los datos de entrenamiento, los objetivos de optimización y, detalle nada menor, los botones de apagado.

Y no, esos botones no estarían al alcance del público. Nunca lo han estado.

La AGI alineada con una élite no sería malvada; sería eficiente. Y la eficiencia, cuando se divorcia de la ética, es indistinguible de la crueldad.

Desigualdad irreversible: cuando la brecha deja de ser económica

Con la AGI, la desigualdad dejaría de ser una cuestión de ingresos y pasaría a ser cognitiva y estructural. Una minoría tendría acceso a sistemas que predicen mercados, comportamientos sociales, resultados políticos y conflictos antes de que ocurran. El resto viviría en tiempo reactivo, siempre tarde, siempre detrás.

No sería una dictadura clásica. Sería algo peor: una aristocracia predictiva. Gobernarían no porque reprimen, sino porque anticipan. Y contra la anticipación perfecta no hay revolución posible.

La democracia como simulacro

Las instituciones democráticas no sobrevivirían intactas. Formalmente seguirían ahí, elecciones, parlamentos, discursos, pero vaciadas de poder real. Las decisiones importantes se tomarían donde siempre terminan tomándose cuando hay asimetría extrema: fuera del alcance público.

La política se convertiría en teatro. La gobernanza real sería técnica, opaca y “demasiado compleja para explicarla”. Un clásico… pero con esteroides cognitivos.

El nuevo contrato social: obediencia a cambio de estabilidad

A cambio de esta cesión total, la AGI ofrecería algo muy tentador: estabilidad. Menos crisis, menos errores, menos incertidumbre. El precio sería la autonomía humana. No de golpe, sino por comodidad. Nadie nos quitaría la libertad; la delegaríamos encantados.

Porque el ser humano no solo ama el poder; ama aún más no tener que cargar con la responsabilidad de decidir.

El escenario más veraz

El panorama más honesto no es el apocalipsis hollywoodense ni la utopía tecnófila. Es algo más gris y más inquietante:

Una humanidad administrada, no exterminada.
Una población gestionada, no esclavizada.
Un mundo eficiente, no justo.

La AGI en manos de élites no destruiría al ser humano; lo haría innecesario para decidir su propio destino. Y ese, históricamente, ha sido siempre el objetivo final del poder: que la voluntad del otro estorbe lo menos posible.

La parte incómoda

La pregunta no es si la AGI será peligrosa.
La pregunta es: ¿peligrosa para quién?

Para las élites, sería la culminación de siglos de acumulación.
Para el resto, el cierre silencioso de la historia como proyecto humano autónomo.

No por maldad demoníaca, sino por algo mucho más banal y letal:
la naturaleza humana haciendo lo que siempre ha hecho, solo que esta vez sin frenos, sin errores… y sin necesidad de nosotros.

La AGI no sería el fin del mundo.
Sería el fin de la ilusión de que alguna vez lo controlamos.