29 octubre,2025
31.8 C
Mexico
InicioEstilo de vidaIA: ¿Extinción, control o riesgo sistémico? Las tres visiones sobre su futuro

IA: ¿Extinción, control o riesgo sistémico? Las tres visiones sobre su futuro

La inteligencia artificial avanzada ha desatado un debate global sobre sus riesgos. Exploramos las posturas que van desde el peligro existencial hasta el control, y una visión intermedia que se centra en los riesgos sistémicos.

-

El desarrollo de la inteligencia artificial (IA) avanzada ha reavivado un debate global sobre su impacto en la sociedad y los posibles riesgos que implica para la humanidad. Mientras algunos especialistas ven en la IA un peligro existencial inminente, otros la equiparan a tecnologías como la electricidad o internet, defendiendo que es una herramienta controlable. En este escenario, ha surgido una tercera perspectiva que se enfoca en los riesgos acumulativos y sistémicos.

Visión catastrofista: el temor a un riesgo existencial

Esta postura, conocida como la visión de los “doomers”, es defendida por figuras como Eliezer Yudkowsky y Nate Soares. Para ellos, el desarrollo de una superinteligencia —una IA que supere la capacidad intelectual humana— podría llevar al exterminio de la humanidad. Argumentan que los modelos de IA son tan complejos que es imposible comprender o controlar sus motivaciones, y que cualquier intento de regularlos sería ineficaz. La única solución que proponen es la prohibición absoluta del desarrollo de esta tecnología, mediante tratados internacionales similares a los de las armas nucleares. Esta visión ha sido criticada por su carácter absoluto y por omitir los costos y consecuencias de sus propias propuestas.

Visión normalista: la IA como una herramienta controlable

En el extremo opuesto, la postura “normalista”, defendida por expertos como Arvind Narayanan y Sayash Kapoor, considera que la IA es una herramienta que puede y debe ser regulada. Para ellos, el problema no es la inteligencia en sí misma, sino el poder que se le otorga a la tecnología. Sostienen que la sociedad tiene la capacidad de controlar la IA con normativas, auditorías y sistemas de seguridad. Consideran que prohibir su desarrollo sería contraproducente, ya que concentraría el poder en manos de unos pocos, aumentando los mismos riesgos que buscan evitar. Sin embargo, esta visión ha sido criticada por minimizar los riesgos, en especial los de tipo militar, y por confiar excesivamente en la eficacia de las regulaciones.

Una perspectiva intermedia: el riesgo acumulativo

Frente a estas posturas polarizadas, la filósofa Atoosa Kasirzadeh propone una vía intermedia. Su análisis se centra en el riesgo acumulativo, es decir, en la suma de peligros éticos, sociales y sistémicos que, aunque no sean existenciales por separado, podrían superar un umbral crítico. Por ejemplo, la combinación de la desinformación, la vigilancia masiva y el desempleo tecnológico podría socavar los cimientos de la civilización. Esta perspectiva no requiere una superinteligencia hostil para prever un desastre, sino la interacción de múltiples fallos. Kasirzadeh propone un análisis sistémico para reforzar la resiliencia de las estructuras sociales y establecer redes de supervisión, permitiendo los beneficios de la IA mientras se mitigan sus riesgos de manera integral.

Más populares