29 octubre,2025
27.8 C
Mexico
InicioEstilo de vidaCientíficos, Políticos y Empresarios Piden Detener el Desarrollo de la “Superinteligencia Artificial”

Científicos, Políticos y Empresarios Piden Detener el Desarrollo de la “Superinteligencia Artificial”

Más de 700 personalidades, incluyendo a Geoffrey Hinton, Steve Wozniak y will.i.am, piden detener el desarrollo de la Superinteligencia Artificial (IA) hasta que exista consenso científico sobre cómo construirla de forma segura y controlada.

-

Más de 700 figuras prominentes, incluyendo científicos, políticos, líderes empresariales y celebridades, han hecho un llamado global para detener el desarrollo de una inteligencia artificial (IA) que pueda superar las capacidades humanas, conocida como «superinteligencia artificial».

La iniciativa fue lanzada por el Future of Life Institute, una organización con sede en Estados Unidos dedicada a advertir sobre los efectos nocivos de la IA.

El Llamamiento y los Firmantes Clave

La solicitud es clara:

“Hacemos un llamamiento para que se detenga el desarrollo de una superinteligencia, hasta que exista consenso científico para construirla de forma controlada y segura, y mientras no exista el apoyo de la población”.

Entre los firmantes se encuentran nombres de alto perfil en distintos ámbitos:

  • Pioneros de IA y Ciencia: Geoffrey Hinton (Nobel de Física en 2024 y considerado uno de los «padrinos» de la IA), Stuart Russell (profesor de informática en la Universidad de California en Berkeley) y Yoshua Bengio (profesor de la Universidad de Montreal).
  • Empresarios Tecnológicos: Richard Branson (fundador de Virgin) y Steve Wozniak (cofundador de Apple).
  • Política y Religión: Steve Bannon (exasesor de Donald Trump), Susan Rice (exconsejera de seguridad nacional de Barack Obama) y Paolo Benanti (asesor del Papa y experto del Vaticano en IA).
  • Famosos: El cantante estadounidense will.i.am.

Riesgo y Falta de Regulación

La mayoría de las grandes empresas de IA, como OpenAI (creadora de ChatGPT), buscan desarrollar la Inteligencia Artificial General (IAG), que igualaría las capacidades intelectuales humanas, e incluso la superinteligencia, que iría más allá. Sam Altman, director de OpenAI, ha estimado que el umbral de la superinteligencia podría alcanzarse en cinco años.

Max Tegmark, presidente de Future of Life Institute, criticó esta prisa, declarando que construir algo así es «inaceptable» sin un marco regulatorio:

“Da igual que sea dentro de dos o 15 años, construir algo así es inaceptable. Las empresas no deberían trabajar en este tipo de proyectos sin ningún marco regulatorio.”

Tegmark enfatizó que se puede estar a favor de herramientas de IA potentes (como para curar el cáncer) y, al mismo tiempo, estar en contra de la superinteligencia.

Más populares