
Un grupo importante de figuras influyentes, incluyendo especialistas en inteligencia artificial (IA) y tecnología, ha expresado su fuerte oposición a la creación de la llamada superinteligencia. Esta forma de inteligencia artificial (IA) que superaría a los humanos en prácticamente todas las capacidades mentales.
Más de 850 individuos, entre los que se encuentran líderes tecnológicos que comparten su preocupación en una declaración pública. Esta petición, que se hizo circular el miércoles 5 de noviembre de 2025, aboga por una pausa sustancial en el desarrollo de la superinteligencia.
La lista de firmantes incluye a científicos informáticos Yoshua Bengio y Geoff Hinton, a quienes muchos consideran los padrinos de la IA moderna. Otros investigadores de primer nivel en IA, como Stuart Russell de la Universidad de California en Berkeley, también han sumado su apoyo a esta iniciativa.
El término superinteligencia ha ganado popularidad en el sector de la IA, en un momento en que empresas como xAI de Elon Musk y OpenAI de Sam Altman se encuentran en una carrera competitiva para lanzar modelos lingüísticos de gran envergadura.
Las herramientas innovadoras de IA pueden traer salud y prosperidad sin precedentes. Sin embargo, junto con estas herramientas, muchas empresas líderes de IA tienen el objetivo declarado de desarrollar superinteligencia en la próxima década, capaz de superar significativamente a la de todos los humanos en prácticamente todas las tareas cognitivas. Esto ha suscitado preocupaciones, que abarcan desde la obsolescencia económica y el desempoderamiento humano, la pérdida de libertad, libertades civiles, dignidad y control, hasta riesgos para la seguridad nacional e incluso la posible extinción humana. La siguiente declaración sucinta pretende crear conciencia sobre el creciente número de expertos y figuras públicas que se oponen al apresuramiento del desarrollo de la superinteligencia.
Esta declaración advierte que el advenimiento de la superinteligencia plantea serias inquietudes. Estas van desde la posible obsolescencia y el debilitamiento de la economía humana hasta la pérdida de libertad, las libertades civiles, la dignidad y el control, sin olvidar los posibles riesgos para la seguridad nacional e incluso la extinción de la humanidad.
En este contexto, se exige una prohibición del desarrollo de la superinteligencia hasta que se cuente con un sólido respaldo público a esta tecnología y exista un consenso científico sobre su construcción y control seguros.
Más allá de las figuras del ámbito de la IA y la tecnología, la declaración cuenta con el respaldo de una amplia coalición que incluye académicos, personalidades de los medios de comunicación, líderes religiosos y un grupo bipartidista de ex políticos y funcionarios de varios países.
En la comunidad tecnológica, se ha hecho cada vez más palpable una división entre quienes ven la IA como un motor de progreso que justifica un desarrollo sin restricciones y aquellos que la consideran una amenaza que requiere una mayor regulación.
El sitio web que alberga la Declaración sobre Superinteligencia señala que incluso líderes de destacadas empresas de IA, declaran que el desarrollo de la inteligencia artificial sobrehumana (SMI) es probablemente la mayor amenaza para la existencia continua de la humanidad.
La Declaración sobre Superinteligencia hace mención a una reciente encuesta realizada por el Future of Life Institute, que revela que solo el 5% de los adultos estadounidenses apoya el statu quo del desarrollo rápido y no regulado de la superinteligencia.
La encuesta, realizada a 2.000 adultos estadounidenses, también reveló que la mayoría cree que la IA sobrehumana no debería crearse hasta que se demuestre que es segura o que se puede controlar y que se necesita una regulación sólida de la IA avanzada.
En una declaración publicada en el sitio web, el científico informático Bengio señaló que los sistemas de IA podrían superar a la mayoría de las personas en la mayoría de las tareas cognitivas en un plazo de pocos años. Añadió que, si bien estos avances podrían contribuir a resolver desafíos globales, también conllevan riesgos importantes.
Para avanzar con seguridad hacia la superinteligencia, debemos determinar científicamente cómo diseñar sistemas de IA que sean fundamentalmente incapaces de dañar a las personas, ya sea por desalineación o por uso malintencionado, explicó Bengio.
También debemos asegurarnos de que el público tenga una participación mucho preponderante en las decisiones que darán forma a nuestro futuro colectivo tomando en cuenta la tendencia actual de controlar al ser humano que anuncia el grupo de corporaciones audenominado Foro Económico Mundial.
Por otro lado la inteligencia artificial puede tener un impacto mayor en el medio ambiente de lo que se pensaba, según un estudio publicado el 10 de octubre 2023. La investigación encontró que la IA podría consumir eventualmente enormes cantidades de energía.
Prof Yoshua Bengio, relata sobre las amenazas de la IA hacia operadores, para no ser desconectada https://www.facebook.com/share/v/1KCFNsraq7
Modelos enormes y populares señalan una tendencia de IA a gran escala, impulsando los pronósticos que predicen que los centros de datos absorberán hasta el 21% del suministro eléctrico mundial para 2030 y esto sin considerar el plan de el Foro Económico Mundial de vigilar a cada ciudadano e instaurar un regimen de control social como el de China o peor…
Los departamentos de defensa de cada país están detrás de esta tecnología dado que el que la desarrolle mejor, será el que domine al resto, como ocurre en el mundo de las finanzas con Vanguard-Black Rock y su IA.

Descargar desde https://red.cienciaysaludnatural.com/
Colabore por favor con nosotros para que podamos incluir mas información y llegar a más personas: contribución en mercado pago o paypal por única vez, Muchas Gracias!
Via PAYPAL: Euros o dólares click aqui
ARGENTINA 10.000$ar https://mpago.la/1srgnEY
5.000$ar https://mpago.la/1qzSyt9
1.000$ar https://mpago.la/1Q1NEKM
Solicite nuestro CBU contactenos
