Expertos en IA firman un documento que compara el riesgo de “extinción por IA” con pandemias y guerras nucleares

Decenas de expertos en inteligencia artificial (IA), incluidos los CEO de OpenAI, Google DeepMind y Anthropic, firmaron recientemente una declaración abierta publicada por el Centro para la Seguridad de IA (CAIS). 

La declaración contiene una sola frase:

“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto a otros riesgos a escala social como las pandemias y la guerra nuclear”.

Entre los firmantes del documento se encuentra un auténtico “quién es quién” de las luminarias de la IA, incluido el “Padrino” de la IA, Geoffrey Hinton; Stuart Russell, de la Universidad de California en Berkeley; y Lex Fridman, del Instituto Tecnológico de Massachusetts. El músico Grimes también es uno de los firmantes, en la categoría de “otras figuras notables”.

Aunque la declaración pueda parecer inocua a primera vista, el mensaje subyacente es algo controvertido en la comunidad de la IA.

Un número aparentemente creciente de expertos cree que las tecnologías actuales pueden conducir o conducirán inevitablemente a la aparición o el desarrollo de un sistema de IA capaz de suponer una amenaza existencial para la especie humana.

Sus puntos de vista, sin embargo, son rebatidos por un contingente de expertos con opiniones diametralmente opuestas. Yann LeCun, científico jefe de IA de Meta, por ejemplo, ha señalado en numerosas ocasiones que no cree necesariamente que la IA llegue a ser incontrolable.

Para él y otros que no están de acuerdo con la retórica de la “extinción”, como Andrew Ng, cofundador de Google Brain y antiguo científico jefe de Baidu, la IA no es el problema, sino la respuesta.

En el otro lado de la discusión, expertos como Hinton y Connor Leahy, CEO de Conjecture, creen que la IA a nivel humano es inevitable y, por tanto, el momento de actuar es ahora.

Sin embargo, no está claro qué acciones piden los firmantes de la declaración. Entre los firmantes se encuentran los CEO y/o responsables de IA de casi todas las grandes empresas de IA, así como científicos de renombre del mundo académico, lo que hace evidente que la intención no es detener el desarrollo de estos sistemas potencialmente peligrosos.

A principios de este mes, el CEO de OpenAI, Sam Altman, uno de los firmantes de la declaración antes mencionada, compareció por primera vez ante el Congreso durante una audiencia en el Senado para debatir la regulación de la IA. Su testimonio saltó a los titulares luego de que dedicara la mayor parte del mismo a instar a los legisladores a regular su industria.

Worldcoin de Altman, un proyecto que combina criptomoneda y prueba de personalidad, también ha aparecido recientemente en los medios de comunicación tras recaudar USD 115 millones en financiación Serie C, con lo que su financiación total tras tres rondas asciende a USD 240 millones.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Sigue leyendo:

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.