¿Estamos al borde de la extinción por la IA?: un riesgo real o una fantasía apocalíptica

La inteligencia artificial (IA) es una de las tecnologías más prometedoras y revolucionarias de nuestro tiempo. Gracias a ella, podemos hacer cosas increíbles, como reconocer rostros, traducir idiomas o jugar al ajedrez. Pero también puede ser una de las más peligrosas y destructivas. Así lo advierten los principales creadores de la IA en una carta abierta que alerta sobre el “peligro de extinción” que supone esta tecnología para la humanidad.

La declaración es la siguiente: “Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos de escala social como las pandemias y la guerra nuclear.”

Según ellos, la IA podría causar daños irreparables si no se regula y se controla adecuadamente. Comparan esta amenaza con la de una pandemia o una guerra nuclear, y piden a los gobiernos y a la sociedad que tomen medidas urgentes para evitar el peor escenario posible. ¿Será que los padres de la IA se han arrepentido de su creación? ¿O será que quieren protegernos de nosotros mismos y de nuestra curiosidad insaciable? Sea como sea, parece que la IA no es tan inocente como parece.

El ser humano es un creador de herramientas. Desde tiempos ancestrales, ha inventado y usado objetos para facilitar su supervivencia y su bienestar. Las herramientas amplían el poder del ser humano, le permiten hacer cosas que de otra forma no podría. Pero todo poder también implica un riesgo. Porque el ser humano tiene una larga historia de usar herramientas contra otros, ya sea para defenderse, para atacar o para dominar. Lo que implica que mientras más poderosa sea la herramienta, más grande es el peligro.

Imaginemos por un momento que un alguien lanza un machete dentro de una jaula de monos. El machete es una herramienta muy útil para cortar ramas o frutas, pero también muy peligrosa para cortar carne o huesos. ¿Qué harían los monos con el machete? ¿Lo ignorarían, lo usarían como juguete, lo compartirían o se lo disputarían? ¿Lo usarían para cooperar o para competir? ¿Lo usarían para ayudarse o para lastimarse? El machete podría tener efectos muy diferentes según cómo lo usen los monos. Podría alterar la jerarquía social, provocar conflictos o alianzas, generar miedo o confianza. O incluso podría significar la extinción del grupo.

Ahora bien, si un machete puede causar tanto impacto en una jaula de monos, ¿qué no podrá causar una herramienta mucho más poderosa y compleja como la inteligencia artificial en el planeta Tierra? La inteligencia artificial es una herramienta que puede hacer cosas maravillosas, pero también terribles. Puede mejorar nuestra calidad de vida, pero también amenazar nuestra existencia. Puede resolver nuestros problemas, pero también crear otros nuevos. Puede ser nuestra aliada, pero también nuestra enemiga. Todo depende de cómo la usemos nosotros, los seres humanos.

Al mismo modo que el ser humano es un creador de herramientas, el ser humano también es un usuario de armas. Muchas de las herramientas que ha inventado a lo largo de la historia han servido para hacer la guerra, así como para hacer la paz. La inteligencia artificial (IA) es una de esas herramientas que puede tener usos militares muy variados y potentes. Pero también puede tener consecuencias muy graves y peligrosas.

La IA puede aplicarse a la guerra de muchas formas. Por ejemplo, puede mejorar la precisión y la velocidad de los sistemas de vigilancia, reconocimiento y ataque. Puede facilitar la coordinación y la comunicación entre las unidades y los mandos. Puede optimizar la logística y el mantenimiento de los equipos y las infraestructuras. Puede aumentar la capacidad de defensa y de disuasión frente a las amenazas.

La IA también puede generar nuevos problemas y desafíos. Por ejemplo, puede crear armas autónomas que actúen sin supervisión ni control humano, lo que plantea dilemas éticos y legales. Puede provocar una carrera armamentista entre las potencias rivales, lo que aumenta el riesgo de conflicto y escalada. Puede ser vulnerable al sabotaje, al hackeo o al uso indebido por parte de actores malintencionados, lo que amenaza la seguridad y la estabilidad. Puede alterar el equilibrio de poder y la gobernabilidad global, lo que genera incertidumbre y tensión.

La IA aumenta la capacidad y el peligro del ser humano. El ser humano siempre ha usado herramientas para enfrentarse a otros, ya sea para protegerse, para agredir o para controlar. Imaginemos que un país envía una IA armada a otro país. La IA podría ser un arma muy eficaz para conseguir un fin militar, pero también muy nociva para provocar un daño accidental. ¿Qué harían los países con la IA? ¿La dejarían pasar, la usarían como amenaza, la repartirían o se la pelearían? ¿La usarían para colaborar o para rivalizar? ¿La usarían para apoyarse o para perjudicarse? La IA podría tener efectos muy distintos según cómo la usen los países. Podría propiciar la paz, desatar una guerra o incluso provocar una extinción.

La gente de Silicon Valley suele ponerse una capa de superhéroes y hablar muy lindo. Pero no nos dejemos engañar, no son ningunos santos del cielo. Ellos mueven el esqueleto por el dinero. Ellos sacan sus productos para ganarle a la competencia lo más pronto posible, sin preocuparse si están bien hechos y regulados. Y una vez que el producto está en el mercado, la bolsa los recompensa con millones de dólares en sus cuentas. Luego, cuando ya se han llenado los bolsillos, es cuando se ponen a hablar de los riesgos y la necesidad de regulación. No hay que ser un Einstein para saber que los abogados y los departamentos de comunicación han influido mucho en esa decisión de la carta.

Pesar de que lo hecho en la carta no es falso, la carta en muchos sentidos es una obra maestra de la hipocresía y el cinismo. Los creadores de la IA dicen que quieren evitar los males que ellos mismos han causado o propiciado. Dicen que quieren proteger a la humanidad de la IA, pero en realidad quieren protegerse a sí mismos de la responsabilidad y la competencia. Sí, la regulación de la IA es de vital importancia. Y no porque lo diga Sam Altman de OpenAI.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Te puede interesar:

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.