Líderes tecnológicos hablaron en Washington sobre la ética de la IA. ¿Compromiso real?

La inteligencia artificial (IA) es una de las tecnologías más poderosas y prometedoras de nuestro tiempo. Pero también plantea una serie de cuestiones éticas que afectan a la sociedad, la economía y los derechos humanos. ¿Qué hacer cuando una IA discrimina a ciertos grupos? ¿Cómo proteger la privacidad y la seguridad de los datos? ¿Quién es responsable de los errores o daños causados por una IA?

Para abordar estas y otras preguntas, los líderes tecnológicos se reunieron con legisladores y reguladores en un evento en Washington, D.C., el 13 de septiembre de 2023. El objetivo era dialogar sobre la ética de la IA y buscar soluciones conjuntas que garanticen el desarrollo y uso responsable de esta tecnología. Los ejecutivos de las principales empresas tecnológicas, como Google, Microsoft y Meta, hablaron sobre sus compromisos con la transparencia, la equidad y la responsabilidad en el desarrollo y uso de la IA. Pero, ¿fueron sinceros o solo se trataba de una estrategia de marketing?

¿Cómo funciona la tecnología que usas a diario? ¿Quiénes son los responsables de crearla y cómo lo hacen? Pues bien, aquí hay varias cosas que considerar. En primer lugar, el grado de concentración del desarrollo. La concentración es por ciudades, por empresas y por personal. En otras palabras, el desarrollo de esta tecnología está en muy pocas manos.

En segundo lugar, existe la costumbre en Silicon Valley de sacar productos y servicios a la calle sin que estén totalmente probados o regulados. Eso se hace por la presión financiera que implica querer llegar antes que la competencia. Entonces, sacan el genio de la botella y lo ponen a disposición de millones de usuarios que no tienen ni idea de lo que están haciendo. Y luego, van a conferencias a hablar de regulación, ética y responsabilidad social. Como si fueran los guardianes del bien común.

¿Qué consecuencias tiene esto para ti y para el mundo? Pues muchas y no todas buenas. Por un lado, puedes disfrutar de servicios innovadores y gratuitos que te facilitan la vida. Por otro lado, puedes sufrir problemas de seguridad, privacidad y manipulación que te complican la existencia. Y todo esto sin que tengas mucho control ni voz ni voto sobre lo que ocurre con tus datos, tus derechos y tu futuro.

Los líderes tecnológicos, en Washington, hicieron una serie de promesas sobre cómo abordarían los desafíos éticos de la IA. Por ejemplo, Google se comprometió a crear un nuevo equipo de ética de la IA para supervisar el desarrollo de sus productos e inversiones. El equipo estaría formado por expertos en ciencias sociales, filosofía, derecho y ética, y tendría el poder de vetar cualquier proyecto que no cumpliera con los principios éticos de Google. Suena muy bien, ¿verdad? Pero no hay que olvidar que Google ya tuvo un equipo similar en el pasado, que terminó disolviéndose tras una serie de escándalos y despidos.

Microsoft anunció que crearía un nuevo centro de excelencia en ética de la IA para educar a los desarrolladores y usuarios sobre los riesgos y beneficios de la tecnología. El centro ofrecería cursos, recursos y herramientas para fomentar el uso ético de la IA. Además, Microsoft afirmó que aplicaría un enfoque basado en los derechos humanos para evaluar el impacto social y ambiental de sus productos. Suena muy noble, ¿verdad? Pero no hay que olvidar que Microsoft también ha sido criticado por colaborar con el ejército estadounidense en el desarrollo de sistemas de armas basados en la IA.

Y Meta se comprometió a aumentar la transparencia sobre cómo usa la IA en sus productos, como Facebook e Instagram. La empresa dijo que publicaría informes periódicos sobre las decisiones que toma su IA, como eliminar contenidos o recomendar publicaciones. También dijo que permitiría a los usuarios apelar las decisiones de su IA y darles más control sobre sus preferencias. Suena muy democrático, ¿verdad? Pero no hay que olvidar que Meta también ha sido acusado de usar su IA para manipular a los usuarios, fomentar la desinformación y violar la privacidad.

Si bien los compromisos de los líderes tecnológicos son un buen comienzo, es importante que se traduzcan en acciones concretas. Los legisladores y reguladores deberán vigilar de cerca a las empresas tecnológicas para garantizar que cumplan sus promesas. Y los ciudadanos deberán estar informados y exigir sus derechos.

¿Puras palabras? ¿Compromisos serios? Lo importante no es dudar del compromiso de las tecnológicas. Lo importante es destacar que al menos estas empresas y los reguladores están dialogando. Eso es lo que hay que celebrar. Están hablando, y eso es bueno. Ahora hay que promover que ese diálogo no se quede en diálogo. Que se convierta en acción concreta. Porque de nada sirve hablar si luego no se hace nada. Hay que hablar y hacer. Y hacer bien.

El evento en Washington fue un paso importante para avanzar en la discusión sobre la ética de la IA. Sin embargo, aún queda mucho trabajo por hacer para garantizar que la IA se desarrolle y use de manera responsable. No basta con confiar en las buenas intenciones de los líderes tecnológicos, sino que se necesita una regulación efectiva y participativa que proteja el interés público. La ética de la IA no es solo un asunto técnico o empresarial, sino también social y político.

Ciertamente, los compromisos de los líderes tecnológicos me parecen insuficientes y poco creíbles. Creo que las empresas tecnológicas tienen intereses económicos y políticos que pueden entrar en conflicto con la ética de la IA. Por eso, creo que se necesita una mayor supervisión y rendición de cuentas por parte de los gobiernos y la sociedad civil.

Por otro lado, los riesgos que tiene la IA para la sociedad son muchos y variados. Algunos de ellos son: la discriminación, la exclusión, la pérdida de empleo, la violación de la privacidad, la manipulación, la desinformación, la polarización, el ciberataque, el daño ambiental y el conflicto armado. ¿Qué se va a hacer sobre eso?

Los beneficios que puede aportar la IA al mundo también son muchos y variados. Algunos de ellos son: la mejora de la salud, la educación, la movilidad, la seguridad, la comunicación, la creatividad, la innovación, el desarrollo y la cooperación. Y eso no podemos pasarlo por alto.

La tecnología AI es genial. Nos permite hacer maravillas con solo pulsar un botón. Sería muy útil. Si no fuera porque a veces se equivoca, se rebela o se vuelve loca. Por eso hay que ponerle reglas.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Te puede interesar:

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.