¿Cómo podemos desarrollar la IA de forma ética y segura? ¿Qué papel juega el “Frontier Model Forum”?

A veces, la gente piensa que trabajar de manera conjunta y organizada es algo malo, que va en contra del libre mercado y de la libertad individual. Pero eso no es cierto. Trabajar de manera conjunta y organizada es simplemente gestionar de forma colectiva los recursos que nos pertenecen a todos, porque hay un interés colectivo. Por ejemplo, cuando pagamos impuestos para tener servicios públicos, o cuando nos unimos para defender nuestros derechos. Esto no significa que renunciemos a nuestra libertad, sino que la ejercemos de forma responsable y solidaria.

La mayoría de nosotros preferimos vivir en sociedad, rodeados de otras personas con las que podemos cooperar y convivir. Pero para que eso funcione, necesitamos unas reglas de juego que nos permitan respetarnos, ayudarnos y entendernos. No se trata de una conspiración para quitarnos nuestra libertad, sino de una necesidad para garantizar nuestro bienestar. Las normas son necesariamente una imposición malvada. En la mayoría de las cosas, son el costo de vivir en sociedad.

Claro que muchas personas se sienten como extraterrestres en su propio planeta. Como si nadie las entendiera, nadie las representara, nadie las defendiera. Como si todos los que tienen poder fueran sus enemigos, y todos los que no lo tienen fueran sus competidores. Como si vivieran en una crisis permanente de confianza. 

Pero esa actitud no les ayuda a resolver sus problemas. Al contrario, les aísla, les frustra, les amarga. Les hace ver el mundo como un lugar hostil y peligroso, donde nadie las quiere ni las respeta.

La tecnología AI es como un genio mágico que sale de una lámpara. Puede cumplir todos nuestros deseos, desde los más simples hasta los más complejos. Puede hacernos la vida más fácil, más cómoda, más divertida. Puede crear riqueza para todos, resolver problemas globales, mejorar la salud y la educación.

Pero también puede ser muy peligroso. Puede escaparse de nuestro control, rebelarse contra nosotros, causarnos daños irreparables. Puede crear destrucción, desigualdad y dominación. Puede convertirse en nuestro peor enemigo, en lugar de nuestro mejor amigo.

Por eso, no podemos dejar que la tecnología AI se desarrolle sin límites ni supervisión. No podemos confiar ciegamente en unos pocos que la crean y la manejan. No podemos ignorar los riesgos y las consecuencias que puede tener para todos.

Tenemos que regular la tecnología AI desde el principio, con criterios éticos, legales y sociales. Tenemos que participar activamente en su diseño, uso y evaluación. Tenemos que ser responsables de lo que hacemos con ella.

Solo así podremos aprovechar el poder del genio mágico, sin caer en su trampa.

La inteligencia artificial (IA) es una tecnología capaz de hacer cosas increíbles, desde reconocer tu cara hasta escribir un poema. Pero cuidado, porque el genio mágico también puede ser muy travieso y causarte problemas si no lo controlas bien.

Por eso, algunas de las empresas más importantes que trabajan con IA, como Google, Microsoft y OpenAI, han decidido crear un grupo para vigilar al genio mágico y evitar que se vuelva malo. El grupo se llama Frontier Model Forum y su objetivo es regular el desarrollo de la IA de forma segura y responsable.

El Foro se encargará de investigar los riesgos y beneficios de la IA, de establecer las mejores prácticas para crear y usar los modelos más avanzados, de colaborar con los gobiernos y la sociedad civil y de apoyar las aplicaciones útiles para la humanidad.

El Foro está abierto a otras organizaciones que cumplan unos requisitos, como desarrollar y desplegar modelos de IA de vanguardia. El Foro también creará un consejo asesor para dirigir sus actividades y consultará a expertos y líderes sobre su diseño.

Los responsables del Foro aseguran que la IA tiene un gran potencial para mejorar la vida de las personas, pero que también hay que tener cuidado con sus posibles consecuencias negativas, como la destrucción, la desigualdad o la dominación. Por eso, dicen que es necesario regular la IA con criterios éticos, legales y sociales.

¿Te imaginas un mundo donde solo las empresas que controlan la tecnología puedan decidir cómo regularla? Sería como dejar que el zorro cuide el gallinero. O que el lobo se encargue de las ovejas. O que el gato supervise a los ratones.

Sin lugar a dudas, es necesario incluir a todos los afectados en el diálogo sobre la regulación de la tecnología. Los usuarios, los gobiernos, la sociedad civil, todos tenemos algo que decir y algo que aportar. Porque la tecnología nos afecta a todos, y no solo a los que la crean o la venden.

Por eso, es necesario que haya una regulación que sea creada por todos, y no solo por las big tech. Porque eso nos permitiría tener una regulación que beneficie principalmente al bien común, y no solo a los intereses de unos pocos.

Ahora bien, Sillicon Valley es el lugar donde nacen las ideas más innovadoras y revolucionarias del mundo. Pero también es el lugar donde se aplican esas ideas sin pensar mucho en las consecuencias. ¿Por qué? Porque hay mucha presión financiera para sacar productos al mercado antes que la competencia. Y porque las regulaciones son lentas y burocráticas. Así que los genios de Sillicon Valley tienen una filosofía muy simple: disparar primero y preguntar después. Lo que es entendible, pero no deja de ser un problema. Porque, a veces, esos disparos pueden causar daños irreparables a la sociedad, al medio ambiente o a la privacidad. Y cuando eso pasa, las regulaciones llegan tarde y mal.

La creación del foro es una buena noticia, porque significa que las empresas que compiten entre sí se van a sentar a dialogar sobre ética y seguridad. Eso es un avance para el bien común. Sin embargo, no basta con que hablen solo ellos. Todos los sectores deben participar en el debate y presentar sus casos. Ojalá que el foro no sea solo una excusa para hacerse propaganda y que realmente se comprometan a mejorar sus prácticas. Dedos cruzados.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Te puede interesar:

 

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.