Regular la inteligencia artificial: ¿Cómo evitar repetir los problemas de las redes sociales?

Antes de las redes sociales, el mundo era muy diferente. Los que tenemos un par de canas lo sabemos. El cambio ha sido brutal. Muchas cosas buenas, sí. Pero también muchas malas. Antes, veíamos en la tele a un experto hablando de algo. Y luego a otro experto diciendo lo contrario. Y nosotros nos quedábamos callados, escuchando. Ahora todos somos expertos. O eso creemos. Y podemos discutir con cualquiera, aunque no tengamos ni idea. Y así nos va. El caos está servido. ¿Qué ha pasado? ¿Nos hemos vuelto más listos o más tontos? ¿Más libres o más manipulados? ¿Más informados o más confundidos? No lo sé.

La inteligencia artificial (IA) es una de las tecnologías más prometedoras y poderosas de nuestro tiempo, pero también una de las más peligrosas y difíciles de controlar. Por eso, muchos expertos y organizaciones están tratando de establecer normas y principios éticos para regular su uso y evitar sus posibles consecuencias negativas.

Silicon Valley tiene una forma muy particular de innovar: lanzar productos y servicios al mercado sin haberlos probado ni regulado lo suficiente. Así, los usuarios se convierten en conejillos de indias que sufren las consecuencias de los fallos y los abusos. Es como si les dieran cuchillos a los niños y les dijeran: “Diviértanse, pero no se hagan daño”. Y luego, cuando ya hay demasiados heridos y muertos, llegan los reguladores y les quitan los cuchillos o les ponen fundas protectoras. Esa es la filosofía de “inventa cosas y rompe cosas” que caracteriza a Silicon Valley. Una filosofía muy creativa, pero también muy irresponsable.

¿Por qué Silicon Valley actúa así? Porque tiene mucha prisa. Prisa por llegar antes que la competencia, por satisfacer a los inversores, por captar la atención del público. Muchos inversores ponen su dinero en el sector tecnológico, y quieren ver resultados pronto. Así que las tecnológicas tienen que crear expectativa, mostrar que son los primeros y los mejores en innovar. Pero eso tiene un precio. Ese sentido de urgencia les hace descuidar aspectos importantes como la calidad, la seguridad o la ética. Y, al final, los que pagan los platos rotos son los usuarios, que se encuentran con productos y servicios defectuosos, peligrosos o invasivos.

Una de las lecciones que hemos aprendido de la experiencia con las redes sociales es que no se puede esperar a que sea demasiado tarde para actuar. Las redes sociales han demostrado ser una herramienta muy útil para conectar a las personas, compartir información y expresar opiniones, pero también han generado problemas como la desinformación, el odio, la polarización y la manipulación.

Por eso, ahora se está intentando anticipar los riesgos de la IA y prevenirlos antes de que se materialicen. Algunos de los desafíos que plantea la IA son la privacidad, la transparencia, la responsabilidad, la equidad, y la seguridad. ¿Cómo proteger los datos personales de los usuarios y evitar su uso indebido por parte de empresas o gobiernos? ¿Cómo saber qué criterios y algoritmos utiliza la IA para tomar decisiones que pueden afectar a la vida de las personas? ¿Quién es el responsable de los errores o daños que pueda causar la IA, ya sea por diseño o por accidente? ¿Cómo evitar que la IA reproduzca o amplifique los sesgos y las discriminaciones existentes en la sociedad? ¿Cómo garantizar que la IA no sea hackeada o utilizada con fines maliciosos por actores hostiles?

Para responder a estas preguntas, se están creando iniciativas como el Partnership on AI, que reúne a empresas, académicos, organizaciones sociales y gobiernos para promover el desarrollo responsable y beneficioso de la IA; o el AI Ethics Board, que supervisa el cumplimiento de los principios éticos de la IA por parte de las empresas que lo integran.

Estas iniciativas son importantes y necesarias, pero no suficientes. También se requiere una mayor concienciación y participación de la ciudadanía, así como una regulación legal adecuada que garantice el respeto a los derechos humanos y el interés público.

La IA puede ser una gran aliada para mejorar el mundo, pero también puede convertirse en una amenaza si no se gestiona con cuidado. Por eso, hay que estar atentos y actuar con prudencia, sin dejar que nos ciegue el entusiasmo o el miedo. Como dice el refrán: más vale prevenir que curar.

Imagina que quieres ir a un viaje a un lugar desconocido. ¿Qué harías? ¿Te prepararías con mapas, guías, vacunas y equipaje? ¿O te lanzarías a la aventura sin más? Algunas personas dirían que lo mejor es anticiparse a los problemas y planificar todo con antelación. Otras, que eso es aburrido y limita la posibilidad de descubrir cosas nuevas.

Algo parecido pasa con la tecnología. Hay quienes quieren regularla antes de que se extienda y cause daños. Y hay quienes piensan que eso frena la innovación y la creatividad. ¿Quién tiene razón? Pues depende. A veces, es difícil saber cómo va a afectar una tecnología al mundo. No podemos ver el futuro con claridad. Por eso, regular demasiado pronto puede ser como ponerle una camisa de fuerza a los avances. Pero tampoco podemos dejar que todo valga. Hay que proteger a los usuarios.

Entonces, ¿qué hacemos? Pues lo más sensato sería regular con humildad y duda. Es decir, con respeto por la innovación, pero también con precaución por los riesgos. Así, podríamos disfrutar de los beneficios de la tecnología sin sufrir sus consecuencias negativas. Sería como viajar con una mochila ligera, pero con lo necesario para no perdernos ni enfermarnos.

En el debate sobre IA, hay que tener cuidado con los extremos. Por un lado, no podemos permitir que una tecnología potencialmente tan peligrosa como esta cause estragos sin control. Por otro lado, no podemos frenar una tecnología potencialmente tan beneficiosa como esta por miedo o ignorancia. La mejor solución es buscar un equilibrio. ¿Y cómo se logra ese equilibrio? Pues mediante el diálogo y el consenso. Tenemos que construir entre todos una regulación adecuada y oportuna. No es fácil, pero tampoco imposible. Solo hace falta actuar sabiamente.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Te puede interesar:

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.