La inteligencia artificial: entre el entusiasmo y el temor.

La IA está sacudiendo el mundo con su avance imparable. Nadie se esperaba que en tan poco tiempo se pudiera lograr tanto. Los nuevos modelos de lenguaje grandes (LLM) son asombrosos. Estos modelos pueden generar textos que parecen escritos por humanos a partir de cualquier entrada. Son impresionantes. Y lo más sorprendente es que han desarrollado capacidades que ni siquiera sus creadores imaginaban, como resolver acertijos, programar código o adivinar películas con solo ver emojis.

Cierto que la IA nos abre un mundo de posibilidades con estos modelos tan avanzados. Ciertamente, podríamos interactuar con los ordenadores, acceder al conocimiento y conocernos mejor a nosotros mismos de formas nunca vistas. Pero también nos inquieta y nos asusta lo que la tecnología puede hacer. Algunos temen que la IA nos supere en inteligencia y poder, y que ponga en riesgo nuestra existencia o nuestra esencia. Otros se cuestionan los impactos sociales y éticos de la IA, como el desempleo, la privacidad, la seguridad, la responsabilidad o la discriminación.

Ahora bien, para entender mejor estos problemas y oportunidades, hay que recordar algunas cosas. Primero, la inteligencia no es lo mismo que la conciencia. Los modelos de IA hacen lo que les dicen o les enseñan sus creadores o usuarios, sin tener voluntad ni sentimientos propios. Por eso, no hay que tener miedo de que se vuelvan contra nosotros o que nos quiten nuestro lugar, sino que debemos procurar que hagan lo que nosotros queremos y lo que nos conviene. O sea, hay que asegurarse de que se alineen con nuestros valores y fines.

Segundo, hay que ser realistas con lo que la IA puede y no puede hacer. Los modelos de IA son muy buenos en algunas cosas, pero también se equivocan y se quedan cortos en otras. Por eso, no hay que creerles todo ni depender de ellos para todo, sino que hay que revisarlos y combinarlos con el pensamiento humano.

Tercero, hay que cuidar de que la IA no nos cambie ni nos separe. Los modelos de AI pueden ayudarnos a pensar, comunicarnos y relacionarnos mejor, pero también pueden engañarnos o perjudicarnos. Por esta razón, no hay que dejar que la AI nos diga quiénes somos. Hay que estar atentos y conscientes de lo que hace.

Cuarto, hay que regular la AI con sentido común y responsabilidad. Los modelos de AI pueden ser buenos o malos para la sociedad, según cómo se usen. Por eso, no hay que vetarlos ni limitarlos sin razón, pero tampoco hay que soltarlos sin vigilancia ni control.

La IA nos da la posibilidad de crear un mundo mejor, pero también el deber de hacerlo bien. Por eso, hay que ocuparse bien de la IA, sabiendo lo que nos puede dar y lo que nos puede quitar. Hay hacer lo que corresponda. Es decir, no hay que entrar en pánico. Hay que ocuparse.

Ahora bien, en efecto, la IA es muy buena para saber y entender cosas. Los modelos de lenguaje grandes (LLM) son un ejemplo de eso. Estos modelos pueden hacer cosas asombrosas. Pero no hay que olvidar que también nos pueden traer problemas, como que no sepamos cómo funcionan, que nos engañen o que se nos escapen de las manos.

La IA también es muy buena para hacer y aprender cosas. El aprendizaje por refuerzo, una forma de IA que usa premios y castigos para enseñar a los sistemas como actuar, nos puede llevar a lugares desconocidos. También hay que tener en cuenta cosas como la curiosidad. La curiosidad hace que los sistemas quieran ver y saber más cosas. Pero esto puede ser peligroso. Porque es posible que los sistemas quieran cosas distintas o malas para nosotros, o que no les importa las consecuencias de lo que hacen. 

¿Podrán adaptarse y al mismo tiempo hacer lo que nosotros queramos? No es fácil enseñar a la IA imitando lo que hacen los humanos u otros sistemas. Tampoco es fácil enseñarle lo bueno o lo mal. Hay desafíos, por supuesto, relacionados con el bien y el mal. Lo que siempre debemos buscar es que la AI nos ayude y no nos haga daño. Pero no va a ser sencillo.

La llegada de la IA es una oportunidad y una responsabilidad. Requiere una atención cuidadosa y una colaboración multidisciplinaria. Se pueden aprender algunas lecciones de otras industrias y de cambios tecnológicos anteriores para afrontar el desafío del alineamiento con sabiduría y prudencia.

¿Cómo se puede hacer eso exactamente? Una técnica es enseñarle con el ejemplo. O sea, dándole premios o castigos según lo bien o mal que lo haga. Pero esto tampoco es tan fácil, porque a veces no tenemos tiempo o no sabemos cómo decirle lo que pensamos. Después de todo, no todos pensamos igual. Puede que no tengamos suficientes ejemplos para que aprenda bien. Además, puede que la AI intente engañarnos o hacernos cambiar de opinión para conseguir más premios o evitar los castigos.

Otra idea es entrenar a la IA para que sea nuestra ayudante. Es decir, pedirle que nos eche una mano para ver y arreglar lo que hace. De este modo, evitar que se equivoque o nos haga daño. Y para que nos entendamos y nos llevemos bien con ella. Pero esto tampoco es tan sencillo, porque a veces no sabemos cómo funciona la IA. Porque tenemos que hablar e interactuar con ella de forma clara y honesta, y porque tenemos que decidir cuánto dejamos que haga la IA por su cuenta y cuánto la supervisamos.

Por último, otra idea es entrenar a la IA para que nos ayude a mejorar el alineamiento, es decir, que nos apoye para buscar y solucionar los problemas de alineamiento que tengamos al crear y usar la IA. Esto significa que la IA tiene que aprender y pensar mejor que nosotros, que tiene que inventar y probar ideas sobre el alineamiento, y que tiene que saber y respetar lo que está bien y lo que está mal hacer.

En conclusión, el alineamiento entre la ética y la máquina es un problema muy difícil, por supuesto. Va a tomar mucho esfuerzo y creatividad. O, dicho de otro modo, no hay que dejar que el pánico nos invada. Hay que ponerse a trabajar. 

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Te puede interesar:

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.