La directora de tecnología de OpenAI dice que los reguladores deberían estar “muy implicados” en la supervisión de la IA

Mira Murati, directora de tecnología de OpenAI, cree que los reguladores gubernamentales deberían estar “muy implicados” en el desarrollo de normas de seguridad para el despliegue de modelos avanzados de inteligencia artificial como ChatGPT. 

También cree que la propuesta de pausa de seis meses en el desarrollo no es el camino correcto para crear sistemas más seguros y que la industria no está actualmente cerca de alcanzar la inteligencia artificial general (AGI), un umbral intelectual hipotético en el que un agente artificial es capaz de realizar cualquier tarea que requiera inteligencia, incluida la cognición a nivel humano. Sus comentarios proceden de una entrevista con Associated Press publicada el 24 de abril.

Cuando se le preguntó por las precauciones de seguridad que OpenAI tomó antes del lanzamiento de GPT-4, Murati explicó que la empresa adoptó un enfoque lento del entrenamiento no solo para inhibir la inclinación de la máquina a comportamientos no deseados, sino también para localizar cualquier problema posterior asociado a tales cambios:

“Hay que tener mucho cuidado porque se puede crear algún otro desequilibrio. Tienes que auditar constantemente […] Entonces tienes que ajustarlo de nuevo y tener mucho cuidado cada vez que haces una intervención, viendo qué más se está cambiando”.

Tras el lanzamiento de GPT-4, los expertos, temerosos de las incógnitas que rodean el futuro de la IA, han pedido intervenciones que van desde una mayor regulación gubernamental hasta una pausa de seis meses en el desarrollo mundial de la IA.

Esta última sugerencia ha recibido la atención y el apoyo de personalidades del campo de la IA como Elon Musk, Gary Marcus y Eliezer Yudkowski, mientras que muchas figuras notables como Bill Gates, Yann LeCun y Andrew Ng se han manifestado en contra.

Por su parte, Murati expresó su apoyo a la idea de una mayor implicación gubernamental, afirmando que “estos sistemas deben regularse”. Y prosiguió: “En OpenAI, hablamos constantemente con gobiernos y reguladores y otras organizaciones que están desarrollando estos sistemas para, al menos a nivel de empresa, acordar cierto nivel de estándares”.

Pero, sobre el tema de la pausa en el desarrollo, el tono de Murati fue más crítico:

“Algunas de las afirmaciones de la carta eran sencillamente falsas sobre el desarrollo de GPT-4 o GPT-5. No estamos entrenando la GPT-5. No tenemos previsto hacerlo en los próximos seis meses. Y no hemos sacado GPT-4 a toda prisa. De hecho, nos hemos tomado seis meses para centrarnos por completo en el desarrollo y despliegue seguros de GPT-4”.

En respuesta a si existe actualmente “un camino entre productos como GPT-4 y AGI”, Murati declaró a Associated Press que “estamos lejos de tener un sistema AGI seguro, fiable y alineado”.

Esto podría ser una noticia agria para quienes creen que GPT-4 está al borde de AGI. El enfoque actual de la empresa en la seguridad y el hecho de que, según Murati, ni siquiera esté entrenando aún la GPT-5, son fuertes indicadores de que el codiciado descubrimiento de la inteligencia general sigue estando fuera de su alcance por el momento.

La mayor atención de la empresa a la regulación se produce en medio de una mayor tendencia al escrutinio gubernamental. Recientemente, los productos GPT de OpenAI han sido prohibidos en Italia y el 30 de abril vence el plazo para cumplir la normativa local y de la UE en Irlanda, un plazo que, según los expertos, será difícil de cumplir.

Estas prohibiciones podrían tener un grave impacto en la escena europea de las criptomonedas, ya que ha habido un creciente movimiento hacia la adopción de bots avanzados de comercio de criptomonedas construidos sobre aplicaciones que utilizan la API GPT. Si OpenAI y las empresas que crean productos similares no pueden operar legalmente en Europa, los traders que utilicen esta tecnología podrían verse obligados a trasladarse a otro lugar.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.