Australia pregunta si debe prohibirse la IA de “alto riesgo” en una consulta sorpresa

El gobierno australiano ha anunciado una consulta repentina de ocho semanas de duración que tratará de entender si deben prohibirse las herramientas de inteligencia artificial “de alto riesgo”.

Otras regiones, como Estados Unidos, la Unión Europea y China, también han puesto en marcha en los últimos meses medidas para comprender y potencialmente mitigar los riesgos asociados al rápido desarrollo de la IA.

El 1 de junio, el ministro de Industria y Ciencia, Ed Husic, anunció la publicación de dos documentos: un documento de debate sobre “IA segura y responsable en Australia” y un informe sobre IA generativa del Consejo Nacional de Ciencia y Tecnología.

Bitcoin se vende a USD 5,000 más barato en Binance Australia

Los documentos se acompañan de una consulta que se prolongará hasta el 26 de julio.

El Gobierno desea recibir opiniones sobre cómo apoyar el “uso seguro y responsable de la IA” y analiza si debe adoptar enfoques voluntarios, como marcos éticos, si es necesaria una regulación específica o emprender una combinación de ambos enfoques.

Mapa de opciones para una posible gobernanza de IA con un espectro que va de lo “voluntario” a lo “normativo”. Fuente: Ministerio de Industria, Ciencia y Recursos

Una pregunta de la consulta plantea directamente la cuestión de “si deberían prohibirse por completo las aplicaciones o tecnologías de IA de alto riesgo” y qué criterios deberían utilizarse para identificar las herramientas de IA que deberían prohibirse.

En el exhaustivo documento de debate se incluyó un borrador de matriz de riesgos para los modelos de IA con el fin de recabar opiniones. Aunque sólo para dar ejemplos, clasificaba la IA en los coches autoconducidos como de “alto riesgo”, mientras que una herramienta de IA generativa utilizada para un fin como la creación de historiales médicos de pacientes se consideraba de “riesgo medio”.

El documento destaca el uso “positivo” de la IA en los sectores de la medicina, la ingeniería y el derecho, pero también sus usos “nocivos”, como las herramientas de deepfake, el uso en la creación de noticias falsas y casos en los que los robots de IA han fomentado las autolesiones.

El sesgo de los modelos de IA y las “alucinaciones” -información sin sentido o falsa generada por IA- también se mencionaron como problemas.

El documento de debate afirma que la adopción de IA es “relativamente baja” en el país, ya que tiene “bajos niveles de confianza pública”. También señalaba la regulación de IA en otras jurisdicciones y la 
prohibición temporal de ChatGPT en Italia.

Por su parte, el informe del Consejo Nacional de Ciencia y Tecnología afirma que Australia cuenta con algunas capacidades ventajosas de IA en robótica y visión por ordenador, pero su “capacidad fundamental básica en [grandes modelos lingüísticos] y áreas relacionadas es relativamente débil”, y añade:

“La concentración de recursos de IA generativa en un pequeño número de grandes empresas tecnológicas multinacionales y principalmente estadounidenses plantea riesgos potenciales [sic] para Australia”.

El informe analizaba además la regulación mundial de IA, daba ejemplos de modelos generativos de IA y opinaba que “probablemente afectarán a todo, desde la banca y las finanzas hasta los servicios públicos, la educación y las industrias creativas”.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión

Sigue leyendo:

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.