La destitución de Sam Altman demuestra que Biden no maneja bien la IA

OpenAI anunció la semana pasada que había despedido al CEO Sam Altman debido a la pérdida de confianza por parte de la junta, solo para verlo regresar a la empresa después de que el 90% del personal de OpenAI amenazara con renunciar. El despido causó una oleada de emoción en empresas que ofrecían igualar los salarios de OpenAI en un intento de atraer talento de primer nivel.

El debacle, y su falta asociada de transparencia, resaltaron la necesidad de regular el desarrollo de la inteligencia artificial, especialmente en lo que respecta a la seguridad y la privacidad. Las empresas están desarrollando rápidamente sus divisiones de inteligencia artificial y una reorganización de talento podría impulsar a una empresa por delante de otras y de las leyes existentes. Si bien el presidente Joe Biden ha tomado medidas en ese sentido, ha estado recurriendo a órdenes ejecutivas, que no requieren la aprobación del Congreso. En cambio, confían en que los burócratas de las agencias las interpreten y podrían cambiar cuando asuma un nuevo presidente.

Este año, Biden firmó una orden ejecutiva relacionada con la “inteligencia artificial segura, segura y confiable”. Ordenó a las empresas de inteligencia artificial que “protejan” a los trabajadores de ‘daños’, presumiblemente en referencia a la posible pérdida de sus empleos. También encargó a la Oficina de Administración y Presupuesto (OMB) y a la Comisión de Igualdad de Oportunidades en el Empleo (EEOC), entre otras cosas, establecer estructuras de gobierno dentro de las agencias federales. También pidió a la Comisión Federal de Comercio (FTC) que se autoevaluara y determinara si tiene la autoridad “para garantizar una competencia justa en el mercado de la inteligencia artificial y para garantizar que los consumidores y los trabajadores estén protegidos de los daños que pueden ser habilitados por el uso de la inteligencia artificial”.

Las órdenes ejecutivas de Biden no van a durar mucho

El problema fundamental con un enfoque impulsado por el decreto ejecutivo es su fragilidad y alcance limitado. Como evidencia, los intentos (en gran parte infructuosos) de la SEC y la CFTC de clasificar las criptomonedas como valores, asignar a las agencias la tarea de promulgar leyes puede causar confusión y aprensión entre los inversores, y en última instancia, están abiertas a interpretación por parte de los tribunales.

Las políticas desarrolladas por agencias sin respaldo legislativo también carecen de permanencia. Si bien la aportación pública es necesaria para la aprobación de regulaciones respaldadas por agencias, el proceso legislativo permite a los consumidores de inteligencia artificial y activos digitales tener una voz más fuerte y ayudar en la aprobación de leyes que aborden problemas reales que enfrentan los usuarios, en lugar de problemas inventados por burócratas a menudo ambiciosos.

El fracaso de Biden al abordar las complejas implicaciones éticas de la implementación masiva de la inteligencia artificial es peligroso; preocupaciones como el sesgo en los algoritmos, la vigilancia y la invasión de la privacidad apenas están siendo abordadas. Esas cuestiones deberían ser tratadas por el Congreso, compuesto por funcionarios elegidos por el pueblo, en lugar de agencias compuestas por nombrados.

Sin el riguroso debate necesario para que el Congreso apruebe una ley, no hay garantía de una ley que promueva la seguridad y privacidad para los usuarios cotidianos. Específicamente, los usuarios de inteligencia artificial necesitan tener control sobre cómo esta tecnología automatizada utiliza y almacena datos personales. Esta preocupación es particularmente aguda en el campo de la inteligencia artificial, donde muchos usuarios no comprenden la tecnología subyacente y las graves preocupaciones de seguridad que conlleva compartir información personal. Además, necesitamos leyes que aseguren que las empresas realicen evaluaciones de riesgos y mantengan sus sistemas automatizados de manera responsable.

Depender de regulaciones promulgadas por agencias federales inevitablemente llevará a la confusión, lo que hará que los consumidores desconfíen de la inteligencia artificial. Este escenario preciso se desarrolló con los activos digitales después de las demandas de la SEC contra Coinbase, Ripple Labs y otras instituciones relacionadas con criptomonedas, lo que hizo que algunos inversores fueran reticentes en su participación con empresas de criptomonedas. Un escenario similar podría desarrollarse en el campo de la inteligencia artificial, donde la FTC y otras agencias demandan a empresas de inteligencia artificial y enredan cuestiones vitales en el sistema judicial durante años.

Es imperativo que Biden involucre al Congreso en estos problemas en lugar de esconderse detrás del poder ejecutivo. A su vez, el Congreso debe estar a la altura de la ocasión, elaborando legislación que encapsule las preocupaciones y aspiraciones de un conjunto diverso de partes interesadas. Sin tales esfuerzos colaborativos, Estados Unidos corre el riesgo de repetir las dificultades experimentadas en el ámbito de los activos digitales, rezagándose potencialmente detrás de otras naciones y llevando la innovación a otros lugares. Más importante aún, la seguridad y privacidad de los ciudadanos estadounidenses, así como de muchos en todo el mundo, están en peligro.

John Cahill es asociado en la oficina de White Plains (Nueva York) del bufete nacional Wilson Elser. John centra su práctica en los activos digitales, y se asegura de que los clientes cumplan con las leyes y reglamentos actuales y en desarrollo. Es licenciado por la Universidad de St. Louis y doctor en Derecho por la Facultad de Derecho de Nueva York.

Este artículo es para fines informativos en general y no pretende ser ni debe ser tomado como asesoramiento legal o de inversión. Los puntos de vista, reflexiones y opiniones expresados aquí son exclusivamente del autor y no reflejan ni representan necesariamente los puntos de vista y opiniones de Cointelegraph.

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.