La Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha dado un paso importante al anunciar el inicio de una fase piloto para supervisar la implementación del Código de Conducta Internacional para Organizaciones que Desarrollan Sistemas de Inteligencia Artificial (IA) Avanzada, conocido como el Proceso de Hiroshima. Esta iniciativa, que forma parte del compromiso del G7 para fomentar un desarrollo de la IA seguro, confiable y ético, marca un hito significativo en el panorama global de la inteligencia artificial.
El Proceso de Hiroshima fue lanzado en mayo de 2023, como parte de un Marco de Política Integral que incluye varios componentes esenciales. Entre ellos se destaca el informe de la OCDE titulado «Hacia una Comprensión Común del G7 sobre la IA Generativa», los Principios Internacionales de Orientación para todos los actores de la IA, el mencionado Código de Conducta Internacional y una cooperación enfocada en proyectos sobre IA. Durante la presidencia italiana del G7, los miembros del grupo han puesto especial énfasis en avanzar en estos objetivos.
La fase piloto del marco de informes, la cual estará activa hasta el 6 de septiembre de 2024, establece un primer paso crucial hacia la creación de un mecanismo robusto para supervisar el Código de Conducta, en respuesta a los pedidos de los líderes del G7. Este marco preliminar, desarrollado en colaboración con expertos en IA de los países del G7 y respaldado por Italia, incluye un conjunto de preguntas alineadas con las 11 Acciones del Código de Conducta. La implementación de un marco de informes definitivo promete aumentar la transparencia y la comparabilidad en las medidas destinadas a mitigar los riesgos asociados con los sistemas avanzados de IA, además de facilitar la identificación y difusión de buenas prácticas.
Se invita a las organizaciones que desarrollan sistemas avanzados de IA a participar en esta fase piloto. Las respuestas obtenidas durante este tiempo serán clave para perfeccionar el marco de informes, con la intención de lanzar una versión final a finales de este año. Un marco común no solo podría mejorar la comparabilidad de la información disponible para el público, sino también simplificar el proceso de reporte para las organizaciones que operan en diversas jurisdicciones.
La OCDE, que ha estado a la vanguardia en la formulación de políticas sobre IA desde 2016, adoptó en 2019 la Recomendación sobre IA, el primer estándar intergubernamental en este ámbito, que fue actualizado en 2024. Este marco regulatorio se ha consolidado como un referente global para las políticas de IA y refleja el compromiso de la OCDE con la colaboración intergubernamental para abordar desafíos de política pública que cruzan las fronteras nacionales.