En este momento estás viendo <span class="hpt_headertitle">Discusión sobre un desafío existencial: regulación internacional de la Inteligencia Artificial</span>

Discusión sobre un desafío existencial: regulación internacional de la Inteligencia Artificial

Departamento de Relaciones Económicas Internacionales

Estudios

Discusión sobre un desafío existencial: regulación internacional de la Inteligencia Artificial

Julio Sevares[1]

“Todo muere, chica, así es la cosa.
Y, si el mundo no puede manejar la actual carrera en la superhumana inteligencia artificial entre los grandes poderes,
todo puede morir mucho antes de lo esperado”
[2]

El desarrollo de la Inteligencia Artificial (IA) ha dado lugar a un nuevo riesgo global, concepto tratado por el sociólogo alemán Ulrich Beck (2002 p.5), según el cual las sociedades están expuestas a riesgos, como los ecológicos, que son las consecuencias no deseadas de la acción humana en la “contemporánea modernidad radicalizada”. Toda sociedad ha sufrido riesgos, sostiene Beck, pero “en el nuevo orden el riesgo es global no nacional”

En la actualidad la IA se ha convertido en un nuevo riesgo global y sus efectos esperados sobre las sociedades y las relaciones de poder internacionales ha dado lugar a las primeras discusiones para una regulación de la nueva tecnología. Estas negociaciones aparecen tanto o más difícil que otras que se mantienen en temas como el clima o las finanzas, por los enormes intereses nacionales, económicos y estratégicos, en colisión.

IA, el nuevo desafío existencial global.

Una de las principales razones de la importancia de la IA para los estados es su aplicación en actividades vinculadas con la seguridad y las armas. La IA se utiliza para la fabricación y operación de armas, para procesar informaciones tomadas de otros estados o de ciudadanos de otros estados y para la cíber seguridad propia o el ataque a la cíber seguridad de otros países.

Un analista en el tema sostiene que, entre las potencias, existe la percepción de que está teniendo lugar una carrera armamentista de IA y que la presión por adelantarse a los adversarios está empujando a gobiernos y corporaciones a desarrollar esa tecnología que todavía no es completamente entendida o controlada. Esta competencia, como cualquier carrera armamentista, concluye, puede tener efectos estratégicos desestabilizadores (Meacham, 2023).

En la IA, la competencia geopolítica entre Estados Unidos y China puede traer cambios fundamentales en la capacidad militar, por lo cual los líderes mundiales reconocen ese poder transformador como un componente crítico de la seguridad nacional (Johnson, 2019)

Vladimir Putin conoce el tema: en 2017, cinco años antes de invadir Ucrania, con armas que utilizan IA, sostuvo que “la Inteligencia Artificial es el futuro, no solo para Rusia sino para toda la humanidad…El que sea el líder en esa esfera se convertirá en el señor del mundo” [3]

Temores y advertencias

El avance en la utilización de IA ha generado numerosas advertencias de expertos sobre su impacto en la sociedad. En marzo de 2023 más de mil expertos, incluyendo dirigentes de grandes tecnológicas como Elon Musk, publicaron una carta en la que advierten que los laboratorios están haciendo una carrera fuera de control desarrollando una tecnología que ni siquiera ellos comprenden ni saben si podrán controlar, por la que piden frenar el desarrollo de la IA.[4]

También se realizaron numeroso llamados de atención sobre la posibilidad de una exacerbación del enfrentamiento entre China y Estados Unidos, incluso algunas dentro del país asiático: una revisión de documentos de militares chinos sobre inteligencia artificial, realizada por un investigador de la Universidad de Georgetown, revela que en el sector militar se formularon advertencias sobre el peligro que surge de las posibilidades de un mal manejo de la tecnología y sobre las dificultades que implica chequear y evaluar los sistemas de IA militares. Esto incluye la posibilidad de que armas que funcionan en forma autónoma, guiadas por la IA, puedan desatar escaladas bélicas.

Negociando la amenaza

El desafío de la IA ha dado lugar a numerosos encuentros y acuerdos privados y oficiales para discutir el manejo internacional de la inquietante tecnología.

Algunas de ellas, al mejor estilo de las negociaciones sobre el control de la carrera armamentista que tuvieron desde el fin de la Segunda Guerra Mundial.

La primera iniciativa en ese sentido fue la constitución de la Conference on Artificial Intelligence and Law (ICAIL), en 1987, formada por académicos de varios países. Desde entonces la Conferencia tiene reuniones bianuales y que será anual a partir de la próxima reunión de 2025.

En febrero de 2023, en La Haya, tuvo lugar la primer cumbre en Responsible Artificial Intelligence in the Military Domain (REAIM), con la participación de funcionarios de 60 países, incluyendo a Estados Unidos y China, que proporciona una plataforma para discutir oportunidades, desafíos y riesgos asociados con la utilización militar de la IA.[5]

En ese cuadro Estados Unidos dio a conocer una Declaración Política sobre el Uso Militar Responsable de IA, con el propósito de construir un consenso internacional sobre el tema. (U.S. Department of State, 2023)

Tres meses después, en su reunión de mayo de 2023 en Hiroshima, el G7 (G7 2023) emitió sus Principios Guía para las Organizaciones Desarrollando Sistemas de IA Avanzados dirigida a gobiernos y empresas pero también a instituciones académicas y organizaciones de la sociedad civil. Su objetivo es promover una IA mundial segura y confiable.

En agosto de 2023, el Consejo de Seguridad de la ONU tuvo un primer debate sobre gobernanza de IA basado en la necesidad de confrontar la nueva realidad creada por esa tecnología. En el mismo los concurrentes señalaron las oportunidades y desafíos que presenta para la paz internacional, la seguridad, el desarrollo sustentable y los derechos humanos (IISD 2023)

Ese mismo mes, la Secretaría General del Organismo creó el Cuerpo de Asesores de Alto Nivel para IA, con expertos de 128 países (U.N. 2023)

En octubre, el presidente Joe Biden emitió una Orden Ejecutiva estableciendo como la más alta urgencia gobernar el desarrollo y uso de la IA en forma segura y responsable. El gobierno afirma que, con ese objetivo, se comprometerá con aliados y socios en desarrollar un marco para manejar los riesgos de la IA y promover iniciativas comunes para compartir desafíos. Esta búsqueda incluirá, explicita el documento, conversaciones con competidores (White House 2023)

Por lo que respecta a China, en octubre de 2023 el Ministerio de Asuntos Exteriores del PCC dio a conocer su Iniciativa para la Gobernanza Global de la IA. En el documento el gobierno chino advierte que la paz y el desarrollo global enfrentan varios desafíos, por lo que los países deben comprometerse a una visión común, incluyente, cooperativa y sostenible sobre seguridad. Para eso los países deben construir consensos a través del diálogo y la cooperación para prevenir riesgos y desarrollar marcos de gobernanza (Ministry of Foreign Affairs RPC, 2023).

Al mes siguiente tuvo lugar en Londres una reunión en la que participaron 29 países incluidos Estados Unidos y China y, de América del Sur, Brasil y Chile. Asistieron Kamala Harris, vicepresidente de Estados Unidos, Ursula von der Leyen, presidente de la Comisión Europea, políticos y empresarios de grandes tecnológicas para discutir sobre el tema de la regulación internacional de la IA, donde se expusieron las diferencias de criterio imperantes entre grandes jugadores mundiales. Estados Unidos apoyó el criterio de aceptación voluntaria de regulaciones por parte de las empresas y la UE el modelo propio más regulatorio ya en vigencia. Pero entre los concurrentes europeos hubo posiciones encontradas con el modelo comunitario y más cercanas al estadounidense, como la de Francia, e, inclusive, opiniones de expertos que sostuvieron que todavía es prematuro pensar una regulación porque la tecnología está en plena evolución, por lo que no se sabe que alcance y efectos puede tener en un futuro cercano.[6]

La reunión emitió la Declaración Bletchley que incluye el propósito de trabajar conjuntamente para asegurar una IA centrada en la humanidad, confiable y responsable así como apoyar los foros internacionales existentes y otras iniciativas para promover la cooperación en relación al amplio rango de riesgos planteados por esa tecnología (U.K. Government, 2023).

En abril de 2024 la UE presentó el proyecto final de Ley de Inteligencia Artificial, que incluye prohibir riesgos inaceptables como sistemas de puntuación social y IA manipuladora y obligación de transparencia en los datos por parte de los desarrolladores, mientras las actividades consideradas de riesgo mínimo, como los videojuegos con IA, no están regulados. La mayor parte de las regulaciones recaen sobre los desarrolladores de sistemas considerados de alto riesgo. El proyecto fue acordado por los 27 miembros de la UE y aprobado por el Parlamento Europeo (EU, 2024)

En mayo, la OCDE publicó sus Principios para IA, actualizando su edición de 2019,  dirigidos a países grandes y chicos y a los dueños de las tecnológicas, que incluyen trabajar con las organizaciones internacionales para promover el intercambio de conocimientos en la materia, impulsar consensos sobre su uso y desarrollar indicadores comparables internacionalmente (OECD, 2023).

Ese mismo mes, un grupo de académicos chinos dio a conocer, en forma de sugestión o recomendación, un borrador para una ley sobre IA para la RPC, que dada su circulación abierta podría tener apoyo oficial. El documento incluye un capítulo sobre Cooperación Internacional y Gobernanza Internacional, en la cual, repitiendo conceptos del documento del Ministerio de Asuntos Exteriores de China de octubre de 2023 citado anteriormente, afirma que la RPC adhiere a una visión de seguridad global que es compartida, inclusiva, cooperativa y sustentable y adhiere al principio de dar igual peso al desarrollo y la seguridad, fortaleciendo intercambios para una mejor regulación. (CSET, 2024).

Finalmente, también en mayo de 2024, en Génova, representantes de alto nivel de Estados Unidos y China sostuvieron el primer diálogo, a puertas cerradas, sobre IA, discutiendo los riesgos que ésta representa. En el mismo, EE.UU. resaltó el peligro de mal uso de esa tecnología por parte de China, y este país protestó por las restricciones que impone EE.UU. al acceso a la tecnología necesaria para desarrollar su IA.[7]

El dilema de las regulaciones

Las recomendaciones de regulación recién expuestas chocan contra una serie de realidades presentes en las negociaciones entre partes con intereses encontrados en el ámbito nacional e internacional.

Este problema está esquematizado en el “Dilema del Prisionero” de la Teoría de los Juegos, según el cual en una negociación, las partes con intereses encontrados pueden obtener un resultado más beneficioso (o menos perjudicial) para ambos en la medida que cooperen en la búsqueda de un acuerdo, resignando parte de sus aspiraciones. Pero esas partes tienen, a su vez, fuertes incentivos para no cooperar y para buscar una optimización de beneficios en forma individual, lo cual los puede llevar a  una situación de mayor perjuicio mutuo que en el caso de aceptar un acuerdo.

El dilema puede plantearse también en los términos del esquema de Albert Hirschman (1972), de las opciones de “voz” y “salida”. La primera es la de expresar la opinión dentro de un sistema para intentar cambiarlo, lo cual puede asociarse a una voluntad de pertenencia a un sistema, negociando dentro del mismo. La segunda es la de salir del sistema con el que se está en desacuerdo y mantener la búsqueda del beneficio propio aisladamente.

En las relaciones entre estados, la dificultad para coincidir en la cooperación y regulación surge de que la tecnología es fundamental para su competitividad, su seguridad y su  poder bélico, todo lo cual desestimula la cooperación para compartir información o en aceptar limitaciones a su capacidad de desarrollo tecnológico.

Un aspecto de este problema es, además, que ante la concreción de un acuerdo, las partes siempre enfrentan el peligro del “free rider”, por el que uno de los miembros del acuerdo puede aprovechar las ventajas del mismo para seguir desarrollando solapadamente su tecnología.

Las negociaciones sobre el cambio climático expresan desde hace décadas este problema. Hace más de cincuenta años, en 1972, el Club de Roma publicó el informe “Los Límites del Crecimiento”, elaborado por científicos del MIT de Estados Unidos, en el cual se advertía sobre el peligro de sobreexplotación del planeta utilizando los modelos de crecimiento vigentes, basados en el consumo extensivo de recursos naturales. A partir de allí se extendió la discusión científica e internacional sobre el impacto de ese consumo sobre el medio ambiente y sus peligros, pero países en desarrollo, como China e India se opusieron durante mucho tiempo a cualquier compromiso para reducir las emisiones que causaba su crecimiento mientras que los ya desarrollados, con el gran contaminador Estados Unidos a la cabeza, también evitaron un compromiso ambiental. Recién en 2015, 194 países firmaron el Acuerdo de París, que establece una serie de medidas técnicas, financieras y de control para la reducción de gases de invernadero para reducir el ritmo de aumento de la temperatura. Pero en 2020 el gobierno de Donald Trump retiró a Estados Unidos, uno de los principales emisores de gases, del Acuerdo. El gobierno de Joe Biden volvió a incorporarlo pero estos vaivenes dan cuenta de la fragilidad del Acuerdo.

Por otra parte, el primer balance mundial de la Convención Marco de las Naciones Unidas sobre el Cambio Climático de 2023 asegura que los países no están cumpliendo las metas acordadas y que las emisiones globales no se están reduciendo con la rapidez necesaria para limitar el calentamiento a 1,5 ºC (U.N. 2023)

Un eventual acuerdo sobre IA enfrenta, además, el problema técnico de la verificación de su cumplimiento, por la dificultad que existe para monitorear la actividad de los laboratorios privados o estatales, sea por la complejidad de la tecnología como por el interés de los estados y empresas de mantener sus secretos en temas que consideran sensibles o estratégicos. Un ejemplo de esto se produjo en la pandemia y post pandemia del Covid, cuando China dificultó investigaciones de la Organización Mundial de la Salud sobre el origen de la pandemia, las cuales eran necesarias para evaluar el estado del problema en el resto del mundo, alegando que esas investigaciones tenían intenciones políticas.

Otro problema eminentemente técnico es que el desarrollo de los programas informáticos, incluidos los de IA puede experimentar un salto exponencial con el avance y difusión de la computación cuántica, que va a multiplicar la capacidad de procesamiento del hardware. De este modo, el alcance futuro y los impactos de la IA, y por lo tanto las formas más eficientes de regulación, son, en la actualidad, muy difíciles, sino imposible, de determinar.

¿Regulando al capital?

En el ámbito nacional la encrucijada de los intereses sectoriales encontrados está planteada entre los objetivos de las empresas privadas, interesadas en desarrollar y vender sus tecnologías libremente siguiendo su estrategia de maximización individual e inmediata, y el interés del estado en organizar ese desarrollo en función de intereses generales y de más largo plazo.

En el campo de la tecnología este problema se manifiesta en el interés de las empresas en vender su tecnología a China o en invertir en ese país. Ejemplos recientes son las crecientes inversiones de Intel Capital en startups chinas involucradas en el desarrollo de IA y otras tecnologías avanzadas, o la decisión de Nvidia de vender a China chips avanzados para IA.[8]

Los estados intervienen en ese problema con regulaciones, prohibiciones o coerciones y su capacidad de acción depende, entre otras cosas, de su grado de autoritarismo.

El estado chino tiene, por eso mismo, mayor capacidad para obligar a las empresas de su país a seguir estrategias oficiales vinculadas a objetivos de seguridad y, en sus declaraciones sobre desarrollo de IA, establece explícitamente que las empresas deben orientarse en ese sentido.[9]

En los sistemas democráticos en los cuales, además, las empresas tienen gran capacidad de influencia (legal o no) sobre las decisiones de los gobiernos y parlamentos, o donde los gobernantes están directamente alineados con los intereses privados, la influencia del estado es mucho menor.

Pero aún en el caso de Estados Unidos, el estado tiene un alto grado de interés y capacidad de intervención sobre el sector privado a través de incentivos y presiones directas. Es así que, en su libro de 2023, “Underground Empire”, Farrell y Newman (2023) muestran la acción del gobierno de EE.UU. para influir sobre las decisiones de grandes tecnológica y para obtener de ellas informaciones necesarias para su política de seguridad.

Concentración, y desigualdades

La carrera tecnológica se aceleró a partir de las sanciones tecnológicas de Estados Unidos lanzadas en 2018.[10]

El avance de estos países, en general y en IA refuerza, en una La competencia está encabezada por Estados Unidos y China, que tienen la mayor inversión en Investigación y Desarrollo en relación al PBI entre los países grandes (3% y 2,5%, respectivamente,  según el Banco Mundial) y el mayor número de solicitudes de patentes en la Organización Internacional de Propiedad Intelectual (WIPO, según su sigla en inglés). En Inteligencia Artificial, en particular, la mayor parte del poder está en manos de Estados Unidos y China: en un cuadro elaborado por el sitio MacroPolo, sobre la distribución de los líderes tecnológicos trabajando en IA, Estados Unidos tiene el primer lugar con el 57%, seguido por China (12%), Gran Bretaña (8%), Alemania (4%) y Francia (4%). Y, en una lista de instituciones que trabajan en inteligencia artificial de las 10 primeras 8 son de Estados Unidos, 2 de China (3ª y 6ª posiciones) y una de Suiza, en la 10° posición.[11]

Esta dinámica aumenta la ventaja tecnológica de las potencias en relación al resto del mundo y, por lo tanto, su poder político y militar absoluto y relativo, aumentando el nivel de vulnerabilidad económica y política de los países más rezagados.

Por otra parte, en esos países también hay sectores con desarrollos de tecnologías que pueden contribuir al bienestar general pero que, paralelamente, generan una ampliación de las brechas productivas, geográficas y sociales internas típicas del atraso.

Volviendo al citado libro de Ulrich Beck (2002, p.8) los riesgos globales no se distribuyen en forma igualitaria y, refiriéndose al daño ambiental, sentencia que “la contaminación sigue al pobre”.

De allí que los países menos desarrollados tengan un interés prioritario en establecer regulaciones nacionales e internacionales para la IA.

Bibliografía

Beck, Ulrich (2002). La Sociedad del Riesgo Global. Siglo XXI. Madrid

Bresnick, Sam (2024) Into the Minds of China’s Military AI Expertsa . Foreign Policy 18/07/2024. https://foreignpolicy.com/2024/07/18/china-military-ai-artificial-intelligence/?utm_source=Sailthru&utm_medium=email&utm_campaign=Editors%20Picks%2007182024&utm_term=editors_picks

EU (2024)Artificial Intelligence Act. Proyecto final (2024). https://artificialintelligenceact.eu/es/el-acto/

CSET (2024). Georgetown University. Artificial Intelligence Law of the People’s Republic of China (Draft for Suggestions from Scholars)02/05/2024.

https://cset.georgetown.edu/publication/china-ai-law-draft/#:~:text=The%20draft%20law%20specifies%20various,the%20assistance%20of%20AI%20technology.

Farrell, Henry y Newman, Abraham (2023) Underground Empire: How America Weaponized the World Economy. Holt & Co. New York.

G7 2023 (2023) Hiroshima Summit. https://www.mofa.go.jp/files/100573471.pdf.

ICAIL’87 (1987) Proceedings of the st international conference on Artificial Intelligence and law.  https://dl.acm.org/doi/proceedings/10.1145/41735

Hirschman, Albert O (1972).  Exit, Voice, and Loyalty. Responses to Decline in Firms, Organizations, and States. Harvard University Press, Massachussets.

IISD. Security Council Debates (2023) AI’s Impacts on Peace, Sustainable Development. 03/08/2023. https://sdg.iisd.org/news/security-council-debates-ais-impacts-on-peace-sustainable-development/

Johnson, James (2019) Artificial Intelligence & Future Warfare: Implications for International Security. Defense & Security Analysis Volume 35, 2019 – Issue 2. https://www.tandfonline.com/doi/full/10.1080/14751798.2019.1600800

Meacham, Sam (2923) A Race to Extinction: How Great Power Competition Is Making Artificial Intelligence Existentially Dangerous Harvard International Review.08/09/2023. https://hir.harvard.edu/a-race-to-extinction-how-great-power-competition-is-making-artificial-intelligence-existentially-dangerous/

Ministry of Foreign Affairs of the RPC (2023). Global AI Governance Initiative. 20/10/2023 Global AI Governance Initiative (fmprc.gov.cn)

OECD (2023).AI. Principles for Trustwothy A.I. AI Principles Overview – OECD.AI

U.N. (2023) Technical dialogue of the first global stocktake. Synthesis report by the co-facilitators on the technical dialogue. 08/09/2023. https://unfccc.int/documents/631600

U.N. (2023) High-Level Advisory Body for Artificial Intelligence. https://www.un.org/techenvoy/ai-advisory-body

U.K. Governmment (2023). The Bletchley Declaration by Countries Attending the AI Safety Summit del 1 y 2 de noviembre de 2023. 01/11/2023. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

U.S. Department of State (2023). Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy. https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/#:~:text=Launched%20in%20February%202023%20at,and%20use%20of%20military%20AI.

White House (2023). Executive Orden on AI 23/10/2023 https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/

[1] Doctor en Ciencias Sociales (UBA), economista. Profesor FCE-UBA, IRI-UNLP. Miembro del Grupo de Trabajo sobre China del CARI y del Departamento de Relaciones Económicas Internacionales del IRI. Autor del libro “Choque de Gigantes. EE.UU. vs China y la Reglobalización” Corregidor, 2023.

[2]Sam Meacham. A Race to Extinction: How Great Power Competition Is Making Artificial Intelligence Existentially Dangerous Harvard International Review.08/09/2023. https://hir.harvard.edu/a-race-to-extinction-how-great-power-competition-is-making-artificial-intelligence-existentially-dangerous/

[3] Rodina Gigova.  Who Vladimir Putin thinks will rule the world CNN World 02/09/2017. https://www.cnn.com/2017/09/01/world/putin-artificial-intelligence-will-rule-world/index.html

[4] BBC News. La carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser una «amenaza para la humanidad» 29/03/2023.https://www.bbc.com/mundo/noticias-65117146

[5] Government of The Netherlands. https://www.government.nl/ministries/ministry-of-foreign-affairs/activiteiten/reaim

[6] Varios autores. Inside the shadowy global battle to tame the world’s most dangerous technology Can anyone control AI?. Político, 26/03/2024.  https://www.politico.eu/article/ai-control-kamala-harris-nick-clegg-meta-big-tech-social-media/

[7] AP News. In first AI dialogue, US cites ‘misuse’ of AI by China, Beijing protests Washington’s restrictions. 15/05/2024. https://apnews.com/article/artificial-intelligence-china-united-states-biden-xi-geneva-506da7b5fa72d5fe1bcd54fb8ec4f898

[8] The Register. Intel’s China investments may have spurred fresh US restrictions. 116/07/2024. https://www.theregister.com/2024/07/16/intels_china_investments_may_have/#:~:text=According%20to%20the%20Financial%20Times,into%20bringing%20in%20investment%20restrictions

Xataka. Nvidia va a darle a China la solución que necesita para competir en IA: chips Blackwell antirestricciones. 22/07/2024. https://www.xataka.com/componentes/nvidia-va-a-darle-a-china-solucion-que-necesita-para-competir-ia-chips-blackwell-antirestricciones

[9] CGTN.China names key áreas of military-civilian integration. https://news.cgtn.com/news/3d41444d7751444e/share_p.html

[10] Un antecedente anterior de esta carrera puede situarse, incluso, en lanzamiento del plan Made in China presentado por el gobierno chino en 2015 y que tiene por objeto avanzar en tecnologías de la información, máquinas computarizadas, robots y otros sectores.

[11] Fuente: MACRO POLO, del Paulson Institute https://macropolo.org/. Citado por Alejandro Razzotti en su presentación “De ChatGPT 4 a la Explosión de la Inteligencia: Tensión Global y el Rol de China”, en el Seminario del Grupo de Trabajo sobre China del CARI, 26/06/2024.