La Asamblea General de la Organización de las Naciones Unidas (ONU) integró esfuerzos el 21 de marzo, adoptando por unanimidad una resolución pionera para garantizar el desarrollo de sistemas de inteligencia artificial (IA) “seguros y confiables”. Más de 120 países miembros respaldaron esta iniciativa propuesta por los Estados Unidos, indicó la organización internacional en un comunicado de prensa.
Esta resolución busca reducir la brecha digital entre los países, promover la protección de datos personales, fortalecer las políticas de privacidad y supervisar de cerca el desarrollo de la inteligencia artificial, para identificar posibles riesgos y salvaguardar los derechos humanos, precisó la revista estadounidense de tecnología Wired.
Víctor Ruiz, fundador del centro de ciberseguridad SILIKN en México, en declaraciones a Diálogo el 7 de abril, enfatizó la relevancia de esta resolución: “Es un paso fundamental que subraya la necesidad de una gestión proactiva de la tecnología emergente de inteligencia artificial, ante su potencial dual para beneficio o daño”.
La adopción de esta resolución simboliza un esfuerzo internacional continuo para influir en la trayectoria de la IA, en medio de inquietudes sobre su capacidad para desestabilizar procesos democráticos e incrementar el fraude bancario. A pesar de que previas iniciativas han tenido un alcance limitado, la determinación por modelar un futuro seguro para la IA persiste, indicó Reuters.
Aunque la resolución fue unánime, las negociaciones incluyeron una serie de “conversaciones acaloradas” y resistencia de protagonistas internacionales Rusia y China, informó Reuters. Ruiz señaló escepticismo respecto a la adherencia de estos países a la resolución, corroborándola con su historial en la falta de cumplimiento de compromisos geopolíticos internacionales.
“Existe una zona ambigua -gris- en este asunto de la IA”, dice Ruiz. “Aunque Moscú y Pekín afirmen que cumplirán con el acuerdo de inteligencia artificial, hay entidades ocultas íntimamente vinculadas a ellos, que avanzan en el desarrollo de herramientas y técnicas de investigación destinadas a ejecutar ataques”.
Rusia, China, Irán y Venezuela, podrían negar responsabilidades, alegando no estar vinculados con grupos sospechosos de actividades cuestionables, pese a pruebas claras de posible financiación, señaló Ruiz. “Esta postura obstaculiza investigaciones internacionales, sumiendo en dudas la magnitud de su involucramiento”.
Contenido falso
Los gobiernos chinos, rusos e iraníes, muestran un fuerte interés en emplear herramientas de inteligencia artificial para una variedad de fines. En el caso de Irán, emplea la IA, incluidas aplicaciones en teléfonos móviles, para vigilar que las niñas y mujeres cumplan las restrictivas normas de uso del velo islámico, reportó la agencia española EFE el 18 de marzo.
Además, está aumentando su apoyo financiero y legal para crear un entorno propicio para el sector privado en el campo de la IA. Sin embargo, estas inversiones plantean preocupaciones, ya que podrían implicar vínculos entre empresas, el régimen y el Cuerpo de la Guardia Revolucionaria Islámica, indica el centro de investigación con base en Washington Fundación para la Defensa de las Democracias.
Pekín utiliza a una reportera virtual en Wolf News para promover los intereses del Partido Comunista de China (PCC), agigantando el rol de China en la geopolítica global, indica el diario The New York Times. En marzo de 2023, Pekín presentó a Ren Xiaorong, un avatar virtual que se unió al noticiero People’s Daily, siguiendo meticulosamente un guion oficial del PCC.
Asimismo, las empresas chinas de IA llevan más de cinco años desarrollando herramientas de deepfake (realismo ultrafalso), capaces de producir personas ficticias como parte de una campaña de desinformación, dedicada a promover los intereses del PCC. Esta herramienta esfuma la línea entre realidad y ficción hasta un grado extraordinario, detalla The New York Times.
En febrero de 2023, la dictadura de Nicolás Maduro en Venezuela desarrolló el noticiero ficticio House of News, donde avatares generados por inteligencia artificial formaron parte de una campaña de desinformación estatal del chavismo y la difusión de datos falsos y modificados, refiere en Internet el diario español El País.
“La IA generativa potencia la propaganda computacional”, explicó Sam Woolley, director del laboratorio de investigación de propaganda del Centro para la Participación de los Medios de la Universidad de Texas, al Reuters Institute de la Universidad de Oxford, el 12 de marzo. “Con la IA generativa, la propaganda no solo se amplifica aún más, sino que se vuelve más persuasiva y matizada”.
“Sí, la IA está facilitando la creación y difusión de noticias falsas que resultan extremadamente convincentes, que son percibidas como verdaderas por el público”, añadió Ruiz. “Esta capacidad para generar contenido falso de forma automatizada y continua, sin intervención humana directa, tiene el potencial de influir significativamente en ámbitos críticos como elecciones y conflictos”.
Bien informados
La Asamblea de la ONU pidió a todos los Estados miembros y partes interesadas, que se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos, o que planteen riesgos indebidos para el disfrute de los derechos humanos.
“Es fundamental que como sociedad, estemos conscientes y bien informados sobre el uso de la inteligencia artificial,” concluyó Ruiz. “Si se emplea para el aprendizaje, la asistencia y la competitividad, puede ser beneficiosa. Sin embargo, su uso como arma representa un enorme peligro, especialmente cuando la IA comienza a definir sus propios objetivos [y tomar decisiones por si misma] para atacar sistemas conectados”.