0

Por Enrique A. Fraga, especialista en comunicación digital

Puede afirmarse que la nueva ola de discusión por la regulación de la Inteligencia Artificial (IA) vino de la mano de la conmoción que causó la irrupción de ChatGPT a fines de 2022. Si bien el impulso en torno a un ordenamiento de estas tecnologías viene de antes, fue el lanzamiento y la masificación de los modelos de lenguaje grandes (LLM) de la empresa OpenAI la variable que puso el tema nuevamente en agenda.

Hasta aquel año, las discusiones regulatorias ponían en el temario aspectos como la privacidad de los datos, la ciberseguridad, el potencial sesgo generado por sistemas de selección automatizados en múltiples campos (recursos humanos, finanzas, salud y educación, entre otros), en línea con el furor por el big data y las técnicas de machine learning. Sin agotarse estos debates, la irrupción de la IA generativa sumó a la conversación el potencial impacto en la fuerza de trabajo intelectual, en los derechos de autor, la seguridad nacional, la desinformación y la creación de nuevos y poderosos deep fakes dañinos, potenciados por herramientas de creación sintética de imágenes, audio y video.

La discusión y el pánico escalaron a un punto tal que, a pocos días de difundirse aquel súper chabot de OpenAI, miles de intelectuales y científicos firmaron una carta para detener los estudios en IA y solicitaron una intervención gubernamental en caso de ser necesario.

Para que conozcas un poco más al autor de este artículo, Enrique A. Fraga, Guardiana te comparte un video en el que le hacen una entrevista vinculada al mundo de la IA.

Fue así que comenzaron a delinearse, al menos, dos paradigmas: uno regulatorio, con base en Europa, con el foco puesto en la clasificación de sistemas de IA, según sea el riesgo (alto, medio, bajo) y sus potenciales peligros; con la prescripción de auditorías y certificaciones de terceros que garanticen la seguridad en el desarrollo, prevean el acceso del poder computacional, y procuren establecer una red de agencias de contralor en distintos niveles, así como responsabilidades y sanciones ante potenciales daños, entre otros factores. Esta tendencia se cristalizó en la primera ley de IA de la Unión Europea, una iniciativa que ha desmotivado la inversión de grandes tecnológicas como Meta, que ha calificado de “impredecible” al entramado legal dispuesto en el continente.

En la vereda de enfrente, representado por los Estados Unidos, se erigió un paradigma pragmático o recomendatorio. Aunque parte de premisas comunes como la transparencia, la seguridad, la protección de los datos y el respeto por las libertades individuales, en este país el enfoque hacia la regulación de la IA ha sido interpretado como una coordinación federal, basado en recomendaciones y el fomento de estándares voluntarios para el sector.

En esta línea, en octubre de 2023, el presidente Joe Biden firmó una orden ejecutiva para controlar el desarrollo y uso seguro de la IA, reconociendo tanto su influencia transformadora como los riesgos que conlleva. Cabe mencionar que potencias como China también están insertas en iniciativas de regulación. De acuerdo con las crónicas, el gigante asiático no cuenta aún con una norma general sino con regulaciones específicas para determinados productos, además no pueden desarrollarse emprendimientos de IA sin la aprobación y el registro gubernamental previo; aunque se estima que existirá un desarrollo regulatorio más amplio, con las particularidades del régimen comunista chino.

EEUU: paradigma recomendatorio

“La inteligencia artificial (IA) tiene un potencial extraordinario tanto para la promesa como para el peligro. El uso responsable de la IA tiene el potencial de ayudar a resolver desafíos urgentes y, al mismo tiempo, hacer que nuestro mundo sea más próspero, productivo, innovador y seguro”. Con esta frase comenzó la orden ejecutiva sobre el desarrollo seguro, confiable y protegido de la inteligencia artificial, emitida por el presidente de los Estados Unidos el 30 de octubre de 2023 en donde, además, consideró “de suma importancia que se regule el desarrollo y el uso de la IA de manera segura y responsable”.

Desde el vamos, fue una iniciativa considerada “recomendatoria”, a diferencia de las fuertes regulaciones que se estaban cocinando en la Unión Europea, gracias a la inclusión de propuestas libradas a la voluntad de los actores en juego, así como “estándares industriales consensuados, para desarrollar e implementar sistemas de IA seguros y confiables”.

Es cierto que el comunicado propuso “evaluaciones sólidas, confiables, repetibles y estandarizadas de los sistemas de IA” junto a un entramado de auditoría para evaluar riesgos en áreas sensibles como la biotecnología, la ciberseguridad, la infraestructura crítica y la seguridad nacional. Sin embargo, esta iniciativa pareció no enfrentarse con el sector empresarial: meses antes, el presidente Biden había establecido un acuerdo con las principales empresas vinculadas al desarrollo de IA, tales como OpenAI, Alphabet, Meta Platforms, Anthropic, Inflection, Amazon y Microsoft, a fin de establecer puntos en común sobre seguridad de los sistemas, transparencia y etiquetación de contenidos.

En tanto, el uso responsable también implicaba considerar políticas de protección del trabajo, para evitar que las condiciones laborales sean abruptamente modificadas por los avances técnicos y la automatización de tareas. “Mi administración buscará adaptar la capacitación y la educación laboral para apoyar una fuerza laboral diversa y ayudar a proporcionar acceso a las oportunidades que crea la IA”, explica el informe y agrega: “En el lugar de trabajo en sí, la IA no debe implementarse de maneras que socaven los derechos, empeoren la calidad del trabajo, fomenten una vigilancia indebida de los trabajadores, reduzcan la competencia del mercado, introduzcan nuevos riesgos para la salud y la seguridad o provoquen disrupciones perjudiciales en la fuerza laboral”.

Cabe aclarar que no ha sido el primer intento de regulación de la IA en los Estados Unidos. Ya en 2019, pero sin la IA generativa en el horizonte, se impulsó un proyecto de “responsabilidad algorítmica” con el foco puesto en los temas que por entonces preocupaban, a saber, la precisión e imparcialidad de outputs, así como el potencial sesgo producido por la interpretación de datos; o cuestiones vinculadas a las seguridad y la privacidad de los datos.

Como explicó en 2019 el sitio Govtech.com, aquellos legisladores aún lidiaban con los obstáculos de la era de Internet y las redes sociales (como la pérdida de privacidad, el pirateo informático y la filtración de datos), ahora se abocan a poner un marco para ordenar el desarrollo de la inteligencia artificial. Con sus pro y sus contras, herramientas entonces en boga podían ser realmente útiles como las entrenadas para reconocer rostros de niños perdidos, o también dañinas, al clasificar como sospechosos a descendientes afroamericanos con un claro sesgo discriminatorio.

Con todo, en mayo de este año, el Grupo de Trabajo Bipartidista sobre IA del Senado, dirigido por el líder de la mayoría del Senado Chuck Schumer, publicó una hoja de ruta para una política de IA en el Senado de los Estados Unidos. Allí se propone a los comités que sigan colaborando en la legislación sobre IA y apoya el trabajo dentro de agencias federales clave, incluido el Recurso Nacional de Investigación sobre IA (NAIRR) dentro de la Fundación Nacional de Ciencias (NSF).

Unión Europea, paradigma regulatorio y la ley pionera

En 2018 la Unión Europea puso en funcionamiento su Reglamento general de protección de datos, una iniciativa que la mostró como pionera en el campo digital y sirvió de modelo a otras medidas similares en distintas latitudes. Esta tradición normativa entró en fricción con la viralización de la IA Generativa al punto que, a pocos meses de su lanzamiento, ChatGPT fue bloqueado en la región de Italia con el argumento de incumplir normativas de protección de datos.

Estos antecedentes representaron la base de un recorrido sobre el cual la Unión Europea estaba embarcada: la promulgación de la primera Ley de IA  del mundo, una regla pionera que puso el foco en conceptos tales como la responsabilidad, la transparencia y la seguridad de los sistemas de IA. La norma se planteó con el objetivo de instalar un marco jurídico uniforme para el desarrollo, comercialización y uso de sistemas de IA en el continente, que promueva una IA fiable y centrada en el ser humano: estableció un glosario abundante de definiciones, así como también un detalle de las acciones prohibidas, entre las que menciona “técnicas deliberadamente manipuladoras o engañosas”. Además, hay una explícita prohibición de usos, como sistemas que puedan predecir la posibilidad de que una persona cometa un delito; puso restricciones a la creación de bases de datos de reconocimiento facial, o técnicas par inferir emociones en espacios de trabajo o centros educativos; así como la categorización biométrica que clasifique personas para inferir su raza, opiniones políticas o afiliación sindical.

Imagen creada artificialmente con ChatGPT.

Esta iniciativa pionera, debido a su meticuloso texto, generó numerosos debates acerca de su efectiva viabilidad y sobre el potencial impacto en el desarrollo tecnológico del continente; para poner más condimento a la discusión, la empresa Meta informó que no brindará sus modelos de IA generativa en el continente, por su “impredecible entorno regulatorio”. 

No obstante, hay voces que ven como positiva la implementación de un marco jurídico y un orden de tales características. “Creo que la reglamentación es un paso necesario. La falta absoluta de normas implica riesgos similares a los de conducir un coche a toda velocidad por una ciudad populosa y sin atender a los cruces: inevitablemente ocurrirá un accidente y sus consecuencias serán imprevisibles e irreversibles”, afirmó a convercom.info Roberto Valente, CEO de Interactive Media, empresa italiana especializada en interfaces hombre-máquina. “También creo que la ley está bien hecha, impone reglas pero al mismo tiempo no frena el desarrollo tecnológico”, agregó Valente quien, por otro lado, puso dudas en la viabilidad de controles y sanciones dada la complejidad del tema.

En tanto, hay quienes incluso la consideran débil. En marzo último Max von Thun, director para Europa del Open Markets Institute, declaró a Euro News que la norma «es incapaz de abordar la principal amenaza que plantea actualmente: su papel en el aumento y afianzamiento del poder extremo que unas pocas empresas tecnológicas dominantes ya tienen en nuestras vidas personales, nuestras economías y nuestras democracias».

La regulación de la IA en la Argentina

En 2024, la IA volvió a la agenda gubernamental luego de que el presidente argentino Javier Milei se entrevistara con referentes de la industria como Elon Musk, Sam Altman, ceo de OpenAI y Sundar Pichai, a cargo de Google. “Tuvimos una charla con la gente de Google. Ellos tienen de hecho un módulo para hacer reforma del Estado, pero con inteligencia artificial”, comentó Milei a periodistas en junio último, alentando una iniciativa que, de seguro, requerirá algún tipo de marco legal con respecto a estas nuevas tecnologías. ¿Qué tendencias regulatorias hay en el país? De regularse, ¿cómo puede afectar al emergente sector?

Como en el resto del mundo, la expansión de la IA Generativa durante 2023 fue un momento bisagra: aquel año la jefatura de Gabinete de Ministros emitió una disposición aplicable exclusivamente en la órbita de la administración pública; además, a partir de ese año se han presentado en el Congreso Nacional una veintena de iniciativas para organizar directa o indirectamente el fenómeno de la Inteligencia Artificial. ¿Qué características tienen los proyectos?

Imagen creada artificialmente con ChatGPT.

Como en un espejo de la norma europea, algunos plantean regímenes regulatorios minuciosos, que ponen un marco estricto al desarrollo, la investigación y la utilización de herramientas de IA, al punto de obligar a establecer objetivos, beneficios y riesgos potenciales junto con responsabilidades, obligaciones y posibles sanciones; estos proyectos conviven con otros más moderados, alineados al precepto de responsabilidad algorítmica o más flexibles que se adaptan a los desarrollos puntuales e impulsos del sector.

“Resulta absurdo intentar legislar con lujo de detalle sobre la temática de IA su alcance actual y potencial de impacto de aquí a una década, más cuando ha tenido un avance exponencial durante los últimos años”, afirmó el diputado nacional por la provincia de Buenos Aires, Martín Yeza, en los considerandos de su reciente proyecto sobre regulación de sandboxs, término utilizado para definir un sistema de entornos regulatorios experimentales, que podrían ser de utilidad para el caso de la IA.

“Establecer normas de espaldas a los desarrolladores que no tengan en cuenta el dinamismo de este sector, representaría un golpe de gracia para el desarrollo de las tecnologías en nuestro país”, explicó Yeza, cuyo proyecto cuestiona el modelo regulatorio europeo al considerar que retrasó el desembarco en el territorio de la UE de aquellos principales desarrolladores a nivel mundial de sistemas de IA.

“¿Necesitamos una legislación que restrinja la capacidad innovadora de nuestros emprendedores para regular la IA? Este debate es crucial para determinar si nuestro país puede posicionarse entre los líderes globales en tecnología de IA con el apoyo de las grandes corporaciones tecnológicas», opinó Adolfo Iriarte Yanicelli, director del Proyecto de Investigación de Inteligencia Artificial Generativa, Derechos y Justicia en la Universidad Nacional de Tucumán (UNT), en diálogo con convercom.info

“Considerando la situación actual en Argentina, serían más efectivas las regulaciones que prioricen la libertad empresarial frente a las limitaciones impuestas por la ley de IA europea, que tiende a ser muy estricta. Es el momento para Argentina de diseñar un nuevo marco que se adapte mejor a la rápida evolución de la IA”, agregó Iriarte Yanicelli.

Es que, según los expertos, no sería necesario partir de cero. «La aplicación de la IA es transversal desde el enfoque del Derecho. Existen legislaciones que se podrían aplicar a diversos conflictos generados por la IA. Sería más práctico modificar las legislaciones existentes para crear un régimen jurídico integrado, en lugar de trasplantar la legislación europea a nuestro contexto, proponiendo una ley específica», explicó Iriarte Yanicelli

Consultados referentes del sector empresario, sostuvieron que una regulación debería tener la flexibilidad acorde a un espacio experimental y en desarrollo, para que no desincentive los emprendimientos locales ni desmovilice la inversión extranjera.  “Nosotros tenemos una visión sumamente positiva de la Inteligencia Artificial y creemos que aumenta las capacidades humanas. Cualquier proceso de IA tiene que ser supervisado por personas, que son las únicas que pueden validar el contexto y darle autenticidad al proceso”, explicaron voceros de Globant a convercom.info. “Respecto a la regulación de los Gobiernos, no existe una opinión que sirva para todas las geografías pero sí recomendamos que se aborde bien el tema, en forma abierta y positiva”, agregaron.

Con todo, los especialistas consideran que se está en un momento clave, ansioso por la expansión del desarrollo tecnológico, pero también expectante en torno al potencial impacto que pueda tener, para bien como para mal, en las sociedades. Influye aquí la dinámica incorporación que la sociedad civil está haciendo de estas herramientas, junto con la competencia empresarial que, a nivel mundial, busca consolidar o imponer nuevos liderazgos en el sector. El tiempo dirá si la Argentina logra subirse a esta ola de la IA, si es pertinente una regulación y, en ese caso, qué características debe tener para potenciar, en lugar de encorsetar su desarrollo.

Legislación IA: un GPT para conversar y analizar

Legislación IA es un GPT entrenado para explicar aspectos sobre proyectos de regulación en Inteligencia Artificial en Estados Unidos, Unión Europea y otros países, como la Argentina. Explica de forma llana y sencilla cuando es necesario y de forma técnica también. Puede comparar los proyectos de distintos países con la Ley de Inteligencia Artificial de la Unión Europea y con la Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence de los Estados Unidos. Atención: como toda IA Generativa, puede escribir con alucinaciones sintácticas.

La gente confía más en los medios que muestran transparencia y no favoritismo

Noticia Anterior

Apuntan a que la IA generativa ayude a los periodistas en más del 75% del trabajo

Siguiente Noticia

Comentarios

Deja un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *