0

Por Cristian León, Guillermo Movia y Hugo Miranda* //

En un hiper acelerado desarrollo de las tecnologías de Inteligencia Artificial, el Estado boliviano no sólo queda en una situación de obsolescencia, sino también dentro de un andamiaje institucional tan poco preparado que pone en situación de alta vulnerabilidad a la población.

Durante la primera quincena de junio, dos noticias importantes ocurrieron en relación a las inteligencias artificiales, ambas demuestran la necesidad urgente de plantear soluciones institucionales con respecto a esta tecnología.

La primera fue el lanzamiento del Índice Global de IA Responsable (GIRAI), el cual evaluó a 138 países. Un equipo de investigación de la Fundación InternetBolivia.org participó como parte de este proceso para relevar los datos y evaluar la situación de las IA en Bolivia. Con este motivo se generaron entrevistas con actores clave, se revisó documentación existente y distintos aspectos relativos al proceso de transformación digital. Lamentablemente, en función a la evidencia analizada, Bolivia quedó en la posición 117 a nivel global, la última de Sudamérica.

La elaboración de este índice fue un trabajo minucioso de revisión de la situación de cada país con respecto a tres dimensiones: capacidades, alineamiento con los derechos humanos y gobernanza. La medición incluyó aspectos como la legislación y políticas públicas, la información pública sobre funcionamiento de sistemas de IA, la visión del Estado con respecto a estas tecnologías, la existencia de programas de formación, investigación académica, entre otras. La mínima transparencia pública con respecto a los sistemas de gobierno electrónico, de hecho, es algo que en si mismo dificultó visibilizar y evaluar si realmente nuestro país está o no implementando IA en sus sistemas públicos.

Más allá de eso, algo que no deja lugar a dudas, es el problema de carecer de un marco regulatorio sobre la protección de datos personales. Esta situación tiene directa relación con la segunda noticia, el anuncio de que Meta (la empresa dueña de Facebook, Instagram y WhatsApp) empezaría a usar datos “públicos” de usuarios y no usuarios de estas plataformas, para entrenar a sus modelos de IA. Se pudo corroborar que Meta puso a disposición de ciudadanos/as de países de Europa, formularios para rechazar que esta empresa haga uso de su información, siguiendo los lineamientos  de la regulación europea.

Sin embargo, fue otra la situación en países de América Latina, en los cuales esta regulación es aún débil o inexistente, como es el caso de Bolivia. Al no existir leyes de protección de datos ni autoridades fuertes, las empresas tecnológicas están empezando a aprovechar estos agujeros para utilizar la información de las personas a favor suyo, sin ni siquiera requerir que éstas den su consentimiento o tengan que estar, al menos, informadas. Debido a las quejas y denuncias contra Meta, esta empresa finalmente retrocedió con respecto a sus intenciones en Europa, en América Latina, no lo sabemos.

Si bien el caso de Meta está siendo el más mediático, otras empresas hicieron lo mismo. En julio de 2023 Google modificó sus términos y condiciones para recoger información pública en línea para entrenar modelos de IA, algo similar a lo que hizo Twitter en agosto de 2023, con la aclaración de Elon Musk de que no se usarían mensajes privados.  Otras empresas grandes de tecnología como Apple, Amazon, Microsoft y la china Tencent, también lo están haciendo.

En la búsqueda de información para el Ranking Global de IA Responsable, no se encontró ninguna política pública real que encamine a Bolivia de alguna forma en la IA. Sólo se corroboró, a través de entrevistas, intenciones o deseos de que en un futuro se pueda evaluar tener una regulación. Mientras tanto, es de conocimiento general que estudiantes de distintos niveles, profesionales e incluso jueces, están usando productos de IA para sus actividades, algunas de las cuales pueden tener un gran peso ético y afectar a la vida de otras personas. Sin embargo,  se desconoce si sus acciones se basan en algún tipo de criterio o reglamento que delimite los alcances, riesgos y problemas de usar ChatGpt u otro modelo de IA.

Estos  antecedentes demuestran la necesidad de que el Estado boliviano tome con seriedad la necesidad de elaborar y aprobar un marco regulatorio que proteja a sus ciudadanos y ciudadanas contra futuros abusos de su información a favor de entrenar inteligencias artificiales. Al mismo tiempo, si Bolivia busca seguir un mayor desarrollo de las IA, desde un enfoque responsable con los derechos humanos, debe a su vez, impulsar que existan las condiciones necesarias para ello, esto es: impulsar la formación adecuada, generar políticas públicas y legislación, y tener una visión propia desde el Estado.

*Equipo de investigación de la Fundación Internetbolivia.org para Ranking Global de IA Responsable

Recibirás cada 15 días el boletín DESCOMPLÍCATE. Incluye INFORMACIÓN ÚTIL que te ayudará a disminuir el tiempo que empleas para resolver trámites y/o problemas. Lo único que tienes que hacer para recibirlo es suscribirte en el siguiente enlace: https://descomplicate.substack.com/subscribe?

Si tienes dudas, escríbenos al WhatsApp 77564599.

La soledad de los jóvenes de hoy

Noticia Anterior

XI Foro Social Panamazónico (FOSPA): un encuentro de esperanza y acción

Siguiente Noticia

Comentarios

Deja un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *