Por Lisette Balbachan//
Una preocupación creciente por parte de organizaciones que trabajamos en la intersección entre tecnología y derechos humanos son los intentos de resolver problemas de seguridad vinculados a la niñez y adolescencia con el uso de cámaras.
A nivel mundial, sobran ejemplos de la vulneración de derechos humanos en manos de Estados que implementan esta forma de vigilancia masiva y en un país como Bolivia, en el que no contamos con una ley de protección de datos personales, el riesgo es mayor.
Una pregunta que debemos hacer es de dónde adquieren estas tecnologías. La ansiedad por acelerar el uso de este tipo de vigilancia hace que dejen de lado un punto fundamental: ¿Cómo las empresas privadas recolectan, salvaguardan y utilizan la información que recopilan?
Eso se vuelve una combinación perfecta, las empresas que quieren sacar provecho y generar ganancias y los Estados, que sin entender muy bien cómo funciona, quieren vender la idea de seguridad sin una política de transparencia ni rendición de cuentas.
Menos derechos, más discriminación y persecución
El rostro forma parte de lo que se denomina “datos biométricos”, una categoría que incluye a todos aquellos datos que remiten al cuerpo como signo identificador, lo que los vuelve particularmente delicados.
En tareas de vigilancia del espacio público, su uso conlleva la recolección masiva e indiscriminada de información altamente sensible y, al menos potencialmente, permite la creación de perfiles detallados de rutinas diarias de todas las personas. A eso, se suman posibles suplantaciones, uso del rostro para crear imagenes y videos falsos a través de la Inteligencia Artificial génerica. Estos riesgos aumentan cuando hablamos de niños, niñas y adolescentes, pues abre la posibilidad de creación de contenido sexual abusivo por parte de depredadores.
Pero allí no termina, porque esta técnica, sumamente intrusiva, tiene altas tazas de falsos positivos, problema que se incrementa cuando las personas vigiladas pertenecen a grupos históricamente vulnerados como mujeres, personas de tez oscura o personas trans.
Y es que no existe tal cosa como la neutralidad. La inteligencia artificial se entrena a partir de patrones, imágenes e información brindada por personas que traen consigo sesgos de exclusión social que son replicados y amplificados por esta técnica que usada con fines de vigilancia, amenaza el derecho a la dignidad, la privacidad y la presunción de inocencia, entre otros.
¿Protegidos o controlados?
La niñez y adolescencia son grupos especialmente protegidos, así vemos que la convención sobre derechos del niño, niña y adolescentes establece que “cada niño tiene derecho a la vida privada”, por otro lado, la Ley N° 548. Código Niña, Niño y Adolescente del Estado Plurinacional de Bolivia, en su artículo 144, establece el derecho a la protección de la imagen y de la confidencialidad.
Sin embargo, tenemos un antecedente de hace pocas semanas que choca de frente con esto: la implementación de un centro de vigilancia en Santa Cruz, en donde se pretende poner cámaras dentro y fuera de las escuelas cruceñas y que sostiene que “…tiene como objetivo identificar el rostro de los estudiantes mediante un registro biométrico, detectar el género de los estudiantes al acceder a los baños” como expresa la nota de Red Uno, «Implementan IA en la vigilancia en los colegios: Escaneará los rostros de los estudiantes para identificarlos», que da cuenta de esta nueva política ¿de seguridad? cruceña.
No hay nada más íntimo que el baño, de eso no creo que haya dudas, entonces, ¿por qué se entiende como una política de protección el uso de cámaras en la entrada de ellos en una escuela? Por otro lado, ¿qué se busca proteger cuando lo que quieren es “detectar el género”?
Aquí ya hay otra cuestión que no tiene que ver con tecnología pero sí con derechos y es la implementación de la Educación Integral en Sexualidad (IES), tan altamente rechazada por los mismos sectores que celebran la vigilancia masiva.
La tecnología no resuelve los problemas estructurales de violencia de la sociedad. Y es que si lo que quieren es evitar, por ejemplo, que haya abusos en establecimientos educativos, la respuesta es más educación sexual y no más control. Que las unidades educativas cuenten con protocolos de acción y prevención ayudará a que las y los jóvenes tengan más herramientas para identificar situaciones de peligro y puedan dar un alerta temprana.
Por supuesto, desde la Fundación InternetBolivia.org promovemos e instamos a todas y todos los actores involucrados a proteger a niños, niñas y adolescentes, pero creemos que la vigilancia masiva no sólo no contribuye, sino que puede ser perjudicial porque los puede exponer a más situaciones de violencias que las que previene.
Nuestro país necesita trabajar en la ampliación y protección de derechos de la ciudadanía, especialmente de poblaciones históricamente vulnerables y este tipo de políticas no hace más que vulnerar los derechos humanos. Por eso, tenemos que mantenernos alertas y dar a conocer a la población los peligros de la videovigilancia y el manejo de datos tan sensibles como los biométricos sin una ley nacional que los proteja.
Lisette Balbachan es responsable de Comunicación de Fundación InternetBolivia.org
______________________
TE INVITAMOS A SUSCRIBIRTE DE FORMA GRATUITA AL BOLETÍN DE GUARDIANA
Recibirás cada 15 días el boletín DESCOMPLÍCATE. Incluye INFORMACIÓN ÚTIL que te ayudará a disminuir el tiempo que empleas para resolver trámites y/o problemas. Lo único que tienes que hacer para recibirlo es suscribirte en el siguiente enlace: https://descomplicate.substack.com/subscribe?
Si tienes dudas, escríbenos al WhatsApp 77564599.
Comentarios