En los últimos meses el uso de nuevas tecnologías digitales, como el ChatGPT, ha provocado una amplia discusión sobre el impacto de la inteligencia artificial (IA) sobre los derechos humanos.
Esta discusión, que es global, ha llegado a Bolivia a propósito de una decisión judicial dictada en abril pasado contra tres periodistas por una publicación sobre un caso de violencia de género, que además fue presentado como un salto tecnológico para el sistema judicial boliviano.
La creciente adopción y uso de estas nuevas tecnologías de IA pueden significar riesgos y oportunidades para la provisión de servicios en los sistemas judiciales y su impacto en la administración de justicia puede ser diferenciado, en particular, en lo que respecta a los derechos humanos, la ética, la transparencia y la gobernabilidad democrática.
La inteligencia artificial se define como una serie de algoritmos y técnicas que pretenden imitar la inteligencia humana; por lo que sus resultados serán siempre eso, una simulación construida a partir de un conjunto complejo de datos, pero nunca será una sustitución, en este caso -por ejemplo- de los valores y sana crítica de los jueces.
Las herramientas de IA pueden contribuir positivamente a mejorar la información para la ciudadanía; generar estadísticas y correlaciones; medir las necesidades y cobertura de los servicios; equilibrar la carga procesal; agilizar la búsqueda y selección de jurisprudencia; pero cuando se pretende que sustituyan a las y los jueces, se podría estar vulnerando el derecho a ser oído y juzgado por autoridades judiciales independientes, imparciales y competentes. Se ha demostrado que los sistemas de IA son diseñados para producir persistentemente una respuesta, pero no siempre son infalibles, ya que pueden -bajo ciertas condiciones de la falta de información y opacidad- generar resultados sesgados, donde no siempre se cumplen supuestos como el de duda razonable o presunción de inocencia.
Es así que, desde un enfoque de derechos humanos, en la última década las preocupaciones sobre los desafíos éticos y jurídicos que el acelerado desarrollo de las nuevas tecnologías de la información sobre la protección de los derechos humanos están presionando hacia la concreción de un nuevo régimen internacional en este campo, debido al creciente impacto que tienen no solamente sobre la vida de las sociedades, sino también por la afectación que pueden significar sobre la libertad, el pensamiento y la integridad física de las personas humanas; expandiendo hacia una nueva frontera un área antes poco conocida para el mundo jurídico.
Esta preocupación no es nueva. Ese mismo espíritu se expresó cuando la Asamblea General de las Naciones Unidas aprobó la Declaración sobre la utilización del progreso científico y tecnológico en interés de la paz y en beneficio de la humanidad (Resolución N° 3384 del 10 de noviembre de 1975), en la que llama la atención de los Estados para que tomen "las medidas apropiadas a fin de impedir que los progresos científicos y tecnológicos sean utilizados, particularmente por órganos estatales, para limitar o dificultar el goce de los derechos humanos y las libertades fundamentales de la persona consagrados en la Declaración Universal de Derechos Humanos, en los Pactos Internacionales de derechos humanos y en otros instrumentos internacionales pertinentes”.
Es así que se ha venido construyendo un nuevo marco de referencia para la protección y garantía de los derechos humanos en la era digital y de las nuevas tecnologías, que pueden tener diversas expresiones que abarcan desde los sistemas de inteligencia artificial aplicados a la medicina, la seguridad pública, la vigilancia cibernética, la identificación biométrica y la industria bélica, hasta la ingeniería genética, la biotecnología, la robótica, la nanotecnología y las neurotecnologías.
Recientes iniciativas dan cuenta de la necesidad creciente de abordar esta materia. La Organización para Cooperación Económica y el Desarrollo (OCDE), ha adoptado los Principios de la OCDE sobre la Inteligencia Artificial, que comprenden principios y recomendaciones basados en valores para el despliegue responsable de una IA fiable, con el objetivo es guiar a los gobiernos, organizaciones e individuos para que, en el diseño y la gestión de los sistemas de IA, prioricen los intereses de las personas, así como garantizar que quienes diseñen y gestionen sistemas de IA respondan de su correcto funcionamiento.
Por su parte, la Conferencia General de la UNESCO adoptó en noviembre de 2021 la Recomendación sobre la Ética de la Inteligencia Artificial, con el fin de proteger y promover los derechos humanos, constituyendo la primera base normativa global para el respeto del Estado de derecho en el mundo digital
De la misma forma, hay que destacar las recomendaciones de los informes presentados durante el 47° período de sesiones del Consejo de Derechos Humanos de NNUU por el Relator Especial sobre el derecho a la privacidad sobre: La inteligencia artificial y la privacidad, así como la privacidad de los niños, que aborda el tema desde la autodeterminación y autonomía de las personas. En la misma línea la Alta Comisionada de las NNUU para los Derechos Humanos en su informe: El derecho a la privacidad en la era digital (A/HRC/48/31 de 13 de septiembre de 2021) analiza cómo el uso generalizado de la inteligencia artificial por parte de los Estados y las empresas, en particular en la elaboración de perfiles, la adopción automatizada de decisiones y las tecnologías de aprendizaje automático, afecta al disfrute del derecho a la privacidad.
Por su parte, el Relator de las Naciones Unidas de libertad de pensamiento y religión, en su Informe del año 2021 ha advertido que “el desarrollo de tecnologías podría revelar (...) los pensamientos de los individuos en formas que antes no era posible”, afectando el derecho a la privacidad de las personas; así como el informe sobre “Impactos, oportunidades y retos que pueden entrañar las tecnologías digitales nuevas y emergentes en relación con la promoción y la protección de los derechos humanos” (A/HRC/47/52), presentado el 19 de mayo de 2021 por el Comité Asesor del Consejo de DDHH ante la Asamblea General de las NNUU, alerta sobre el potencial impacto discriminatorio que pueden tener estos avances, así como las amenazas que pueden significar a la autonomía de la voluntad mental de los usuarios.
La Organización Mundial de la Salud ha advertido en repetidas ocasiones que el uso inadecuado de la inteligencia artificial puede perjudicar a los pacientes mediante un diagnóstico erróneo o un tratamiento equivocado, por eso, las herramientas se pueden usar, pero las decisiones siempre deben estar a cargo de un trabajador sanitario capacitado.
El 10 de septiembre de 2021, el secretario general de las Naciones Unidas, António Guterres, presentó ante la Asamblea General, su informe “Nuestra Agenda Común” donde examina los desafíos globales post pandemia y prioridades sobre el futuro de la cooperación mundial en los próximos 25 años, y -en esta materia- ha señalado que: “es hora de hacer balance, renovar nuestros valores compartidos y actualizar nuestra forma de concebir los derechos humanos. Debería considerarse, por ejemplo, la posibilidad de actualizar o aclarar la forma en que aplicamos los marcos y normas de derechos humanos para abordar cuestiones de vanguardia y prevenir daños en los espacios digital, tecnológico, y la neurotecnología”.
A propuesta del Comité Ad Hoc de Inteligencia Artificial del Consejo de Europa -que elaboró un exhaustivo informe sobre la inteligencia artificial en la era digital- el Parlamento Europeo está discutiendo una propuesta de ley sobre Inteligencia Artificial, con el fin de asegurar que el desarrollo y uso de la Inteligencia Artificial sea responsable, transparente y respete los derechos humanos, estableciendo un marco jurídico integral para limitar los posibles excesos de la IA, sin perjudicar la innovación.
A nivel del Consejo de Derechos Humanos de Naciones Unidas, el viernes 3 de junio un grupo de quince relatores y expertos independientes señalaron “que las nuevas tecnologías, incluidos los sistemas de vigilancia biométrica basados en inteligencia artificial, se utilizan cada vez más -en contextos delicados-, sin el conocimiento ni el consentimiento de las personas”, por lo que es urgente una “regulación que garantice la transparencia, alerte a las personas cuando se encuentren con medios digitales creados o modificados por la inteligencia artificial e informe al público sobre los datos de entrenamiento y los modelos utilizados".
Resulta imperioso contribuir al avance de estas iniciativas de normativas para que los sistemas de inteligencia artificial tengan una regulación adecuada. Los vacíos y los diversos enfoques interpretativos abren el riesgo de que su uso malicioso o negligente aumente las brechas de la injusticia, desigualdad y discriminación; que los poderes públicos tomen decisiones sin rendición de cuentas ni transparencia; que los sistemas de justicia automatizados no respeten garantías, y que las grandes empresas de tecnología tengan tanto poder que serán capaces de conducir las decisiones de consumo, incluyendo el sesgo de las preferencias electorales mediante campañas de desinformación que manipulen la opinión pública.
________________________
TE INVITAMOS A SUSCRIBIRTE DE FORMA GRATUITA AL BOLETÍN DE GUARDIANA
Recibirás cada 15 días el boletín DESCOMPLÍCATE. Incluye INFORMACIÓN ÚTIL que te ayudará a disminuir el tiempo que empleas para resolver trámites y/o problemas. Lo único que tienes que hacer para recibirlo es suscribirte en el siguiente enlace: https://descomplicate.substack.com/subscribe?
Si tienes dudas, escríbenos al WhatsApp 77564599.
Comentarios