[go: nahoru, domu]

Este es el Tumblr del equipo de Derechos Digitales:
Tecnología e Interés Público para Latinoamérica.
www.derechosdigitales.org
Install Theme

Conoce los aportes de Derechos Digitales al reporte intermedio del Órgano Asesor de la ONU sobre inteligencia artificial

image

El Órgano Asesor de Alto Nivel sobre Inteligencia Artificial (AIAB, por su sigla en inglés) de la Organización de las Naciones Unidas (ONU) fue propuesto inicialmente en 2020, como parte de la hoja de ruta para la cooperación digital del Secretario General de la ONU. Este órgano, compuesto por 38 miembros, se constituyó en 2023 para analizar y adelantar recomendaciones para la gobernanza global de la IA.

A fines de 2023, el AIAB publicó un reporte intermedio con un conjunto de principios y guías para la gobernanza global de la IA. Con base en la retroalimentación de este reporte, que estuvo abierto a consultas hasta el pasado mes de marzo, será publicada una segunda versión para adopción junto a la Cumbre del Futuro en septiembre. Se espera que contenga recomendaciones detalladas sobre las funciones, formato y plazos de una nueva agencia global para la gobernanza de la IA.

Derechos Digitales viene acompañando de cerca el trabajo del AIAB y ha enviado comentarios al reporte intermedio publicado por el Órgano. La versión completa está disponible aquí y abajo se encuentra una breve síntesis de nuestras principales recomendaciones.

Consideraciones generales

A lo largo del reporte se constata cierta insistencia en el presunto “potencial benéfico” de los sistemas de IA, asignando características de orden moral a esta herramienta mediante la distinción entre sus usos “para el bien” o “para el mal”. En este sentido, proponemos revisar este tipo de nociones y adoptar, en cambio, una aproximación de carácter sociotécnico a la gobernanza global de la IA. Defendemos que ello posibilitaría un enfoque integral de derechos humanos, que debería estar anclado en mecanismos efectivos para garantizar su cumplimiento por parte de empresas y Estados en lo que se refiere al desarrollo, comercialización y despliegue de este tipo de tecnologías.

En la misma dirección, sostenemos que el reporte debe hacer énfasis en que los Estados adopten compromisos y respalden estándares que puedan prevenir los abusos de esta tecnología, en consonancia con las recomendaciones de la UNESCO en este aspecto y haciendo hincapié en que tales estándares deben aplicarse a todo el proceso productivo de la IA.  Estamos a favor de la incorporación de una perspectiva integral de derechos humanos que considere los impactos civiles y políticos, sociales y económicos, y culturales y medioambientales de la implementación de la IA. Del mismo modo, resaltamos que es indispensable que el reporte destaque la necesidad de cumplimiento de leyes laborales y medioambientales por parte de los actores involucrados en la producción de esos sistemas.

Como parte de la sociedad civil, subrayamos también la necesidad de la participación significativa de voces históricamente marginalizadas en las discusiones sobre IA, como las personas que habitan en comunidades rurales e indígenas, cuyo derecho a consulta es internacionalmente reconocido. Resaltamos también que los criterios de diversidad, equidad e inclusión deben ser considerados en todo el ciclo de vida de los sistemas de IA y en el desarrollo de estudios de impacto en derechos humanos. Finalmente, apuntamos a las siguientes recomendaciones generales a ser consideradas por el AIAB:

  • Los Objetivos de Desarrollo Sostenible (ODS) no pueden servir de excusa para la promoción irresponsables de tecnologías. Además, criterios deberían ser aplicados para garantizar que inversiones en digitalización no compitan con las necesarias inversiones en infraestructuras básicas de bienestar social, como salud, educación, entre otras;
  • Órganos de la ONU y bancos de desarrollo deben ser transparentes y rendir cuentas sobre su uso y promoción de IA, presentando Estudios de Impacto en Derechos Humanos que justifiquen sus inversiones en sistemas tecnológicos;
  • El trabajo del AIAB debe ser guiado por el amplio trabajo del Consejo de Derechos Humanos de la ONU sobre el tema e incorporarlos explícitamente.

Comentarios a los principios rectores

El reporte ofrece cinco principios para guiar este debate: 1) inclusión; 2) interés público; 3) gobernanza de datos y promoción de los datos comunes; 4) universalidad enraizada en la colaboración de múltiples partes interesadas, y 5) un anclaje al derecho internacional y los Objetivos de Desarrollo Sostenible de la ONU. Sobre cada uno de ellos, recomendamos:

  • Que se refuerce la necesidad de operacionalizar los estándares existentes para asegurar que las empresas cumplan sus responsabilidades de acuerdo con los Principios Rectores sobre las Empresas y los Derechos Humanos;
  • Superar la idea de “interoperabilidad regulatoria” tal como presentada en el reporte y reconocer la diversidad de abordajes posibles para la regulación de IA según los contextos nacionales, reiterando la soberanía de los Estados y la necesidad crítica de que leyes locales se basen en evidencias y en la participación de las comunidades afectadas;
  • Enfocarse en la protección de datos como eje clave de la gobernanza global de la IA e incentivar a los Estados a adoptar legislaciones basadas en los principios internacionalmente reconocidos en la materia como la legalidad, finalidad, proporcionalidad, minimización y transparencia.  Reiteramos además la importancia de que datos recolectados para fines de políticas públicas no sean redirigidos para entrenar sistemas de IA sin el debido consentimiento de las personas titulares;
  • Reiterar que una estructura de gobernanza de IA no puede replicar desbalances previos o priorizar la visión de unos Estados por sobre la de otros y que debe promover la participación significativa de la sociedad civil en los procesos de toma de decisiones desde lo nacional hacia lo global, comprometiéndose con la garantía de un ambiente habilitador para tal participación, es decir, la democracia y un espacio cívico abierto;
  • Reconocer la imperativa necesidad de implementación de Estudios de Impacto en Derechos Humanos en todo el ciclo de vida de los sistemas de IA.

De las funciones institucionales

El reporte propone funciones institucionales para la gobernanza de la IA distribuidas según su grado de “severidad”, de menor a mayor: construcción de consenso científico; alineación e interoperabilidad normativa; elaboración de marcos normativos sobre estándares, seguridad y gestión de riesgos; facilitación de regímenes de desarrollo y usabilidad, y entrenamiento y prueba de modelos de carácter transfronterizo; colaboración internacional; revisión de pares y reportabilidad, y creación de normas y mecanismos de rendición de cuentas.

Sobre estas funciones, destacamos que:

  • La participación de múltiples partes interesadas debe ser transversal a las distintas funciones, con medidas concretas que habiliten un involucramiento significativo de actores de la sociedad civil;
  • Para la investigación en IA es imprescindible una acción afirmativa que abra la puerta a actores y producción de conocimiento fuera del Norte Global;
  • El contexto es clave en la definición de los riesgos potenciales de la IA y los Estados deben contar con su soberanía al momento de regularla según sus necesidades y prioridades específicas. Eso incluye la posibilidad establecer reglas de competencia o impuestos, de modo a participar de manera más significativa en la economía global. Además de superar la noción de interoperabilidad, el AIAB debería recomendar que los Estados eviten imponer limitaciones regulatorias en otros foros, como los acuerdos de libre comercio;
  • Sobre la estandarización, es prioritario definir criterios que, a nivel global, permitan el análisis del cumplimiento normativo de ciertos productos y aplicaciones de IA y mecanismos de monitoreo, supervisión y certificación que impidan que eventuales abusos se repliquen y multipliquen alrededor del mundo. En ese sentido, la ONU cumple un rol central en apoyar a los países con información sobre hasta que punto determinadas aplicaciones resultan de una cadena productiva justa o no;
  • La gobernanza global de la IA debe posibilitar el diálogo y la integración de diferentes actores a niveles local, regional y global, junto con ofrecer apoyo a los Estados respecto en cuanto a investigación, diseño y desarrollo de la IA. Así, la cooperación internacional debe estar orientada a facilitar la toma de mejores decisiones;
  • La cooperación para la implementación de sistemas de IA debe estar sujeta a la Evaluación de Impacto en Derechos Humanos y responder a estrictos criterios de transparencia y rendición de cuentas, incluso en el ámbito de Naciones Unidas.

Encontrar lo bueno en la primera resolución de la Asamblea General de la ONU sobre inteligencia artificial

image

Un conjunto de organizaciones de la sociedad civil entre las que se encuentra Derechos Digitales, celebramos la resolución de la Asamblea General de las Naciones Unidas (ONU) liderada por los Estados Unidos de “Aprovechar las oportunidades de sistemas de inteligencia artificial seguros y confiables para el desarrollo sostenible”.

Sin embargo, en el análisis del documento, hemos encontrado algunos problemas, que consideramos de urgente análisis y solución.  
Los párrafos que piden cerrar la brecha digital simplemente se formulan como si exigieran “alianzas más sólidas”, cuando son urgentes mayores compromisos, incluso en relación con la financiación.

En la declaración se identifican problemas en relación con la superación de la brecha digital, estándares diferenciados para el ámbito militar, la gobernanza sin garantías de participación multisectorial e inclusión, y la integración de principios.

Si bien la resolución se centra en el impacto de algunas tecnologías no incluye una dimensión integral de la Agenda 2030 para el Desarrollo Sostenible, para la protección de los derechos humanos.

El documento completo puede leerse aquí.

La declaración completa en español puede leerse aquí.

Inteligencia Artificial: Derechos Digitales es parte del consejo de expertos sobre el tema del órgano asesor de Naciones Unidas

El lunes 18 de marzo tuvo lugar una reunión del Órgano Asesor de Alto Nivel sobre Inteligencia Artificial (AIAB, por su sigla en inglés) junto con el consejo de expertos convocado para apoyar sus trabajos. Diversos representantes de la academia y sociedad civil participaron, incluyendo a Derechos Digitales.

Además de presentar los avances en el trabajo del grupo, el Enviado del Secretario General para la Tecnología de las Naciones Unidas, Amandeep Singh Gill, abrió espacio para reacciones y comentarios desde el grupo.

Jamila Venturini, codirectora ejecutiva en Derechos Digitales, estuvo presente en la ronda y, por limitaciones de tiempo, hizo su intervención por escrito. En ella, relevó la necesidad de profundizar en los estándares que han de regir a la inteligencia artificial (IA) para gestionar el equilibrio de los derechos fundamentales, lo que implica proporcionar orientaciones para la toma de decisiones a nivel local.

También destacó que este enfoque situado debería incorporarse en las discusiones sobre interoperabilidad. Así, los gobiernos nacionales pueden evitar una competencia por encontrar mínimos comunes al momento de legislar. Citando el reporte, Venturini subrayó la importancia de contar con mecanismos de monitoreo, supervisión y certificación a nivel global, a fin de evitar la reproducción de daños.

  • El reporte del AIAB está disponible en inglés en este enlace.
  • Puedes retroalimentar su contenido hasta el 31 de marzo de 2024 en esta plataforma.

El HLAB y cómo darles el poder de definir las soluciones a quienes generan los problemas

Por Juan Carlos Lara

image

El Secretario General de la ONU, Antonio Gutérres, anunció el 26 de octubre a las y los miembros del “Órgano Asesor sobre Inteligencia Artificial” (HLAB, por su sigla en inglés), un conjunto de personas expertas de todo el mundo (que incluyen al “Tech Envoy” de la ONU, Amandeep Singh Gill) reunidas para asistir a los riesgos, las oportunidades y la gobernanza internacional de estas tecnologías. Todo esto, en el marco de la implementación de la Hoja de ruta para la cooperación digital.

La noticia de la composición del Órgano Asesor llega varios meses después de su anuncio inicial. El órgano debe publicar un informe preliminar durante 2023, presentando un análisis de alto nivel con opciones para la gobernanza internacional de la inteligencia artificial, y un informe final con recomendaciones en agosto de 2024.

Desde Derechos Digitales, la noticia de la composición del Órgano llega con algo de sorpresa, dados los frecuentes llamados de atención dirigidos a las Naciones Unidas para una representación y una participación amplias para la sociedad civil, en especial de la Mayoría Global, en espacios de influencia para la decisión. Aun cuando el cuerpo tiene una importante participación de destacadas miembros de la academia, vemos con estupor que hay más representantes de empresas que de organizaciones defensoras de derechos humanos.

Ese desbalance tiene consecuencias, pues pone en una posición de asesoría de alto nivel a las mismas empresas cuyos productos serán objeto de recomendaciones. Esto equivale a darles el poder de definir las soluciones a quienes generan los problemas, y a dejar que quienes más aprovechan los beneficios económicos de la IA se conviertan en quienes fijan sus pautas de comportamiento, aplicables también a sus competidoras actuales y potenciales.

A la vez, la bajísima presencia de representantes de la sociedad civil global pone en entredicho la capacidad de equilibrar distintos intereses para asegurar que el desarrollo futuro de la IA no sea solamente una noción amplia del bien común, sino la defensa activa de los derechos humanos a nivel individual y colectivo.

Nueva investigación: las aplicaciones que utilizas están recolectando más información sobre ti de la que te imaginas

image

Ya está disponible “Rastreadores en aplicaciones de alimentación y dieta – Una comparación entre Chile y Uruguay”, investigación realizada por Derechos Digitales con el apoyo de Privacy International, donde analizamos cinco aplicaciones de dieta y ejercicio para celular (Habits, Lifesum, Fitia, Fasting Tracker y Simple: Ayuno intermitente), con el objetivo de identificar qué información recolectaban y con quién la compartían. Realizamos el mismo procedimiento en Chile y en Uruguay, países que manejan diferentes estándares de protección, para poder comparar los resultados.

El análisis final dejó en evidencia que la mayoría de estas aplicaciones comparten datos con distintos “data brokers”, piezas de software que rastrean y compilan información sobre el uso de la aplicación y el dispositivo en que se utiliza. Sin embargo, las empresas que las administran no transparentan completamente la presencia de rastreadores ni los datos que comparten con cada uno de ellos. Tampoco se revela para qué se usa la información recopilada.

Pese a la diferencia regulatoria entre Chile y Uruguay, los resultados no muestran grandes diferencias entre los países. Se trata de una situación que constituye un desafío a la capacidad normativa de los Estados para poner freno a este tipo de prácticas y proteger íntegramente la intimidad de sus ciudadanos.

El nivel de información que estas compañías recaban de las personas, a partir de las más variadas fuentes y sin transparentarlo es una afrenta contra el derecho a la privacidad y a la protección de los datos de las personas, a la  autonomía, intimidad y libertad.

“Rastreadores en aplicaciones de alimentación y dieta – Una comparación entre Chile y Uruguay” se puede descargar aquí.

Jamila Venturini participó del evento “Cammon action forum”

«Cuando aparece una noticia que dice que dice que la Inteligencia Artificial es más sensible o más simpática que una “persona humana”, nos olvidamos de que detrás de esa Inteligencia Artificial hay muchas personas que ganan menos de dos dólares por hora (…) Ese modelo extractivista no se detuvo ni siquiera durante la pandemia y se alimentó de trabajo precarizado».

El pasado viernes 11, nuestra codirectora Jamila Venturini participó del “Common Action Forum”, exponiendo en el panel “Las promesas tecnológicas y la encrucijada de la ciudadanía”. Junto con Fabio Senne y Tesh Sidi reflexionaron sobre la transformación radical de los espacios sociotécnicos ha reconfigurado inevitablemente los principios mismos de ciudadanía.

A medida que se afianza, las instituciones, los procesos, los derechos y los deberes que anteriormente daban forma a este concepto encuentran ahora nuevas vías para acoger mayores niveles de participación. Pero, paradójicamente, surge también una realidad opuesta: las brechas digitales y tecnológicas amenazan con reproducir, perpetuar y potencialmente agravar la desigualdad y la exclusión que sustentaban nuestra sociedad analógica.
Ante la velocidad, la opacidad y la complejidad como señas de la naturaleza escurridiza de la innovación digital, la pregunta sigue siendo apremiante, ¿cómo puede la autonomía humana trascender y prosperar más allá de este marco?

Puedes ver la intervención de Venturini completa acá

Ilegal, poco confiable y contrario a los derechos humanos: no al reconocimiento facial para combatir la delincuencia común

image

El pasado 29 de enero, un asalto a una tienda MacOnline al interior de un centro comercial en Santiago de Chile trajo de vuelta la discusión sobre mayores y mejores medidas de seguridad en espacios de alta afluencia El subsecretario del Ministerio del Interior, Manuel Monsalve, anunció una reunión con la Cámara de Centros Comerciales, entidad que agrupa a los representantes del gremio en Chile, para “avanzar en medidas conjuntas” que no requieran la tramitación de una ley para su aplicación. Como ejemplos de algunas propuestas, mencionó la implementación de detectores de armas y sistemas de reconocimiento facial, según reportó Diario Financiero.

Desde Derechos Digitales hemos señalado en diversas ocasiones los peligros que conlleva la implementación de sistemas de reconocimiento facial para la vigilancia y el combate del delito común. Estas tecnologías limitan directamente la autonomía de las personas, amenaza el derecho a la dignidad, al debido proceso y la presunción de inocencia. Además, es una tecnología cuyo desarrollo y uso reproduce las desigualdades y exclusiones estructurales, perjudicando a grupos históricamente marginados.

Los datos sobre rasgos faciales corresponden a lo que la legislación chilena denomina datos sensibles, es decir, “aquellos datos personales que se refieren a las características físicas o morales de las personas o a hechos o circunstancias de su vida privada o intimidad”. La normativa no permite el tratamiento de datos sensibles sin consentimiento explícito o autorización legal expresa. Sin cumplir esos requisitos, tal vigilancia sería ilegal.

Ya en 2018 advertimos los riesgos asociados a la implementación de tecnologías de reconocimiento facial en centros comerciales, a propósito del anuncio de Mall Plaza. Poco después, nos enteramos que las pruebas realizadas a dicho sistema concluyeron que el 90% de las identificaciones correspondieron a falsos positivos. Es decir, estamos ante una tecnología que además es poco confiable.

Por lo anterior, estamos en contra de toda iniciativa que pretenda la implementación de sistemas de reconocimiento facial con fines de vigilancia. Exigimos al Gobierno de Chile rectificar sus propuestas para el combate de la delincuencia, y consultar tanto con expertos en la materia como con especialistas en derechos humanos. Entendemos que la seguridad ciudadana es una prioridad, pero no podemos volver a caer en la falsa dicotomía que enfrenta esta necesidad con el derecho a la privacidad y con el derecho a movernos sin ser objeto de seguimiento. No es consistente que un gobierno comprometido con la defensa de los derechos de la ciudadanía proponga medidas que van en retirada en el resto del mundo, contrarias al ordenamiento jurídico chileno y a estándares internacionales de protección de los derechos humanos.

  • Para más información sobre los peligros del reconocimiento facial y su despliegue en nuestra región, te invitamos a conocer nuestro sitio web dedicado a la materia, Reconocimiento Facial en América Latina.

Los neofascistas italianos y su plan para un sistema automatizado de trabajo semi-forzado

image

Aquí en Derechos Digitales creemos que los avances en tecnología han de estar al servicio del desarrollo de las personas y la sociedad en su conjunto. Sin embargo, ese no siempre es el caso y frecuentemente nos encontramos con tecnologías discriminatorias y que vulneran derechos fundamentales.

En particular, las tecnologías de inteligencia artificial y las distintas formas adoptadas por los sistemas de toma de decisiones automatizadas están siendo utilizadas para tareas como el ejercicio de la vigilancia y, de forma cada vez más recurrente, para la evaluación de las políticas de ayuda social, usualmente con una agenda de austeridad.

Una nota publicada en Voxeurop alerta sobre el documento “Apuntes para un programa conservador”, confeccionado por el partido ultraderechista Fratelli d’Italia de Giorgia Meloni, que ganó la mayoría en la última elección general. En las páginas 7 y 8, el texto delinea un plan para la empleabilidad semi-forzada, por medio del uso de la inteligencia artificial.

La propuesta señala que el Estado italiano realizará un seguimiento de la lista de jóvenes egresados de la educación secundaria y universitaria cada año, y los contactará con empresas. “El joven ya no podrá elegir si trabajar o no, sino que está obligado a aceptar la oferta de trabajo por él mismo, por su familia y por el país”. En caso contrario, es decir, al “elegir” la cesantía, perderán beneficios y se aplicará un sistema de sanciones.

Aunque la propuesta, calificada por el sociólogo Antonio Casilli como “tremendamente autoritaria y reaccionaria, no fue incluida en el plan de gobierno de Meloni, guarda semejanzas con otras iniciativas desarrolladas en Europa. En 2014, Polonia introdujo un sistema de puntuación para calificar a las personas que acudían a los centros de empleo y decidir a quién ayudar con asistencia social, mientras que en 2017 Paul Duan prometió reducir el desempleó en Francia en un 10%, mediante un algoritmo que ofrecía ayudar a las personas a encontrar trabajo poniéndolas en contacto con posibles empleadores y ayudándolas durante el proceso de solicitud. Ninguno de los dos programas prosperó: el sistema de puntuación polaco tendía a determinar no valía invertir en las madres solteras, las personas que tenían alguna discapacidad o que vivían en zonas rurales, y fue sacado de funcionamiento en 2019, mientras que en el caso francés se determinó que el algoritmo no funcionaba.

Por su parte, en Brasil está la experiencia del Sistema Nacional de Empleo, que incorpora herramientas de inteligencia artificial para generar perfiles de trabajadores y trabajadoras desempleadas con el objetivo de ofrecerles ofertas de trabajo y posibilidades de capacitación profesional personalizadas.

  • Lee más sobre el tema en Voxeurop (ING) e Immoderati (ITA).
  • Nuestra organización está alerta ante medidas similares en América Latina. Más información aquí.