[go: nahoru, domu]

Avatar
Derechos Digitales

@derechosdigitales / derechosdigitales.tumblr.com

Este es el Tumblr del equipo de Derechos Digitales: Tecnología e Interés Público para Latinoamérica. www.derechosdigitales.org
Avatar

Conoce los aportes de Derechos Digitales al reporte intermedio del Órgano Asesor de la ONU sobre inteligencia artificial

El Órgano Asesor de Alto Nivel sobre Inteligencia Artificial (AIAB, por su sigla en inglés) de la Organización de las Naciones Unidas (ONU) fue propuesto inicialmente en 2020, como parte de la hoja de ruta para la cooperación digital del Secretario General de la ONU. Este órgano, compuesto por 38 miembros, se constituyó en 2023 para analizar y adelantar recomendaciones para la gobernanza global de la IA.

A fines de 2023, el AIAB publicó un reporte intermedio con un conjunto de principios y guías para la gobernanza global de la IA. Con base en la retroalimentación de este reporte, que estuvo abierto a consultas hasta el pasado mes de marzo, será publicada una segunda versión para adopción junto a la Cumbre del Futuro en septiembre. Se espera que contenga recomendaciones detalladas sobre las funciones, formato y plazos de una nueva agencia global para la gobernanza de la IA.

Derechos Digitales viene acompañando de cerca el trabajo del AIAB y ha enviado comentarios al reporte intermedio publicado por el Órgano. La versión completa está disponible aquí y abajo se encuentra una breve síntesis de nuestras principales recomendaciones.

Consideraciones generales

A lo largo del reporte se constata cierta insistencia en el presunto “potencial benéfico” de los sistemas de IA, asignando características de orden moral a esta herramienta mediante la distinción entre sus usos “para el bien” o “para el mal”. En este sentido, proponemos revisar este tipo de nociones y adoptar, en cambio, una aproximación de carácter sociotécnico a la gobernanza global de la IA. Defendemos que ello posibilitaría un enfoque integral de derechos humanos, que debería estar anclado en mecanismos efectivos para garantizar su cumplimiento por parte de empresas y Estados en lo que se refiere al desarrollo, comercialización y despliegue de este tipo de tecnologías.

En la misma dirección, sostenemos que el reporte debe hacer énfasis en que los Estados adopten compromisos y respalden estándares que puedan prevenir los abusos de esta tecnología, en consonancia con las recomendaciones de la UNESCO en este aspecto y haciendo hincapié en que tales estándares deben aplicarse a todo el proceso productivo de la IA.  Estamos a favor de la incorporación de una perspectiva integral de derechos humanos que considere los impactos civiles y políticos, sociales y económicos, y culturales y medioambientales de la implementación de la IA. Del mismo modo, resaltamos que es indispensable que el reporte destaque la necesidad de cumplimiento de leyes laborales y medioambientales por parte de los actores involucrados en la producción de esos sistemas.

Como parte de la sociedad civil, subrayamos también la necesidad de la participación significativa de voces históricamente marginalizadas en las discusiones sobre IA, como las personas que habitan en comunidades rurales e indígenas, cuyo derecho a consulta es internacionalmente reconocido. Resaltamos también que los criterios de diversidad, equidad e inclusión deben ser considerados en todo el ciclo de vida de los sistemas de IA y en el desarrollo de estudios de impacto en derechos humanos. Finalmente, apuntamos a las siguientes recomendaciones generales a ser consideradas por el AIAB:

  • Los Objetivos de Desarrollo Sostenible (ODS) no pueden servir de excusa para la promoción irresponsables de tecnologías. Además, criterios deberían ser aplicados para garantizar que inversiones en digitalización no compitan con las necesarias inversiones en infraestructuras básicas de bienestar social, como salud, educación, entre otras;
  • Órganos de la ONU y bancos de desarrollo deben ser transparentes y rendir cuentas sobre su uso y promoción de IA, presentando Estudios de Impacto en Derechos Humanos que justifiquen sus inversiones en sistemas tecnológicos;
  • El trabajo del AIAB debe ser guiado por el amplio trabajo del Consejo de Derechos Humanos de la ONU sobre el tema e incorporarlos explícitamente.

Comentarios a los principios rectores

El reporte ofrece cinco principios para guiar este debate: 1) inclusión; 2) interés público; 3) gobernanza de datos y promoción de los datos comunes; 4) universalidad enraizada en la colaboración de múltiples partes interesadas, y 5) un anclaje al derecho internacional y los Objetivos de Desarrollo Sostenible de la ONU. Sobre cada uno de ellos, recomendamos:

  • Que se refuerce la necesidad de operacionalizar los estándares existentes para asegurar que las empresas cumplan sus responsabilidades de acuerdo con los Principios Rectores sobre las Empresas y los Derechos Humanos;
  • Superar la idea de “interoperabilidad regulatoria” tal como presentada en el reporte y reconocer la diversidad de abordajes posibles para la regulación de IA según los contextos nacionales, reiterando la soberanía de los Estados y la necesidad crítica de que leyes locales se basen en evidencias y en la participación de las comunidades afectadas;
  • Enfocarse en la protección de datos como eje clave de la gobernanza global de la IA e incentivar a los Estados a adoptar legislaciones basadas en los principios internacionalmente reconocidos en la materia como la legalidad, finalidad, proporcionalidad, minimización y transparencia.  Reiteramos además la importancia de que datos recolectados para fines de políticas públicas no sean redirigidos para entrenar sistemas de IA sin el debido consentimiento de las personas titulares;
  • Reiterar que una estructura de gobernanza de IA no puede replicar desbalances previos o priorizar la visión de unos Estados por sobre la de otros y que debe promover la participación significativa de la sociedad civil en los procesos de toma de decisiones desde lo nacional hacia lo global, comprometiéndose con la garantía de un ambiente habilitador para tal participación, es decir, la democracia y un espacio cívico abierto;
  • Reconocer la imperativa necesidad de implementación de Estudios de Impacto en Derechos Humanos en todo el ciclo de vida de los sistemas de IA.

De las funciones institucionales

El reporte propone funciones institucionales para la gobernanza de la IA distribuidas según su grado de “severidad”, de menor a mayor: construcción de consenso científico; alineación e interoperabilidad normativa; elaboración de marcos normativos sobre estándares, seguridad y gestión de riesgos; facilitación de regímenes de desarrollo y usabilidad, y entrenamiento y prueba de modelos de carácter transfronterizo; colaboración internacional; revisión de pares y reportabilidad, y creación de normas y mecanismos de rendición de cuentas.

Sobre estas funciones, destacamos que:

  • La participación de múltiples partes interesadas debe ser transversal a las distintas funciones, con medidas concretas que habiliten un involucramiento significativo de actores de la sociedad civil;
  • Para la investigación en IA es imprescindible una acción afirmativa que abra la puerta a actores y producción de conocimiento fuera del Norte Global;
  • El contexto es clave en la definición de los riesgos potenciales de la IA y los Estados deben contar con su soberanía al momento de regularla según sus necesidades y prioridades específicas. Eso incluye la posibilidad establecer reglas de competencia o impuestos, de modo a participar de manera más significativa en la economía global. Además de superar la noción de interoperabilidad, el AIAB debería recomendar que los Estados eviten imponer limitaciones regulatorias en otros foros, como los acuerdos de libre comercio;
  • Sobre la estandarización, es prioritario definir criterios que, a nivel global, permitan el análisis del cumplimiento normativo de ciertos productos y aplicaciones de IA y mecanismos de monitoreo, supervisión y certificación que impidan que eventuales abusos se repliquen y multipliquen alrededor del mundo. En ese sentido, la ONU cumple un rol central en apoyar a los países con información sobre hasta que punto determinadas aplicaciones resultan de una cadena productiva justa o no;
  • La gobernanza global de la IA debe posibilitar el diálogo y la integración de diferentes actores a niveles local, regional y global, junto con ofrecer apoyo a los Estados respecto en cuanto a investigación, diseño y desarrollo de la IA. Así, la cooperación internacional debe estar orientada a facilitar la toma de mejores decisiones;
  • La cooperación para la implementación de sistemas de IA debe estar sujeta a la Evaluación de Impacto en Derechos Humanos y responder a estrictos criterios de transparencia y rendición de cuentas, incluso en el ámbito de Naciones Unidas.
Avatar

El HLAB y cómo darles el poder de definir las soluciones a quienes generan los problemas

Por Juan Carlos Lara

El Secretario General de la ONU, Antonio Gutérres, anunció el 26 de octubre a las y los miembros del “Órgano Asesor sobre Inteligencia Artificial” (HLAB, por su sigla en inglés), un conjunto de personas expertas de todo el mundo (que incluyen al “Tech Envoy” de la ONU, Amandeep Singh Gill) reunidas para asistir a los riesgos, las oportunidades y la gobernanza internacional de estas tecnologías. Todo esto, en el marco de la implementación de la Hoja de ruta para la cooperación digital.

La noticia de la composición del Órgano Asesor llega varios meses después de su anuncio inicial. El órgano debe publicar un informe preliminar durante 2023, presentando un análisis de alto nivel con opciones para la gobernanza internacional de la inteligencia artificial, y un informe final con recomendaciones en agosto de 2024.

Desde Derechos Digitales, la noticia de la composición del Órgano llega con algo de sorpresa, dados los frecuentes llamados de atención dirigidos a las Naciones Unidas para una representación y una participación amplias para la sociedad civil, en especial de la Mayoría Global, en espacios de influencia para la decisión. Aun cuando el cuerpo tiene una importante participación de destacadas miembros de la academia, vemos con estupor que hay más representantes de empresas que de organizaciones defensoras de derechos humanos.

Ese desbalance tiene consecuencias, pues pone en una posición de asesoría de alto nivel a las mismas empresas cuyos productos serán objeto de recomendaciones. Esto equivale a darles el poder de definir las soluciones a quienes generan los problemas, y a dejar que quienes más aprovechan los beneficios económicos de la IA se conviertan en quienes fijan sus pautas de comportamiento, aplicables también a sus competidoras actuales y potenciales.

A la vez, la bajísima presencia de representantes de la sociedad civil global pone en entredicho la capacidad de equilibrar distintos intereses para asegurar que el desarrollo futuro de la IA no sea solamente una noción amplia del bien común, sino la defensa activa de los derechos humanos a nivel individual y colectivo.

Avatar

¡Postula ya! Google Policy Fellowship 2019

Una vez más, Derechos Digitales se suma al programa de pasantías de Google, para promover la investigación sobre políticas de internet en América Latina. Conoce los términos del programa aquí y ven a trabajar en nuestra oficina de Santiago de Chile durante 12 semanas, entre julio y septiembre de este año. Solo debes acreditar tu condición de estudiante (en cualquier nivel de educación superior), hablar español y tener interés en trabajar alguno de estos temas en el contexto latinoamericano:

* El futuro del trabajo, para realizar estudios de caso en países de la región o investigaciones sobre las tendencias de las políticas que afectan a las economías de plataforma, incluyendo su impacto en los impuestos, las relaciones laborales, el desarrollo urbano y más.

* Perspectivas de género sobre el aumento de la vigilancia, para analizar los efectos de la vigilancia electrónica en mujeres y personas LGBTQI+, explorando los vínculos entre datos personales, vigilancia y sexualidad, identificar las comunidades en mayor riesgo de ser vigiladas, así como iniciativas de respuesta y empoderamiento desde las mismas comunidades.

* Censura en línea y libertad de expresión, para investigar sobre tendencias actuales y desafíos para el ejercicio de la libertad de expresión en diferentes países, incluyendo la regulación de plataformas, cuestiones jurisdiccionales, jurisprudencia existente y responsabilidad social.

* Automatización y cuantificación para la toma de decisiones, para analizar las tendencias actuales en el uso de datos, incluyendo respuestas institucionales y políticas ante amenazas, así como actores relevantes que estén trabajando el tema y procesos de participación ciudadana para influir y auditar la toma de decisiones automatizada.

* Integridad electoral y sistemas de votación electrónica, para la investigación y análisis de políticas relacionadas con la implementación de sistemas de votación electrónica y los desafíos que presenta frente a la integridad de las elecciones, especialmente en contextos donde la democracia está en riesgo.

* Transparencia y rendición de cuentas para controlar la vigilancia, para realizar análisis legales y de políticas sobre temas como la adquisición pública de tecnología de vigilancia, las herramientas legales que permiten o prohíben la piratería de dispositivos, y los mecanismos de reparación en caso de violaciones de seguridad con fines de vigilancia.

Para postular a la pasantía con nosotras, completa este formulario. Recuerda que el plazo para postular vence el próximo 6 de junio.

You are using an unsupported browser and things might not work as intended. Please make sure you're using the latest version of Chrome, Firefox, Safari, or Edge.