Cicle IA, Drets i Democràcia
#IADretsDemocràcia Riscos i potències de la intel·ligència artificial
Canvis a "Sessió 2 | IA, Polítiques públiques i Discriminacions"
Descripció (Castellano)
-
-
¿Es posible imaginar sistemas de inteligencia artificial de gobernanza pública? ¿Es posible implementar estos softwares sin caer en sesgos de género, racistas o clasistas? ¿Qué tiene que ser el rol de la sociedad civil y organizaciones del tercer sector?
El Ayuntamiento de Barcelona ha aprobado el protocolo “Definición de metodologías de trabajo y protocolos para la implementación de sistemas algorítmicos”, que tiene como finalidad crear un protocolo interno para la implementación de sistemas algorítmicos e inteligencia artificial en el ámbito municipal. El Instituto de Derechos Humanos de Cataluña ha publicado un informe sobre los efectos de la inteligencia artificial en la igualdad y en la no discriminación, analizando donde, quien, para qué y como se desarrolla y aplica la inteligencia artificial. Algorace, una organización que fomenta espacios de diálogo con población racialitzada para concienciar sobre las consecuencias del uso racista de la IA, ha presentado una investigación que establece las bases necesarias para entender a que nos enfrentamos desde los colectivos sociales cuando hablamos de inteligencia artificial, o sistemas de decisión automatizados.
Reflexionamos con estos tres actores para continuar construyendo una inteligencia artificial de gobernanza pública, auditable y en pro del bien común.
En la segunda sesión del Ciclo Inteligencia artificial, derechos y democracia contamos con Paula Boet (AJB), Karlos Castilla (IDHC) y Paula Guerra (Algorace), para abordar la discusión entre IA, Políticas Públicas y Discriminaciones. El ciclo sigue con:
📌 Organizado por: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 La imagen del ciclo es una creación de Taller Estampa -
+
¿Es posible imaginar sistemas de inteligencia artificial de gobernanza pública? ¿Es posible implementar estos softwares sin caer en sesgos de género, racistas o clasistas? ¿Qué tiene que ser el rol de la sociedad civil y organizaciones del tercer sector?
El Ayuntamiento de Barcelona ha aprobado el protocolo “Definición de metodologías de trabajo y protocolos para la implementación de sistemas algorítmicos”, que tiene como finalidad crear un protocolo interno para la implementación de sistemas algorítmicos e inteligencia artificial en el ámbito municipal. El Instituto de Derechos Humanos de Cataluña ha publicado un informe sobre los efectos de la inteligencia artificial en la igualdad y en la no discriminación, analizando donde, quien, para qué y como se desarrolla y aplica la inteligencia artificial. Algorace, una organización que fomenta espacios de diálogo con población racialitzada para concienciar sobre las consecuencias del uso racista de la IA, ha presentado una investigación que establece las bases necesarias para entender a que nos enfrentamos desde los colectivos sociales cuando hablamos de inteligencia artificial, o sistemas de decisión automatizados.
Reflexionamos con estos tres actores para continuar construyendo una inteligencia artificial de gobernanza pública, auditable y en pro del bien común.
En la segunda sesión del Ciclo Inteligencia artificial, derechos y democracia contamos con Paula Boet (AJB), Karlos Castilla (IDHC) y Paula Guerra (Algorace), para abordar la discusión entre IA, Políticas Públicas y Discriminaciones. El ciclo sigue con:
📌 Organizado por: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 La imagen del ciclo es una creación de Taller Estampa
Descripció (English)
-
-
Is it possible to imagine artificial intelligence systems of public governance? Is it possible to implement these softwares without falling into gender, racist or classist biases? What has to be the role of civil society and third sector organizations?
The Barcelona City Council has approved the protocol "Definition of working methodologies and protocols for the implementation of algorithmic systems", which aims to create an internal protocol for the implementation of algorithmic systems and artificial intelligence in the municipal sphere. The Human Rights Institute of Catalonia has published a report on the effects of artificial intelligence on equality and non-discrimination, analyzing where, who, what for and how artificial intelligence is developed and applied. Algorace, an organization that promotes spaces for dialogue with racialized population to raise awareness about the consequences of the racist use of AI, has presented a research that establishes the necessary basis to understand what we face from social collectives when we talk about artificial intelligence, or automated decision systems.
We reflect with these three actors to continue building an artificial intelligence of public governance, auditable and for the common good.
In the second session of the Artificial Intelligence, Rights and Democracy Cycle we have Paula Boet (AJB), Karlos Castilla (IDHC) and Paula Guerra (Algorace), to address the discussion between AI, Public Policies and Discriminations. The cycle continues with:
📌 Organized by: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 The image of the cycle is a creation of Taller Estampa -
+
Is it possible to imagine artificial intelligence systems of public governance? Is it possible to implement these softwares without falling into gender, racist or classist biases? What has to be the role of civil society and third sector organizations?
The Barcelona City Council has approved the protocol "Definition of working methodologies and protocols for the implementation of algorithmic systems", which aims to create an internal protocol for the implementation of algorithmic systems and artificial intelligence in the municipal sphere. The Human Rights Institute of Catalonia has published a report on the effects of artificial intelligence on equality and non-discrimination, analyzing where, who, what for and how artificial intelligence is developed and applied. Algorace, an organization that promotes spaces for dialogue with racialized population to raise awareness about the consequences of the racist use of AI, has presented a research that establishes the necessary basis to understand what we face from social collectives when we talk about artificial intelligence, or automated decision systems.
We reflect with these three actors to continue building an artificial intelligence of public governance, auditable and for the common good.
In the second session of the Artificial Intelligence, Rights and Democracy Cycle we have Paula Boet (AJB), Karlos Castilla (IDHC) and Paula Guerra (Algorace), to address the discussion between AI, Public Policies and Discriminations. The cycle continues with:
📌 Organized by: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 The image of the cycle is a creation of Taller Estampa