Cicle IA, Drets i Democràcia
#IADretsDemocràcia Riscos i potències de la intel·ligència artificial
Canvis a "Sessió 2 | IA, Polítiques públiques i Discriminacions"
Descripció (Català)
-
-
És possible imaginar sistemes d'intel·ligència artificial de governança pública? És possible implementar aquests softwares sense caure en biaixos de gènere, racistes o classistes? Quin ha de ser el rol de la societat civil i organitzacions del tercer sector?
L’Ajuntament de Barcelona ha aprovat el protocol “Definició de metodologies de treball i protocols per a la implementació de sistemes algorítmics”, que té com a finalitat crear un protocol intern per a la implementació de sistemes algorítmics i intel·ligència artificial en l’àmbit municipal. L'Institut de Drets Humans de Catalunya ha publicat un informe sobre els efectes de la intel·ligència artificial en la igualtat i en la no discriminació, analitzant on, qui, per a què i com es desenvolupa i aplica la intel·ligència artificial. Algorace, una organització que fomenta espais de diàleg amb població racialitzada per conscienciar sobre les conseqüències de l'ús racista de la IA, ha presentat una investigació que estableix les bases necessàries per entendre a què ens enfrontem des dels col·lectius socials quan parlem d’intel·ligència artificial, o sistemes de decisió automatitzats.
Reflexionem amb aquests tres actors per continuar construint una intel·ligència artificial de governança pública, auditable i en pro del bé comú.
En la segona sessió del Cicle Intel·ligència artificial, drets i democràcia comptem amb Paula Boet (AJB), Karlos Castilla (IDHC) i Paula Guerra (Algorace), per tal d'abordar la discussió entre IA, Polítiques Públiques i Discriminacions. El cicle segueix amb:
📺 Recupera aquí la sessió
📌 Organitza: Canòdrom - Ateneu d'Innovació Digital i Democràtica
-
+
És possible imaginar sistemes d'intel·ligència artificial de governança pública? És possible implementar aquests softwares sense caure en biaixos de gènere, racistes o classistes? Quin ha de ser el rol de la societat civil i organitzacions del tercer sector?
L’Ajuntament de Barcelona ha aprovat el protocol “Definició de metodologies de treball i protocols per a la implementació de sistemes algorítmics”, que té com a finalitat crear un protocol intern per a la implementació de sistemes algorítmics i intel·ligència artificial en l’àmbit municipal. L'Institut de Drets Humans de Catalunya ha publicat un informe sobre els efectes de la intel·ligència artificial en la igualtat i en la no discriminació, analitzant on, qui, per a què i com es desenvolupa i aplica la intel·ligència artificial. Algorace, una organització que fomenta espais de diàleg amb població racialitzada per conscienciar sobre les conseqüències de l'ús racista de la IA, ha presentat una investigació que estableix les bases necessàries per entendre a què ens enfrontem des dels col·lectius socials quan parlem d’intel·ligència artificial, o sistemes de decisió automatitzats.
Reflexionem amb aquests tres actors per continuar construint una intel·ligència artificial de governança pública, auditable i en pro del bé comú.
En la segona sessió del Cicle Intel·ligència artificial, drets i democràcia comptem amb Paula Boet (AJB), Karlos Castilla (IDHC) i Paula Guerra (Algorace), per tal d'abordar la discussió entre IA, Polítiques Públiques i Discriminacions. El cicle segueix amb:
📺 Recupera aquí la sessió
📌 Organitza: Canòdrom - Ateneu d'Innovació Digital i Democràtica
Descripció (Castellano)
-
-
¿Es posible imaginar sistemas de inteligencia artificial de gobernanza pública? ¿Es posible implementar estos softwares sin caer en sesgos de género, racistas o clasistas? ¿Qué tiene que ser el rol de la sociedad civil y organizaciones del tercer sector?
El Ayuntamiento de Barcelona ha aprobado el protocolo “Definición de metodologías de trabajo y protocolos para la implementación de sistemas algorítmicos”, que tiene como finalidad crear un protocolo interno para la implementación de sistemas algorítmicos e inteligencia artificial en el ámbito municipal. El Instituto de Derechos Humanos de Cataluña ha publicado un informe sobre los efectos de la inteligencia artificial en la igualdad y en la no discriminación, analizando donde, quien, para qué y como se desarrolla y aplica la inteligencia artificial. Algorace, una organización que fomenta espacios de diálogo con población racialitzada para concienciar sobre las consecuencias del uso racista de la IA, ha presentado una investigación que establece las bases necesarias para entender a que nos enfrentamos desde los colectivos sociales cuando hablamos de inteligencia artificial, o sistemas de decisión automatizados.
Reflexionamos con estos tres actores para continuar construyendo una inteligencia artificial de gobernanza pública, auditable y en pro del bien común.
En la segunda sesión del Ciclo Inteligencia artificial, derechos y democracia contamos con Paula Boet (AJB), Karlos Castilla (IDHC) y Paula Guerra (Algorace), para abordar la discusión entre IA, Políticas Públicas y Discriminaciones. El ciclo sigue con:
📺 Recupera aquí la sesión
📌 Organizado por: Canòdrom - Ateneu d'Innovació Digital i Democràtica
-
+
¿Es posible imaginar sistemas de inteligencia artificial de gobernanza pública? ¿Es posible implementar estos softwares sin caer en sesgos de género, racistas o clasistas? ¿Qué tiene que ser el rol de la sociedad civil y organizaciones del tercer sector?
El Ayuntamiento de Barcelona ha aprobado el protocolo “Definición de metodologías de trabajo y protocolos para la implementación de sistemas algorítmicos”, que tiene como finalidad crear un protocolo interno para la implementación de sistemas algorítmicos e inteligencia artificial en el ámbito municipal. El Instituto de Derechos Humanos de Cataluña ha publicado un informe sobre los efectos de la inteligencia artificial en la igualdad y en la no discriminación, analizando donde, quien, para qué y como se desarrolla y aplica la inteligencia artificial. Algorace, una organización que fomenta espacios de diálogo con población racialitzada para concienciar sobre las consecuencias del uso racista de la IA, ha presentado una investigación que establece las bases necesarias para entender a que nos enfrentamos desde los colectivos sociales cuando hablamos de inteligencia artificial, o sistemas de decisión automatizados.
Reflexionamos con estos tres actores para continuar construyendo una inteligencia artificial de gobernanza pública, auditable y en pro del bien común.
En la segunda sesión del Ciclo Inteligencia artificial, derechos y democracia contamos con Paula Boet (AJB), Karlos Castilla (IDHC) y Paula Guerra (Algorace), para abordar la discusión entre IA, Políticas Públicas y Discriminaciones. El ciclo sigue con:
📺 Recupera aquí la sesión
📌 Organizado por: Canòdrom - Ateneu d'Innovació Digital i Democràtica
Descripció (English)
-
-
Is it possible to imagine artificial intelligence systems of public governance? Is it possible to implement these softwares without falling into gender, racist or classist biases? What has to be the role of civil society and third sector organizations?
The Barcelona City Council has approved the protocol "Definition of working methodologies and protocols for the implementation of algorithmic systems", which aims to create an internal protocol for the implementation of algorithmic systems and artificial intelligence in the municipal sphere. The Human Rights Institute of Catalonia has published a report on the effects of artificial intelligence on equality and non-discrimination, analyzing where, who, what for and how artificial intelligence is developed and applied. Algorace, an organization that promotes spaces for dialogue with racialized population to raise awareness about the consequences of the racist use of AI, has presented a research that establishes the necessary basis to understand what we face from social collectives when we talk about artificial intelligence, or automated decision systems.
We reflect with these three actors to continue building an artificial intelligence of public governance, auditable and for the common good.
In the second session of the Artificial Intelligence, Rights and Democracy Cycle we have Paula Boet (AJB), Karlos Castilla (IDHC) and Paula Guerra (Algorace), to address the discussion between AI, Public Policies and Discriminations. The cycle continues with:
📺 Retrieve the session here
📌 Organized by: Canòdrom - Ateneu d'Innovació Digital i Democràtica
-
+
Is it possible to imagine artificial intelligence systems of public governance? Is it possible to implement these softwares without falling into gender, racist or classist biases? What has to be the role of civil society and third sector organizations?
The Barcelona City Council has approved the protocol "Definition of working methodologies and protocols for the implementation of algorithmic systems", which aims to create an internal protocol for the implementation of algorithmic systems and artificial intelligence in the municipal sphere. The Human Rights Institute of Catalonia has published a report on the effects of artificial intelligence on equality and non-discrimination, analyzing where, who, what for and how artificial intelligence is developed and applied. Algorace, an organization that promotes spaces for dialogue with racialized population to raise awareness about the consequences of the racist use of AI, has presented a research that establishes the necessary basis to understand what we face from social collectives when we talk about artificial intelligence, or automated decision systems.
We reflect with these three actors to continue building an artificial intelligence of public governance, auditable and for the common good.
In the second session of the Artificial Intelligence, Rights and Democracy Cycle we have Paula Boet (AJB), Karlos Castilla (IDHC) and Paula Guerra (Algorace), to address the discussion between AI, Public Policies and Discriminations. The cycle continues with:
📺 Retrieve the session here
📌 Organized by: Canòdrom - Ateneu d'Innovació Digital i Democràtica