Ciclo IA, Derechos y Democracia
#IADretsDemocràcia Riesgos y potencias de la inteligencia artificial
Cambios en "Sesión 2 | IA, Políticas públicas y Discriminaciones"
Título (Castellano)
- +Sesión 2 | IA, Políticas públicas y Discriminaciones
Título (English)
- +Session 2 | AI, Public Policy and Discrimination
Descripción (Castellano)
-
+
¿Es posible imaginar sistemas de inteligencia artificial de gobernanza pública? ¿Es posible implementar estos softwares sin caer en sesgos de género, racistas o clasistas? ¿Qué tiene que ser el rol de la sociedad civil y organizaciones del tercer sector?
El Ayuntamiento de Barcelona ha aprobado el protocolo “Definición de metodologías de trabajo y protocolos para la implementación de sistemas algorítmicos”, que tiene como finalidad crear un protocolo interno para la implementación de sistemas algorítmicos e inteligencia artificial en el ámbito municipal. El Instituto de Derechos Humanos de Cataluña ha publicado un informe sobre los efectos de la inteligencia artificial en la igualdad y en la no discriminación, analizando donde, quien, para qué y como se desarrolla y aplica la inteligencia artificial. Algorace, una organización que fomenta espacios de diálogo con población racialitzada para concienciar sobre las consecuencias del uso racista de la IA, ha presentado una investigación que establece las bases necesarias para entender a que nos enfrentamos desde los colectivos sociales cuando hablamos de inteligencia artificial, o sistemas de decisión automatizados.
Reflexionamos con estos tres actores para continuar construyendo una inteligencia artificial de gobernanza pública, auditable y en pro del bien común.
En la segunda sesión del Ciclo Inteligencia artificial, derechos y democracia contamos con Paula Boet (AJB), Karlos Castilla (IDHC) y Paula Guerra (Algorace), para abordar la discusión entre IA, Políticas Públicas y Discriminaciones. El ciclo sigue con:
📌 Organizado por: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 The image of the cycle is a creation of Taller Estampa
Descripción (English)
-
+
És possible imaginar sistemes d'intel·ligència artificial de governança pública? És possible implementar aquests softwares sense caure en biaixos de gènere, racistes o classistes? Quin ha de ser el rol de la societat civil i organitzacions del tercer sector?
L’Ajuntament de Barcelona ha aprovat el protocol “Definició de metodologies de treball i protocols per a la implementació de sistemes algorítmics”, que té com a finalitat crear un protocol intern per a la implementació de sistemes algorítmics i intel·ligència artificial en l’àmbit municipal. L'Institut de Drets Humans de Catalunya ha publicat un informe sobre els efectes de la intel·ligència artificial en la igualtat i en la no discriminació, analitzant on, qui, per a què i com es desenvolupa i aplica la intel·ligència artificial. Algorace, una organització que fomenta espais de diàleg amb població racialitzada per conscienciar sobre les conseqüències de l'ús racista de la IA, ha presentat una investigació que estableix les bases necessàries per entendre a què ens enfrontem des dels col·lectius socials quan parlem d’intel·ligència artificial, o sistemes de decisió automatitzats.
Reflexionem amb aquests tres actors per continuar construint una intel·ligència artificial de governança pública, auditable i en pro del bé comú.
En la segona sessió del Cicle Intel·ligència artificial, drets i democràcia comptem amb Paula Boet (AJB), Karlos Castilla (IDHC) i Paula Guerra (Algorace), per tal d'abordar la discussió entre IA, Polítiques Públiques i Discriminacions. El cicle segueix amb:
📌 Organitza: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 La imatge del cicle és una creació de Taller Estampa