Ciclo IA, Derechos y Democracia
#IADretsDemocràcia Riesgos y potencias de la inteligencia artificial
Cambios en "Sesión 2 | IA, Políticas públicas y Discriminaciones"
Descripción (Català)
-
-
[Descripció - work in progress ✨]
-
+
És possible imaginar sistemes d'intel·ligència artificial de governança pública? És possible implementar aquests softwares sense caure en biaixos de gènere, racistes o classistes? Quin ha de ser el rol de la societat civil i organitzacions del tercer sector?
L’Ajuntament de Barcelona ha aprovat el protocol “Definició de metodologies de treball i protocols per a la implementació de sistemes algorítmics”, que té com a finalitat crear un protocol intern per a la implementació de sistemes algorítmics i intel·ligència artificial en l’àmbit municipal. L'Institut de Drets Humans de Catalunya ha publicat un informe sobre els efectes de la intel·ligència artificial en la igualtat i en la no discriminació, analitzant on, qui, per a què i com es desenvolupa i aplica la intel·ligència artificial. Algorace, una organització que fomenta espais de diàleg amb població racialitzada per conscienciar sobre les conseqüències de l'ús racista de la IA, ha presentat una investigació que estableix les bases necessàries per entendre a què ens enfrontem des dels col·lectius socials quan parlem d’intel·ligència artificial, o sistemes de decisió automatitzats.
Reflexionem amb aquests tres actors per continuar construint una intel·ligència artificial de governança pública, auditable i en pro del bé comú.
En la segona sessió del cicle Intel·ligència artificial, drets i democràcia comptem amb Paula Boet (AJB), Karlos Castilla (IDHC) i Paula Guerra (Algorace), per tal d'abordar aquestes qüestions. El cicle segueix amb:
Organitza: Canòdrom - Ateneu d'Innovació Digital i Democràtica
La imatge del cicle és una creació de Taller Estampa