Cicle IA, Drets i Democràcia
#IADretsDemocràcia Riscos i potències de la intel·ligència artificial
Sessió 2 | IA, Polítiques públiques i Discriminacions
És possible imaginar sistemes d'intel·ligència artificial de governança pública? És possible implementar aquests softwares sense caure en biaixos de gènere, racistes o classistes? Quin ha de ser el rol de la societat civil i organitzacions del tercer sector?
L’Ajuntament de Barcelona ha aprovat el protocol “Definició de metodologies de treball i protocols per a la implementació de sistemes algorítmics”, que té com a finalitat crear un protocol intern per a la implementació de sistemes algorítmics i intel·ligència artificial en l’àmbit municipal. L'Institut de Drets Humans de Catalunya ha publicat un informe sobre els efectes de la intel·ligència artificial en la igualtat i en la no discriminació, analitzant on, qui, per a què i com es desenvolupa i aplica la intel·ligència artificial. Algorace, una organització que fomenta espais de diàleg amb població racialitzada per conscienciar sobre les conseqüències de l'ús racista de la IA, ha presentat una investigació que estableix les bases necessàries per entendre a què ens enfrontem des dels col·lectius socials quan parlem d’intel·ligència artificial, o sistemes de decisió automatitzats.
Reflexionem amb aquests tres actors per continuar construint una intel·ligència artificial de governança pública, auditable i en pro del bé comú.
En la segona sessió del Cicle Intel·ligència Artificial, drets i democràcia comptem amb Paula Boet (AJB), Karlos Castilla (IDHC) i Paula Guerra (Algorace), per tal d'abordar la discussió entre IA, Polítiques Públiques i Discriminacions.
El cicle segueix amb:
📺 Recupera aquí la sessió
📌 Organitza: Canòdrom - Ateneu d'Innovació Digital i Democràtica
Reportar contingut inapropiat
Aquest contingut no és apropiat?
0 comentaris
Carregant els comentaris ...
Deixa el teu comentari
Inicia la sessió amb el teu compte o registra't per afegir el teu comentari.
Carregant els comentaris ...