Cicle IA, Drets i Democràcia
#IADretsDemocràcia Riscos i potències de la intel·ligència artificial
Canvis a "Sessió 2 | IA, Polítiques públiques i Discriminacions"
Descripció (Castellano)
-
-
¿Es posible imaginar sistemas de inteligencia artificial de gobernanza pública? ¿Es posible implementar estos softwares sin caer en sesgos de género, racistas o clasistas? ¿Qué tiene que ser el rol de la sociedad civil y organizaciones del tercer sector?
El Ayuntamiento de Barcelona ha aprobado el protocolo “Definición de metodologías de trabajo y protocolos para la implementación de sistemas algorítmicos”, que tiene como finalidad crear un protocolo interno para la implementación de sistemas algorítmicos e inteligencia artificial en el ámbito municipal. El Instituto de Derechos Humanos de Cataluña ha publicado un informe sobre los efectos de la inteligencia artificial en la igualdad y en la no discriminación, analizando donde, quien, para qué y como se desarrolla y aplica la inteligencia artificial. Algorace, una organización que fomenta espacios de diálogo con población racialitzada para concienciar sobre las consecuencias del uso racista de la IA, ha presentado una investigación que establece las bases necesarias para entender a que nos enfrentamos desde los colectivos sociales cuando hablamos de inteligencia artificial, o sistemas de decisión automatizados.
Reflexionamos con estos tres actores para continuar construyendo una inteligencia artificial de gobernanza pública, auditable y en pro del bien común.
En la segunda sesión del Ciclo Inteligencia artificial, derechos y democracia contamos con Paula Boet (AJB), Karlos Castilla (IDHC) y Paula Guerra (Algorace), para abordar la discusión entre IA, Políticas Públicas y Discriminaciones. El ciclo sigue con:
📌 Organizado por: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 The image of the cycle is a creation of Taller Estampa -
+
¿Es posible imaginar sistemas de inteligencia artificial de gobernanza pública? ¿Es posible implementar estos softwares sin caer en sesgos de género, racistas o clasistas? ¿Qué tiene que ser el rol de la sociedad civil y organizaciones del tercer sector?
El Ayuntamiento de Barcelona ha aprobado el protocolo “Definición de metodologías de trabajo y protocolos para la implementación de sistemas algorítmicos”, que tiene como finalidad crear un protocolo interno para la implementación de sistemas algorítmicos e inteligencia artificial en el ámbito municipal. El Instituto de Derechos Humanos de Cataluña ha publicado un informe sobre los efectos de la inteligencia artificial en la igualdad y en la no discriminación, analizando donde, quien, para qué y como se desarrolla y aplica la inteligencia artificial. Algorace, una organización que fomenta espacios de diálogo con población racialitzada para concienciar sobre las consecuencias del uso racista de la IA, ha presentado una investigación que establece las bases necesarias para entender a que nos enfrentamos desde los colectivos sociales cuando hablamos de inteligencia artificial, o sistemas de decisión automatizados.
Reflexionamos con estos tres actores para continuar construyendo una inteligencia artificial de gobernanza pública, auditable y en pro del bien común.
En la segunda sesión del Ciclo Inteligencia artificial, derechos y democracia contamos con Paula Boet (AJB), Karlos Castilla (IDHC) y Paula Guerra (Algorace), para abordar la discusión entre IA, Políticas Públicas y Discriminaciones. El ciclo sigue con:
📌 Organizado por: Canòdrom - Ateneu d'Innovació Digital i Democràtica
📸 La imagen del ciclo es una creación de Taller Estampa